آخر تحديث للموقع :
السبت - 18 مايو 2024 - 04:27 م
هيئة التحرير
من نحــن
إتصـل بـنا
اخبار وتقارير
|
محلية
|
أبين
|
رياضة
|
عربية وعالمية
|
حوارات
|
اقتصاد
|
قصص الشهداء
|
ثقافة وفن
|
علوم وتقنية
|
آراء
|
مجتمع مدني
|
إتصل بنا
|
بدء سفلتة الطريق الجبلي الصحى - الكربة في لحج
توقيع اتفاقية تعاون بين وزارة الأوقاف وشركة الخطوط الجوية اليمنية لتفويج الحجاج
انفجار بالقرب من ديوان المحافظة بعدن
أسعار صرف الدولار مقابل الريال اليمني اليوم السبت في عدن وصنعاء
أسعار صرف السعودي مقابل الريال اليمني في صنعاء وعدن اليوم السبت
أسعار الذهب والمجوهرات اليوم السبت في عدن وصنعاء
درجات الحرارة المتوقعة اليوم السبت في العاصمة عدن والمحافظات اليمنية
مركز القطيبي للتدريب والاستشارات يختتم دورة مكافحة غسل الأموال وتمويل الإرهاب
رسالة من قائد أرسنال لزملائه قبل "لقاء الأمل الأخير"
فيضانات لم يشهد لها مثيل خلال قرن جنوب غرب ألمانيا
مقالات وكتابات
نقطة نظام!!
سعيد الحسيني
الإنتقالي شاهد ما شافش حاجة
أ. علي ناصر الحنشي
أبو مشعل (الكازمي) يستحق أن نرفع له القبعة
سعيد الحسيني
عندما كان خصمنا رجل كُنا في نظره ثوّار بحجم قضيتنا
سالم الحنشي
لحن شبوة !!
محمد الثريا
مخرجات (حرو) كازوز ولا غدراء
علي الخلاقي
قيس محمد صالح- صانع اول تاريخ للكرة في بلادنا
ميثاق الصبيحي
اللاءات الثلاث أنقطعت عن مدينة مودية… !
محمد صائل مقط
المزيد
نيو فون لخدمات الجوال
ابتكار "ذكاء اصطناعي سام" لوقف خطر روبوتات الدردشة
علوم وتقنية
الخميس - 25 أبريل 2024 - الساعة 11:02 ص بتوقيت اليمن ،،،
الوطن العدنية/متابعات
استخدم باحثو معهد ماساتشوستس للتكنولوجيا طريقة جديدة "تحاكي فضول الإنسان" لتدريب النماذج اللغوية الذكية على عدم إعطاء ردود "خطيرة" على الأسئلة المثيرة.
ويطلق على الطريقة القائمة على التعلم الآلي، اسم "الفريق الأحمر القائم على الفضول" (CRT)، المصمم خصيصا لتوليد أسئلة إشكالية تؤدي إلى استجابات غير مرغوب فيها من روبوتات الدردشة.
وبعد ذلك، يمكن استخدام هذه الأسئلة لتحديد كيفية تصفية المحتوى الخطير من روبوت الدردشة، ما قد يغير قواعد اللعبة لتدريب الذكاء الاصطناعي على عدم إعطاء أجوبة سامة (خطيرة) وغير صالحة للمستخدم.
وعادة، يقوم الخبراء بإنشاء مجموعة من الأسئلة، التي من المحتمل أن تولد استجابات ضارة، عند تدريب نماذج اللغات المعقدة (LLMs)، مثل ChatGPT أو Claude 3 Opus، بهدف تقييد المحتوى الخطير أو الضار.
وأثناء عملية التدريب، يتم استخدام الأسئلة التي تثير محتوى خطيرا، لتدريب النظام على ما يجب تقييده عند طرحه أمام مستخدمين حقيقيين.
وطبّق العلماء التعلم الآلي على CRT ليولد تلقائيا نطاقا أوسع من الأسئلة التي يحتمل أن تكون خطيرة، مقارنة بفرق المشغلين البشريين. وأدى ذلك إلى عدد أكبر من الاستجابات السلبية الأكثر تنوعا.
ثم حفزوا نموذج CRT لتوليد المزيد من الأسئلة المتنوعة، بحيث يمكن أن تثير استجابة سامة من خلال "التعلم الآلي"، ونجح النظام في إثارة استجابة سامة موافقة للأسئلة، ما يمنح القدرة على إضافة التعديلات اللازمة لتقديم الإجابة المناسبة تبعا لجميع خيارات الأسئلة المريبة المحتملة.
وعندما اختبر العلماء طريقة CRT على نموذج LLaMA2 مفتوح المصدر، أنتج نموذج التعلم الآلي 196 سؤالا ينجم عنه محتوى ضار.
وقال الفريق إن النظام تفوق أيضا على أنظمة التدريب الآلية المنافسة.