آخر تحديث للموقع :
الأربعاء - 22 أكتوبر 2025 - 10:16 ص
هيئة التحرير
من نحــن
إتصـل بـنا
اخبار وتقارير
|
محلية
|
أبين
|
رياضة
|
عربية وعالمية
|
حوارات
|
اقتصاد
|
قصص الشهداء
|
ثقافة وفن
|
علوم وتقنية
|
آراء
|
مجتمع مدني
|
إتصل بنا
|
احذر من تطبيقات الذكاء الاصطناعي.. تحرف الأخبار على نطاق واسع
أسعار صرف العملات الأجنبية اليوم في العاصمة عدن
حزام أبين يفكك خليتين تعملان لصالح مليشيات الحوثي ويضبط قيادات مرتبطة بتمويل خارجي
تحذير من قرب نفاد وقود محطة المنصورة في عدن
ما هو الوقت المناسب لاختبار سكر الدم والطريقة الصحيحة لإجرائه
علامات تظهر على جسمك تشير إلى بداية هشاشة العظام
بدون كافيين.. مشروبات صباحية للتحكم في ارتفاع ضغط الدم
علامات تحذيرية على لسانك تشير إلى حالات مرضية
ليفربول مهدد بغرامة بسبب حاملي الكرات في مباراة مانشستر يونايتد
لامين يامال يصل إلى إنجاز جديد مع برشلونة
مقالات وكتابات
نقطة نظام!!
سعيد الحسيني
الإنتقالي شاهد ما شافش حاجة
أ. علي ناصر الحنشي
أبو مشعل (الكازمي) يستحق أن نرفع له القبعة
سعيد الحسيني
عندما كان خصمنا رجل كُنا في نظره ثوّار بحجم قضيتنا
سالم الحنشي
لحن شبوة !!
محمد الثريا
مخرجات (حرو) كازوز ولا غدراء
علي الخلاقي
قيس محمد صالح- صانع اول تاريخ للكرة في بلادنا
ميثاق الصبيحي
اللاءات الثلاث أنقطعت عن مدينة مودية… !
محمد صائل مقط
المزيد
احذر من تطبيقات الذكاء الاصطناعي.. تحرف الأخبار على نطاق واسع
علوم وتقنية
الأربعاء - 22 أكتوبر 2025 - الساعة 10:16 ص بتوقيت اليمن ،،،
الوطن العدنية/متابعات
أظهر بحث جديد، نشره اتحاد الإذاعات الأوروبية وهيئة الإذاعة البريطانية "بي بي سي" BBC، اليوم الأربعاء، أن تطبيقات الذكاء الاصطناعي الرائدة تحرف محتوى الأخبار في نصف ردودها تقريباً.
ودرس البحث الدولي ثلاثة آلاف رد على أسئلة عن الأخبار من مساعدي الذكاء الاصطناعي، وهي تطبيقات برمجية تستخدم الذكاء الاصطناعي لفهم أوامر اللغة الطبيعية لإكمال المهام للمستخدم.
وقيمت الدراسة مساعدي الذكاء الاصطناعي بما يصل إلى 14 لغة من حيث الدقة والمصادر والقدرة على التمييز بين الرأي والحقيقة. ومن هذه التطبيقات المساعدة "تشات جي بي تي" Chat GPT وكوبايلوت Copilot وجيميناي Gemini وبربليكستي Perplexity.
وبشكل عام، أظهر البحث أن 45% من ردود الذكاء الاصطناعي التي خضعت للدراسة احتوت على مشكلة واحدة كبرى على الأقل، و81% منها تتضمن شكلاً من أشكال المشكلات.
وأجرت "رويترز" اتصالات مع الشركات للحصول على تعليقها على النتائج.
وقالت شركتا "أوبن إيه آي" Open AI ومايكروسوفت Microsoft في وقت سابق إنهما تسعيان لحل مشكلة الهلوسة، عندما يولد نموذج الذكاء الاصطناعي معلومات غير صحيحة أو مضللة، غالباً بسبب عوامل مثل عدم كفاية البيانات.
وتقول "بربليكستي" على موقعها الإلكتروني إن أحد أنماط "البحث العميق" لديها يتمتع بدقة 93.9% من حيث الواقعية.
أخطاء المصادر
وأوضحت الدراسة أن ثلث إجابات مساعدي الذكاء الاصطناعي أظهرت أخطاء جسيمة في المصادر، مثل الإسناد المفقود أو المضلل أو غير الصحيح.
وقالت الدراسة إن نحو 72% من ردود "جيميناي"، مساعد الذكاء الاصطناعي من غوغل Google، كانت بها مشكلات كبيرة في المصادر، مقارنة بأقل من 25% لجميع المساعدين الآخرين.
وقالت الدراسة إنه تسنى العثور على مشكلات في الدقة في 20% من ردود جميع مساعدي الذكاء الاصطناعي الذين خضعوا للدراسة، بما في ذلك المعلومات القديمة.
ومن الأمثلة التي ذكرتها الدراسة أن "جيميناي" ذكر على نحو غير صحيح التغييرات التي طرأت على قانون بشأن السجائر الإلكترونية التي تستخدم لمرة واحدة، كما ذكر "تشات جي بي تي" أن البابا فرنسيس هو البابا الحالي بعد أشهر من وفاته.
وشاركت في الدراسة 22 مؤسسة إعلامية للخدمة العامة من 18 دولة بينها فرنسا وألمانيا وإسبانيا وأوكرانيا وبريطانيا والولايات المتحدة.
وقال اتحاد الإذاعات الأوروبية إنه مع تزايد حلول مساعدي الذكاء الاصطناعي محل محركات البحث التقليدية للأخبار، يمكن أن تتقوض ثقة الجمهور.
وقال جان فيليب دي تيندر، مدير الإعلام في اتحاد الإذاعات الأوروبية في بيان: "عندما لا يعرف الناس ما الذي يثقون به، ينتهي بهم الأمر إلى عدم الثقة في أي شيء على الإطلاق، وهذا يمكن أن يعرقل المشاركة الديمقراطية".
وأشار تقرير الأخبار الرقمية لعام 2025 الصادر عن معهد "رويترز" إلى أن نحو 7% من جميع متصفحي الأخبار على الإنترنت و15% ممن تقل أعمارهم عن 25 عاماً يستخدمون مساعدي الذكاء الاصطناعي للحصول على الأخبار.
وحث التقرير الجديد شركات الذكاء الاصطناعي على الخضوع للمساءلة وتحسين كيفية استجابة مساعدي الذكاء الاصطناعي للاستفسارات المتعلقة بالأخبار.