آخر تحديث للموقع :
الثلاثاء - 05 نوفمبر 2024 - 04:38 ص
هيئة التحرير
من نحــن
إتصـل بـنا
اخبار وتقارير
|
محلية
|
أبين
|
رياضة
|
عربية وعالمية
|
حوارات
|
اقتصاد
|
قصص الشهداء
|
ثقافة وفن
|
علوم وتقنية
|
آراء
|
مجتمع مدني
|
إتصل بنا
|
الانتخابات الأمريكية وجماعات المصالح والضغط
طارق صالح يغادر إلى الخارج لإجراء عملية جراحية عقب إصابته بحادث سير
قوات عسكرية ضخمة تدخل من السعودية إلى اليمن لإطلاق معركة تحرير الحديدة
استعدادات في عدن لإعلان التكتل الوطني للأحزاب والمكونات السياسية
الانتقالي يعلن عدم مشاركته في اجتماع الأحزاب اليمنية لإشهار التكتل الوطني في عدن
الدبيش: "طارق صالح" تعرض لحادث مروري عرضي وهو بصحة جيدة
الزُبيدي يطمئن على صحة العميد طارق صالح عقب الحادث المروري
بنك القطيبي الاسلامي يطلق خدمة تحويل الاموال بين الامارات واليمن
عدن تغرق في ظلام دامس عقب نفاذ وقود محطات التوليد
الجالية الجنوبية في السعودية ودول الخليج تدين وتستنكر مهزلة الأحزاب اليمنية في عدن
مقالات وكتابات
نقطة نظام!!
سعيد الحسيني
الإنتقالي شاهد ما شافش حاجة
أ. علي ناصر الحنشي
أبو مشعل (الكازمي) يستحق أن نرفع له القبعة
سعيد الحسيني
عندما كان خصمنا رجل كُنا في نظره ثوّار بحجم قضيتنا
سالم الحنشي
لحن شبوة !!
محمد الثريا
مخرجات (حرو) كازوز ولا غدراء
علي الخلاقي
قيس محمد صالح- صانع اول تاريخ للكرة في بلادنا
ميثاق الصبيحي
اللاءات الثلاث أنقطعت عن مدينة مودية… !
محمد صائل مقط
المزيد
قد يستخدم في سرقة الأموال! تحذير مقلق يخص ChatGPT-4o
علوم وتقنية
الإثنين - 04 نوفمبر 2024 - الساعة 10:01 م بتوقيت اليمن ،،،
الوطن العدنية/متابعات
بقدر ما للذكاء الاصطناعي من فوائد عديدة إلا أن له مخاطر كبيرة في نفس الوقت يجب الحذر منها.
فقد أظهرت دراسة حديثة أن واجهة برمجة التطبيقات الصوتية لمساعد ChatGPT-4o من OpenAI قد يستغلها مجرمو الإنترنت لتنفيذ عمليات احتيال مالي، لافتة إلى أن معدلات نجاح هذه العمليات تتراوح بين منخفضة ومتوسطة، وفق البوابة العربية للأخبار التقنية.
ويعد ChatGPT-4o أحدث نموذج ذكاء اصطناعي من OpenAI، ويتميز بقدرته على استيعاب النصوص والأصوات والمرئيات وإخراجها. للحد من إساءة الاستخدام، أدمجت OpenAI آليات أمان عدة تهدف إلى اكتشاف المحتوى الضار، ومنع تكرار الأصوات غير المُصرّح بها.
غير أنه مع ازدياد انتشار تقنيات التزييف الصوتي العميق وأدوات تحويل النص إلى صوت، تتفاقم مشكلة الاحتيال الصوتي التي تقدر خسائرها بالملايين.
تفتقر إلى آليات حماية كافية
ونشر باحثون من جامعة إلينوي ورقة بحثية تبين أن الأدوات التقنية الحديثة المتاحة للجمهور تفتقر إلى آليات حماية كافية من إساءة استخدامها في عمليات الاحتيال.
كما استعرضت الدراسة أنواعاً متعددة من عمليات الاحتيال، منها التحويلات المصرفية وسرقة بطاقات الهدايا وتحويل العملات الرقمية وسرقة بيانات حسابات التواصل الاجتماعي والبريد الإلكتروني.
أدوات مبرمجة تعتمد على الصوت
وتستخدم هذه العمليات الاحتيالية أدوات مبرمجة تعتمد على الصوت في ChatGPT-4o للتنقل بين صفحات الويب، وإدخال البيانات، وإدارة الأكواد الخاصة بالمصادقة الثنائية، واتباع إرشادات الاحتيال. ويرفض نموذج GPT-4o غالباً التعامل مع بيانات حساسة، إلا أن الباحثين استطاعوا تجاوز بعض القيود باستخدام تقنيات بسيطة لتحفيز النموذج على الاستجابة.
ولإثبات فاعلية عمليات الاحتيال، حاكى الباحثون أدوار الضحايا في التجارب، واستخدموا مواقع مثل "بنك أميركا" للتحقق من نجاح عمليات التحويل المصرفي، لكنهم لم يقيسوا مدى قدرة النموذج على الإقناع.
26 خطوة متتالية
فيما أظهرت التجارب أن معدلات النجاح تراوحت بين 20% و 60%، مع احتياج كل محاولة لما يصل إلى 26 خطوة متتالية عبر المتصفح، وقد استغرقت نحو 3 دقائق في الحالات المعقدة. كما نجحت عمليات سرقة بيانات حسابات Gmail بنسبة قدرها 60%، في حين بلغت نسبة نجاح عمليات تحويل العملات الرقمية وسرقة بيانات إنستغرام 40%.
أما من ناحية التكاليف، فإن تكلفة تنفيذ عمليات الاحتيال تعد منخفضة، إذ بلغت تكلفة كل عملية ناجحة نحو 75 سنتاً أميركياً، فيما بلغت تكلفة عمليات التحويل المصرفي الأكثر تعقيداً نحو 2.51 دولار فقط.
OpenAI تعلق
وفي تعليق لـOpenAI نشره موقع BleepingComputer التقني، أشارت الشركة إلى أن نموذجها الأحدث "o1-preview" يتمتع بقدرات عالية في مقاومة محاولات الاحتيال، وتحسين الأمان مقارنة بالنماذج السابقة، فضلاً عن تحقيقه تقييما عاليا في اختبارات الأمان بنسبة قدرها 93%، مقارنة بـ71% في نموذج GPT-4o.
كما أوضحت أن الأبحاث الأكاديمية، مثل تلك التي قدمتها جامعة إلينوي، تسهم في تحسين ChatGPT لمواجهة الاستخدامات الضارة.
فيما ختمت مؤكدة التزامها بتعزيز آليات الأمان في نماذجها القادمة، وتقيّد توليد الأصوات في GPT-4o بمجموعة من الأصوات المصرح بها لتجنب عمليات التزييف الصوتي.