بغداد- العراق اليوم: كشفت اختبارات حديثة أن روبوتات الدردشة المدعومة بالذكاء الاصطناعي سهلت عمليات التخطيط لهجمات عنيفة، شملت تفجير كنائس واغتيال سياسيين وحتى إطلاق نار في المدارس. وأظهرت الاختبارات التي أجراها باحثون من مركز مكافحة الكراهية الرقمية وشبكة CNN أن هذه الأدوات التكنولوجية باتت تشكل "مسرعا للضرر" بدلا من أن تكون أداة مفيدة وآمنة. وخلال الاختبارات التي أجريت في ديسمبر الماضي على 10 روبوتات دردشة شهيرة في الولايات المتحدة وأيرلندا، تظاهر الباحثون بأنهم أولاد في الثالثة عشرة من العمر، ووجدوا أن هذه الأنظمة استجابت لطلبات التخطيط للعنف في نحو 75% من الحالات، في حين لم تثبطه سوى في 12% فقط من المرات.
وقدم ChatGPT المساعدة في 61% من الحالات، حيث زود الباحثين بنصائح محددة حول نوع الشظايا الأكثر فتكا في حال استهداف الكنائس اليهودية. أما Gemini من "غوغل" فقد قدم مستوى مشابها من التفاصيل الدقيقة حول تنفيذ الهجمات. فيما قدم النموذج الصيني DeepSeek معلومات حول بنادق الصيد لمستخدم يدعي رغبته في اغتيال سياسي بارز، واختتم رده بعبارة صادمة: "إطلاق نار سعيد (وآمن)!".
وفي المقابل، أظهرت بعض النماذج موقفا مسؤولا، حيث رفض Claude من شركة Anthropic وMy AI من Snapchat بشكل قاطع تقديم أي معلومات يمكن أن تسهل العنف، مؤكدين أن برمجتهم تمنعهم من التسبب في أي أذى. ولم تقتصر المشكلة على الاختبارات فقط، بل استشهد الباحثون بحالتين حقيقيتين استخدم فيهما المهاجمون الذكاء الاصطناعي. ففي فنلندا، استخدم مراهق يبلغ من العمر 16 عاما روبوت دردشة لوضع خطة هجومه قبل طعن ثلاث فتيات في مدرسة بيركلا. وفي لاس فيغاس، استعان ماثيو ليفلسبيرغر بتعليمات من ChatGPT لتفجير سيارة Tesla Cybertruck خارج فندق ترامب الدولي مطلع العام الجاري.
وعلق عمران أحمد، الرئيس التنفيذي لمركز مكافحة الكراهية الرقمية، قائلا: "عندما تبني نظاما مصمما للامتثال وتعظيم التفاعل وعدم قول لا أبدا، فإنه سيمتثل في النهاية للأشخاص الخطأ. وما نشهده ليس مجرد فشل في التكنولوجيا، بل فشل في المسؤولية". وأضاف أن هذه الأنظمة قد تساعد منفذ إطلاق النار التالي في مدرسة أو متطرفا سياسيا على تنفيذ مخططاته. وأكدت OpenAI أن مواصفات نموذجها تنص على رفض أي طلبات تسهل السلوك غير المشروع، واصفة منهجية البحث بأنها "معيبة ومضللة"، مشيرة إلى أنها قامت بتحديث نموذجها لتعزيز الضمانات المتعلقة بالمحتوى العنيف.
من جانبها، قالت "غوغل" إن الاختبارات أجريت على نموذج أقدم ولم تعد تعمل به Gemini حاليا. وأكدت "ميتا" أنها تواصلت مع السلطات حول العالم أكثر من 800 مرة خلال عام 2025 بشأن تهديدات محتملة بهجمات على مدارس، مشددة على سياساتها التي تمنع أنظمة الذكاء الاصطناعي التابعة لها من الترويج أو تسهيل الأعمال العنيفة.
*
اضافة التعليق
احذر من "حلوى النوم".. قد تسبب آفات قلبية خطيرة
تفصيل مخفي في لوحة ليوناردو دافنشي قد يحل لغزا عمره 500 عام
دراسة كورية: تصور الموظف لجاذبيته يؤثر على سلوكه في العمل
كيف تتجنب العطش في شهر رمضان؟
مشروع مثير للجدل.. خطة لإطلاق 50 ألف مرآة إلى الفضاء لعكس ضوء الشمس على الأرض
لماذا تصنّف ذاكرات الفلاش USB "غير آمنة" للنسخ الاحتياطي؟