بغداد- العراق اليوم: لم يعد هناك من أسئلة يصعب تصوّرها بشأن علاقة الإنسان مع الذكاء الاصطناعيّ. من أحدث هذه الأسئلة، وربّما أكثرها إلحاحاً، معرفة هويّة الفائز في أيّ حرب محتملة بين الطرفين. يتطرّق ستيفن كيلي في مجلّة "ساينس فوكوس" من إصدار "بي بي سي" إلى هذا الاحتمال ويسأل أحد المتخصّصين في مجال الذكاء الاصطناعيّ والحروب عن رأيه في الموضوع. على ما يبدو، ليس هذا الخبير متفائلاً بهويّة الفائز. وتشاؤمه مبنيّ على محاكاة علميّة تمّ إجراؤها مؤخّراً. كتب كيلي أنّ فيلم الخيال العلميّ الجديد The Creator يتصوّر مستقبلاً تكون البشريّة في حالة حرب مع الذكاء الاصطناعيّ. لا يعدّ هذا مفهوماً جديداً للخيال العلميّ، لكنّ الاختلاف الرئيسيّ هنا مع أفلام سابقة هو أنّه يصل في وقت بدأ الاحتمال يبدو وكأنّه حقيقة علميّة أكثر من كونه خيالاً علميّاً. على سبيل المثال، شهدت الأشهر القليلة الماضية العديد من التحذيرات بشأن "التهديد الوجوديّ" الذي يشكّله الذكاء الاصطناعيّ. من جملة الأسباب، قدرة الأخير على إطلاق تطوّرات مخيفة في الحرب يمكن أن تخرج عن السيطرة.
لقد سحقه تماماً
القلق الأكثر وضوحاً هو المستقبل الذي يتمّ فيه استخدام الذكاء الاصطناعيّ لتشغيل الأسلحة بشكل مستقل. يستشهد مؤلّف كتاب "أربع ساحات قتال: القوّة في عصر الذكاء الاصطناعيّ"، ونائب رئيس "مركز الأمن الأمريكيّ الجديد" بول شاري بالمثل الأخير لتحدّي"ألفا دوغ فايت" الذي أطلقته "وكالة مشاريع الأبحاث الدفاعيّة المتقدّمة" (داربا) وهو محاكاة جوّيّة يتحّدى فيها طيّار بشريّ ذكاء اصطناعيّاً. يقول شاري: "ليس أنّ الذكاء الاصطناعيّ سحق الطيّار بنسبة 15 إلى صفر فحسب، بل قام بحركات لا يستطيع البشر القيام بها؛ على وجه التحديد، طلقات نارية شديدة الدقة في أجزاء من الثانية".
أسئلة غير مريحة
إنّ احتمال منح الذكاء الاصطناعيّ القدرة على اتّخاذ قرارات حياة أو موت يثير أسئلة غير مريحة. على سبيل المثال، ماذا سيحدث إذا ارتكب ذكاء اصطناعيّ خطأ وقتل مدنيّاً عن غير قصد؟ يقول شاري: "سيكون ذلك جريمة حرب". وأضاف: "الصعوبة هي أنّه قد لا يكون هناك من يمكن محاسبته". في المستقبل القريب، سيكون الاستخدام الأرجح للذكاء الاصطناعيّ في الحرب ضمن إطار التكتيكات والتحليل. يقول شاري: "يمكن للذكاء الاصطناعيّ أن يساعد في معالجة المعلومات بشكل أفضل وجعل الجيوش أكثر كفاءة".
اضطرار
"أعتقد أنّ الجيوش ستشعر بأنّها مضطرّة إلى تسليم المزيد والمزيد من عمليّات صنع القرار إلى الذكاء الاصطناعيّ، لأن الجيش بيئة تنافسيّة بلا رحمة". "إذا كانت هناك ميزة يمكن اكتسابها، بحيث ينتهزهما خصمك وأنت لا، فأنت في وضع غير مؤاتٍ بشكل هائل". ويقول شاري إنّ هذا يمكن أن يؤدّي إلى سباق تسلّح للذكاء الاصطناعيّ، على غرار سباق الأسلحة النوويّة.
بين أميركا والصين وروسيا
تابع شاري: "افترض بعض العلماء الصينيّين وجود تفرّد في ساحة المعركة". (هذه هي) النقطة التي تتفوّق فيها وتيرة اتّخاذ القرار المدفوع بالذكاء الاصطناعيّ على سرعة قدرة الإنسان على الفهم، ويتعيّن على البشر فعليّاً تسليم مفاتيح أنظمة مستقلّة لاتخاذ قرارات في ساحة المعركة". بطبيعة الحال، في مثل هذا السيناريو، ليس من المستحيل بالنسبة إلينا أن نفقد السيطرة على ذلك الذكاء الاصطناعيّ، أو حتى أن ينقلب ضدّنا. ولهذا السبب، إنّ سياسة الولايات المتحدة هي أنّ البشر هم دائماً في دائرة اتّخاذ أيّ قرار بشأن استخدام أسلحة نووية. وهنا يقول شاري: "لكنّنا لم نرَ أيّ شيء مماثل من دول مثل روسيا والصين". "لذا، إنّها منطقة حيث يوجد قلق مشروع". إذا حدث الأسوأ، وأعلن الذكاء الاصطناعيّ الحرب، فإنّ شاري ليس متفائلاً بشأن فرصنا.
"سنواجه الكثير من المشاكل"
أقصد، هل تستطيع الشمبانزي الفوز في حرب ضد البشر؟" يقول وهو يضحك. "إنّ أفضل أجهزة الذكاء الاصطناعيّ في لعبة الشطرنج ليست بنفس جودة سادة الشطرنج وحسب؛ لا يستطيع أكبر سادة الشطرنج التنافس معها من بعيد. وقد حدث ذلك بسرعة كبيرة. منذ خمس سنوات فقط لم يكن هذا هو الحال. "نحن نبني أنظمة ذكاء اصطناعيّ قويّة بشكل متزايد لا نفهمها ولا يمكننا التحكّم بها، ونقوم بنشرها في العالم الحقيقيّ. أعتقد أنه إذا تمكّنّا بالفعل من بناء آلات أكثر ذكاءً منّا، فسنواجه الكثير من المشاكل".
*
اضافة التعليق