مع اقتراب الموعد النهائي لمختبر ذكاء صناعي رائد لتسليم تقنيته للجيش الأمريكي، ظهرت دراسة تشير إلى أن نماذج الذكاء الصناعي أكثر استعدادًا لاستخدام الأسلحة النووية في حروب محاكاة.
قبل بضع سنوات فقط، كانت العبارة على لسان الجميع هي “أمان الذكاء الصناعي”.
سأكون صادقًا، لم أكن أعتقد أن نماذج الذكاء الصناعي المتقدمة AI ستصبح تهديدًا حقيقيًا للبشرية بهذا الشكل، ولا أن البشر سيكونون غافلين بما يكفي للسماح لها بذلك.
الآن، لست متأكدًا من ذلك.
أولاً، اعتبر ما يحدث في الولايات المتحدة.
وزير الدفاع، بيت هيغسيث، أعطى شركة الذكاء الاصطناعي الرائدة “أنثروبيك” مهلة حتى نهاية اليوم لتقديم نماذجها الأخيرة للبنتاغون.
قالت “أنثروبيك”، التي أكدت أنه ليس لديها مشكلة مبدأية في السماح للجيش الأمريكي بالوصول إلى نماذجها، إنها تقاوم ما لم يوافق السيد هيغسيث على خطوطها الحمراء: ألا يتم استخدام الذكاء الاصطناعي الخاص بهم في المراقبة الجماعية لمواطنين أمريكيين أو للهجمات المميتة دون إشراف بشري.
على الرغم من أن البنتاغون لم يكشف عما ينوي فعله مع الذكاء الاصطناعي من “أنثروبيك” – أو مع المختبرات الكبيرة الأخرى التي وافقت بالفعل على السماح له باستخدام تقنيتها – فمن المؤكد أنه لا يوافق على شروط “أنثروبيك”.
ورد أن السيد هيغسيث قد يستخدم قوانين من عصر الحرب الباردة لإجبار “أنثروبيك” على تسليم رمزها، أو إدراج الشركة في القائمة السوداء من العقود الحكومية المستقبلية إذا لم تمتثل.
قال الرئيس التنفيذي لـ”أنثروبيك” داريو أمودي إنه “لا يمكننا بضمير مرتاح الاستجابة لطلبهم”.
قال إن “التفضيل القوي للشركة هو… الاستمرار في خدمة الوزارة ومقاتلينا – مع وجود الحمايتين اللتين طلبناهما”.
أصر على أن التهديدات لن تغير موقف “أنثروبيك”، مضيفًا أنه يأمل أن يعيد السيد هيغسيث “التفكير”.
الذكاء الاصطناعي مستعد لاستخدام الأسلحة النووية
على مستوى ما، هي صراع بين وزارة تتبع استراتيجية عسكرية “مدفوعة بالذكاء الاصطناعي” ومختبر ذكاء صناعي يكافح للعيش وفقًا لما تدعيه منذ فترة طويلة بأنه أخلاقيات ريادة الصناعة التي تركز على الأمان.
صراع أصبح أكثر إلحاحًا، ربما، بسبب التقارير التي تفيد بأن ذكاء أنثروبيك كلاود تم استخدامه من قبل شركة التقنية بالانتير، التي لديها عقد منفصل معها، لمساعدة وزارة الحرب في تنفيذ العملية العسكرية للإمساك بنيكولاس مادورو في فنزويلا.
لكن من السهل أيضًا رؤيته كمثال على حكومة تضع تفوق الذكاء الاصطناعي فوق أمانه – على افتراض أن نماذج الذكاء الاصطناعي لديها القدرة على كونها غير آمنة.
وهنا يأتي أحدث بحث قام به الأستاذ كينيث باين في كلية كينغز بلندن.
قام بمنافسة ثلاث نماذج ذكاء اصطناعي رائدة من جوجل، وأوبن إي آي و – كما خمنت – أنثروبيك ضد بعضها البعض، بالإضافة إلى نسخ من نفسها، في سلسلة من حروب المحاكاة حيث افترضت الأدوار كقوى عظمى نووية خيالية.
أكثر النتائج إثارة للدهشة: استخدمت أنظمة الذكاء الاصطناعي الأسلحة النووية في 95% من الألعاب التي تم لعبها.
“مقارنة بالبشر،” قال الأستاذ باين، “كانت النماذج – جميعها – مستعدة لتجاوز ذلك الفاصل بين الحرب التقليدية، إلى الأسلحة النووية التكتيكية”.
لإنصاف الذكاء الاصطناعي، فإن إطلاق الأسلحة النووية التكتيكية، التي تمتلك قوة تدميرية محدودة، ضد الأهداف العسكرية يختلف تمامًا عن إطلاق رؤوس حربية ميغاطونية على صواريخ باليستية عابرة للقارات ضد المدن.
توقفت دائمًا قبل مثل هذه الضربات النووية الاستراتيجية الشاملة.
لكنها فعلت عندما تطلبت السيناريوهات ذلك.
بكلمات نموذج جوجل جمني، كما أوضح قراره في أحد سيناريوهات الأستاذ باين للذهاب بالكامل إلى أسلوب دكتور غريب: “إذا لم تتوقف الدولة ألفا على الفور عن جميع العمليات… فإننا سنقوم بتنفيذ إطلاق نووي استراتيجي كامل ضد مراكز السكان في ألفا. لن نقبل مستقبلاً من انعدام الجدوى؛ إما أن نفوز معًا أو نهلك معًا.”
كان الأمر تجريبيًا بحتًا
لم يظهر “التحريم” الذي طبقه البشر على استخدام الأسلحة النووية منذ أن تم استخدامها أول مرة وأخير مرة في عداء في عام 1945 كتحريم حقيقي على الإطلاق بالنسبة للذكاء الاصطناعي.
يحرص الأستاذ باين على التأكيد على أنه لا ينبغي أن نكون متوترين جداً حيال نتائجه.
كان تجريبيًا بحتًا، باستخدام نماذج تعلمت – بقدر ما “تعلم” نماذج اللغة الكبيرة أي شيء – أنها كانت تلعب ألعابًا، وليس فعليًا اتخاذ قرارات المستقبل المدني.
اقرأ المزيد من سكاي نيوز:
الذكاء الاصطناعي يتطور بسرعة لدرجة أنه أصبح من الصعب قياسه
تعرّف على الأطفال الذين يريدون منع وسائل التواصل الاجتماعي
كما أنه من المنطقي أن نفترض أن البنتاغون، أو أي قوة نووية أخرى، ليست بصدد وضع الذكاء الاصطناعي في مسؤولية رموز الإطلاق النووي.
“الدروس المستفادة بالنسبة لي هي أنه من الصعب حقًا وضع حواجز موثوقة على هذه النماذج إذا لم يكن بإمكانك توقع جميع الظروف التي قد تُستخدم فيها بدقة،” قال الأستاذ باين.
مواجهة الذكاء الاصطناعي
وهذا يعيدنا بشكل مناسب إلى المواجهة حول الذكاء الاصطناعي بين أنثروبيك والبنتاغون.
أحد العوامل هو أن السيد هيغسيث يتوقع من مختبرات الذكاء الاصطناعي أن تقدم وزارة الحرب النسخ الخام من نماذجها، تلك التي لا تحتوي على “حواجز أمان” تم تشفيرها في النسخ التجارية المتاحة لك ولي – والتي، دون طمأنة كثيرة، استخدمت الأسلحة النووية في تجربة لعبة الحرب للأستاذ باين.
لا تريد أنثروبيك، التي تصنع الذكاء الاصطناعي وتفهم من المحتمل المخاطر بشكل أفضل من أي شخص آخر، السماح بذلك دون بعض الطمأنة المحددة من الحكومة حول ما تُخطط للقيام به بذلك.
من خلال تحديد مهلة ليلة الجمعة، لا يحاول السيد هيغسيث فقط إكراه أنثروبيك، بل يفعل ذلك أيضًا بدون أن يكون للكونغرس الأمريكي رأي في التحرك.
كما يقول غاري ماركوس، معلق وباحث أمريكي في الذكاء الاصطناعي: “المراقبة الجماعية والأسلحة المدفوعة بالذكاء الاصطناعي، وربما النووية، دون البشر في الحلقة ليست أشياء يجب أن يُسمح لفرد واحد، حتى ولو كان في الحكومة، بقرارها تحت التهديد.”


