في أكثر خطوة سياسية وضوحًا وتأثيرًا حتى الآن بشأن سلامة الذكاء الاصطناعي، أعلنت إدارة ترامب أنها ستدرج مختبر ذكاء اصطناعي رائد على قائمة الحظر بسبب رفضه السماح بالوصول غير المقيد إلى تقنيته لأغراض عسكرية.
إنه الرئيس ووزير الحرب، بيت هيغسيت، اللذان أصبحا في حالة تأهب قصوى بسبب رفض أنثروبك السماح للبنتاجون باستخدام ذكائه الاصطناعي لأي “غرض قانوني”.
وصف الرئيس الأمريكي أنثروبك بأنها شركة نائمة ويمينية متطرفة، وقال على منصته “تروث سوشيال” إن “المجانين اليساريين في أنثروبك ارتكبوا خطأ كارثيًا في محاولتهم فرض إملاءات على وزارة الحرب”، مضيفًا أن أفعال الشركة تعرض حياة الأمريكيين والأمن القومي للخطر.
ولكن حتى الآن، كانت أنثروبك تفعل أكثر من أي مختبر ذكاء اصطناعي آخر لدعم البنتاجون.
يعد ذكاء أنثروبك “كلود” النموذج الحدودي الوحيد الذي يُستخدم بالفعل على نطاق واسع في التخطيط والعمليات العسكرية الحساسة.
لقد تم الإبلاغ على نطاق واسع أن ذكاء كلود قد استخدم كجزء من “نظام مافن الذكي” للبنتاجون للتخطيط وتنفيذ العملية العسكرية لاعتقال الرئيس الفنزويلي نيكولاس مادورو في يناير.
لم تكن جذور الخلاف حول التزام أنثروبك بالجيش الأمريكي، بل كانت حول إصرارها على “الخطوط الحمراء” المتعلقة باستخدام تقنية الذكاء الاصطناعي.
طالب الرئيس التنفيذي لأنثروبك، ديريو أموداي، بضمانات بعدم استخدامه في المراقبة الجماعية للمدنيين أو الهجمات الآلية القاتلة دون إشراف بشري.
في بيان يوم الأربعاء، قال أموداي إن بعض استخدامات الذكاء الاصطناعي “تخرج ببساطة عن نطاق ما يمكن أن تفعله التكنولوجيا اليوم بأمان وموثوقية”.
في منشور على X، أعلن الوزير هيغسيت، الذي كان غاضبًا مثل الرئيس، أن أنثروبك، بالإضافة إلى إدراجها في القائمة السوداء، ستُعتبر أيضًا خطرًا في سلسلة التوريد – وهو تدخل قانوني كان محفوظًا سابقًا لشركات التكنولوجيا الأجنبية التي يُنظر إليها على أنها تهديد مباشر للأمن القومي الأمريكي.
اقرأ المزيد:
الذكاء الاصطناعي يتطور بسرعة حتى يصعب قياسه‘
فقاعة الذكاء الاصطناعي تبقى سليمة في الوقت الراهن
نظرًا للقلق المتزايد بشأن سلامة الذكاء الاصطناعي، فإن هذه الخطوة قد صدمت نشطاء سلامة الذكاء الاصطناعي، ولكنها تثير أيضًا أسئلة جدية حول جدوى استراتيجية “الذكاء الاصطناعي أولاً” للبنتاغون في المستقبل.
أعطى الوزير هيغسيت شركة أنثروبك ستة أشهر لإزالة ذكائها الاصطناعي من أنظمة البنتاغون. ولكن هناك الآن أسئلة حول ما قد يحل محله.
للمرة الأولى في التاريخ القصير للذكاء الاصطناعي الفائق، يبدو أن النزاع قد وحد صناعة الذكاء الاصطناعي.
في مذكرة لموظفيه يوم الخميس، أعلن سام ألتمان، الرئيس التنفيذي لشركة OpenAI، التي كانت أيضًا في محادثات مع البنتاغون، أنه يشارك نفس “الخطوط الحمراء” مثل أنثروبك.
بشكل منفصل، وقع أكثر من 400 موظف في غوغل وOpenAI رسالة مفتوحة تدعو صناعتهم إلى الوقوف معًا ضد موقف وزارة الحرب.
في نسخة من مذكرة OpenAI التي تم الاطلاع عليها من قبل سكاي نيوز، يخبر ألتمان الموظفين: “بغض النظر عن كيفية وصولنا إلى هنا، لم يعد هذا مجرد قضية بين أنثروبك ووزارة الحرب؛ هذه قضية لكامل الصناعة ومن المهم توضيح موقفنا.”
يبدو أن خطوة إدارة ترامب، لذلك، تتعلق بالسلطة بقدر ما تتعلق بسلامة الذكاء الاصطناعي.
لقد قال البنتاغون بالفعل إنه لن يستخدم الذكاء الاصطناعي في المراقبة الجماعية للسكان الأمريكيين، ولا الأسلحة الذاتية المستقلة غير المراقبة.
يبدو أن ردها الغاضب على أنثروبك جاء أكثر استجابة لتقنية كبيرة تحاول فرض شروط على الحكومة، بدلاً من ما هي تلك الشروط بالفعل.
من خلال مواجهتها مع وادي السيليكون، والذي، على الرغم من أن استثمار الذكاء الاصطناعي يمثل العديد من النمو الاقتصادي الحالي في الولايات المتحدة، فقد أعلن الإدارة الحرب على خصم قوي.



