هيغسيث والرئيس التنفيذي لـ Anthropic set للتواصل حيث تزداد حدة النقاش حول استخدام الجيش للذكاء الاصطناعي

هيغسيث والرئيس التنفيذي لـ Anthropic set للتواصل حيث تزداد حدة النقاش حول استخدام الجيش للذكاء الاصطناعي

واشنطن — يخطط وزير الدفاع بيت هيغسث للقاء الثلاثاء مع الرئيس التنفيذي لشركة أنثروبيك، مع كون الشركة المتخصصة في الذكاء الاصطناعي هي الوحيدة بين نظرائها التي لم تزود التكنولوجيا الخاصة بها بشبكة عسكرية داخلية جديدة في الولايات المتحدة.

انثروبيك، صانعة الروبوت الذكي كلاود، رفضت التعليق على الاجتماع لكن الرئيس التنفيذي داريو أمودي أكد مخاوفه الأخلاقية بشأن الاستخدام غير المنضبط من قبل الحكومة للذكاء الاصطناعي، بما في ذلك مخاطر الطائرات المسيرة المسلحة المستقلة بالكامل ورصد الجماهير بمساعدة الذكاء الاصطناعي الذي قد يتعقب المعارضة.

تم تأكيد الاجتماع بين هيغسث وأمودي من قبل مسؤول دفاعي لم يكن مفوضًا للتعليق علنًا وتحدث شريطة عدم الكشف عن هويته.

يؤكد ذلك النقاش حول دور الذكاء الاصطناعي في الأمن القومي والمخاوف بشأن كيفية استخدام التكنولوجيا في المواقف عالية المخاطر التي تنطوي على القوة القاتلة أو المعلومات الحساسة أو مراقبة الحكومة. ويأتي ذلك أيضًا في حين تعهد هيغسث بمحاربة ما يسميه “ثقافة الاستيقاظ” في القوات المسلحة.

كتب أمودي الشهر الماضي في مقال: “يمكن للذكاء الاصطناعي القوي الذي ينظر عبر مليارات المحادثات من ملايين الناس أن يقيس الشعور العام، ويتعقب بؤر عدم الولاء المتشكلة، ويقضي عليها قبل أن تنمو.”

أعلنت وزارة الدفاع الصيف الماضي أنها ستمنح عقود دفاعية لأربع شركات ذكاء اصطناعي — أنثروبيك، جوجل، أوبن أي، وشركة إيلون ماسك xAI. كل عقد تصل قيمته إلى 200 مليون دولار.

كانت أنثروبيك أول شركة ذكاء اصطناعي تحصل على الموافقة لشبكات عسكرية سرية، حيث تتعاون مع شركاء مثل بالانتير. الشركات الثلاث الأخرى، في الوقت الحالي، تعمل فقط في بيئات غير سرية.

بحلول بداية هذا العام، كان هيغسث يبرز اثنتين فقط منها: xAI وجوجل.

قال وزير الدفاع في خطاب له في يناير في شركة ماسك للطيران، سبيس إكس، في جنوب تكساس إنه يتجاهل أي نماذج ذكاء اصطناعي “لن تسمح لك بمحاربة الحروب.”

قال هيغسث إن رؤيته لأنظمة الذكاء الاصطناعي العسكرية تعني أنها تعمل “دون قيود أيديولوجية تحد من التطبيقات العسكرية القانونية”، قبل أن يضيف أن “الذكاء الاصطناعي في البنتاغون لن يكون مستيقظًا.”

في يناير، قال هيغسث إن روبوت الذكاء الاصطناعي الخاص بماسك، غروك سينضم إلى شبكة البنتاغون، المسماة GenAI.mil. جاء الإعلان بعد أيام من انتقاد غروك — الذي تم تضمينه في X، الشبكة الاجتماعية المملوكة لمسك — عالميًا بسبب توليد صور مزيفة ذات طابع جنسي عالي لأشخاص دون موافقتهم.

أعلنت أوبن أي في أوائل فبراير أنها أيضًا ستنضم إلى منصة الذكاء الاصطناعي الآمنة التابعة للجيش، مما يتيح لأعضاء الخدمة استخدام نسخة مخصصة من ChatGPT للمهام غير السرية.

لطالما وصفت أنثروبيك نفسها بأنها الشركة الأكثر مسؤولية وتفكيرًا في السلامة من بين شركات الذكاء الاصطناعي الرائدة، منذ أن استقال مؤسسوها من أوبن أي لتشكيل الشركة الناشئة في عام 2021.

عدم اليقين مع البنتاغون يختبر تلك النوايا، وفقًا لأوين دانيلز، المدير المساعد للتحليل وزميل في مركز جورجتاون للأمن والتكنولوجيا الناشئة.

قراءات شائعة

قال أوينز: “زملاء أنثروبيك، بما في ذلك ميتا، جوجل وxAI، كانوا مستعدين للامتثال لسياسة الوزارة بشأن استخدام النماذج لجميع التطبيقات القانونية”. “لذا فإن قوة الشركة في المفاوضات هنا محدودة، وتواجه خطر فقدان النفوذ في دفع الوزارة لتبني الذكاء الاصطناعي.”

في هوس الذكاء الاصطناعي الذي جاء بعد إصدار ChatGPT، قامت أنثروبيك بالتنسيق عن كثب مع إدارة الرئيس جو بايدن طوعًا لتخضع أنظمتها للذكاء الاصطناعي لرقابة من طرف ثالث لحماية الأمن القومي.

حذر أمودي، الرئيس التنفيذي، من مخاطر الذكاء الاصطناعي الكارثية المحتملة بينما رفض تصنيفه كـ “كارثي” للذكاء الاصطناعي. جادل في المقالة التي كتبها في يناير بأن “نحن أقرب بكثير إلى خطر حقيقي في عام 2026 أكثر مما كنا عليه في عام 2023″ لكن يجب التعامل مع تلك المخاطر بطريقة “واقعية، عملية.”

لن تكون هذه هي المرة الأولى التي تتعارض فيها مناصرة أنثروبيك لفرض قيود أكثر صرامة على الذكاء الاصطناعي مع إدارة ترامب. انتقدت أنثروبيك صانع الشرائح نيفيديا بشكل علني، معبرة عن انتقاداتها لاقتراحات ترامب بتخفيف ضوابط التصدير لـ تمكين بعض رقائق الذكاء الاصطناعي من أن تُباع في الصين. ومع ذلك، تظل شركة الذكاء الاصطناعي شريكًا وثيقًا مع نيفيديا.

كانت إدارة ترامب وأنثروبيك أيضًا على طرفي نقيض في حملة ضغط لتنظيم الذكاء الاصطناعي في الولايات المتحدة.

اتهم أكبر مستشار للذكاء الاصطناعي في ترامب، ديفيد ساكس، أنثروبيك في أكتوبر بـ “تنفيذ استراتيجية الاستحواذ التنظيمية المعقدة القائمة على إثارة الخوف.”

أدلى ساكس بهذه الملاحظات على X ردًا على أحد مؤسسي أنثروبيك، جاك كلارك، الذي كتب حول محاولته تحقيق التوازن بين التفاؤل التكنولوجي و”الخوف المناسب” بشأن التقدم الثابت نحو أنظمة الذكاء الاصطناعي الأكثر قدرة.

توظفت أنثروبيك عددًا من المسؤولين السابقين من بايدن بعد عودة ترامب إلى البيت الأبيض، لكنها حاولت أيضًا الإشارة إلى نهج ثنائي الحزب. أضافت الشركة مؤخرًا كريس ليديل، وهو مسؤول سابق في البيت الأبيض من فترة ترامب الأولى، إلى مجلس إدارتها.

تذكر المناقشة بين البنتاغون وأنثروبيك ما حدث قبل عدة سنوات عندما اعترض بعض العاملين في مجال التكنولوجيا على مشاركة شركاتهم في مشروع مافن، وهو برنامج مراقبة طائرات مسيرة تابع للبنتاغون. بينما استقال بعض العاملين بسبب المشروع وتخلى جوجل نفسها، إلا أن اعتماد البنتاغون على مراقبة الطائرات المسيرة قد زاد فقط.

وبالمثل، قال أوينز: “استخدام الذكاء الاصطناعي في السياقات العسكرية هو بالفعل واقع ولا يختفي.”

“بعض السياقات أقل أهمية، بما في ذلك العمل الخلفي، ولكن نشر الذكاء الاصطناعي في ساحة المعركة ينطوي على مخاطر مختلفة وأكبر”، قال، مشيرًا إلى استخدام القوة القاتلة أو أسلحة مثل الأسلحة النووية. “المستخدمون العسكريون مدركون لهذه المخاطر وقد كانوا يفكرون في التخفيف منها منذ ما يقرب من عشر سنوات.”

___

أوبرين أبلغ من بروفيدنس، رود آيلاند.



المصدر

About مازن العلي

مازن العلي متخصص في الاقتصاد وإدارة الأعمال، يركز على أخبار الشركات والأسواق المالية وريادة الأعمال في المنطقة العربية والعالم.

View all posts by مازن العلي →