انسَ الخيال العلمي. عصر الذكاء الاصطناعي في الحرب هنا.
إسرائيل قد استخدمت أنظمة الذكاء الاصطناعي في غزة لتحديد الأهداف المحتملة والمساعدة في تحديد أولويات العمليات.
يقال إن الجيش الأمريكي استخدم نموذج شركة Anthropic، كلود، خلال العملية لاختطاف نيكولاس مادورو من فنزويلا.
ورغم أن Anthropic واجهت صعوبات مع الإدارة الأمريكية بشأن كيفية استخدام الذكاء الاصطناعي في الحرب، إلا أن الجيش الأمريكي لا يزال يبدو أنه استخدم كلود في هجومه على إيران.
آخر أخبار إيران: ترامب ينتقد ستارمر بسبب موقف المملكة المتحدة
من الممكن، كما يقول الخبراء، أن الصواريخ التي تحلق فوق طهران اليوم يتم استهدافها بواسطة أنظمة مدعومة بالذكاء الاصطناعي.
يقول كرايغ جونز، محاضر أول في الجغرافيا السياسية بجامعة نيوكاسل: “الذكاء الاصطناعي يغير طبيعة الحرب الحديثة في القرن الحادي والعشرين. من الصعب المبالغة في تأثيره، الذي له سيتجاوز تأثيره”.
سياق مرعب أم لا، يبدو أن العودة إلى الوراء غير ممكنة. إذا كنت تريد إحساساً بأهمية ما يعطى للجيش الأمريكي في الذكاء الاصطناعي، فإن بداية جيدة هي مذكرة أرسلها وزير الدفاع بيت هيغسث، الذي يلقب نفسه وزير الحرب، إلى جميع القادة العسكريين الكبار في وقت مبكر من هذا العام.
كتب السيد هيغسث: “أوجه وزارة الحرب لتسريع هيمنة الذكاء الاصطناعي العسكري الأمريكي من خلال أن نصبح قوة قتالية ‘أولها الذكاء الاصطناعي’ عبر جميع المكونات، من الأمام إلى الخلف”.
هذه ليست تجربة، بل هي أوامر – لتبني الذكاء الاصطناعي بسرعة وعلى نطاق واسع.
أو كما يقول هيغسث: “السرعة تنتصر”.
ومع ذلك، فإن السيناريو المعني ليس هو الذي قد يتبادر إلى الذهن أولاً.
نعم، الاستقلالية تتزايد في بعض المجالات. في أوكرانيا، على سبيل المثال، هناك طائرات مسيرة قادرة على مواصلة المهمة حتى بعد فقد الاتصال بمشغل بشري.
لكننا لسنا في مرحلة الروبوتات القاتلة المستقلة التي تتجول في ساحة المعركة.
يقول ديفيد ليزلي، أستاذ الأخلاقيات والتكنولوجيا والمجتمع في جامعة كوين ماري بلندن: “لسنا بعد في عصر المنهيات”.
الأنظمة التي يتم تضمين الذكاء الاصطناعي فيها – المعروفة باسم “أنظمة دعم القرار” في مصطلحات العسكرية – هي مستشارون يقومون بتحديد الأهداف وترتيب التهديدات واقتراح الأولويات.
يمكن أن تقوم أنظمة الذكاء الاصطناعي بتجميع صور الأقمار الصناعية والاتصالات المعترضة وبيانات اللوجستيات وتدفقات وسائل التواصل الاجتماعي – الآلاف، بل مئات الآلاف من المدخلات – واستخراج الأنماط بشكل أسرع بكثير من أي فريق بشري.
الفكرة هي أنها تساعد في قطع الضباب الحرب، مما يسمح للقادة بتركيز الموارد حيثما كانت الأكثر أهمية، بينما يمكن أن تكون أكثر دقة من الجنود البشر المتعبين والمربكين والمتوترين.
هذا يعني أنهم ليسوا مجرد أداة، كما يقول الدكتور جونز، بل هي طريقة جديدة لصنع القرارات.
يقول: “الذكاء الاصطناعي، كما نرى في حياتنا الخاصة، يشبه المزيد من البنية التحتية”. “إنه مدمج في النظام”.
“لدينا هذه القدرة على جمع تلك المراقبة التي قمنا بها لعدة سنوات.
“لكن الآن يمنح الذكاء الاصطناعي استقراراً للعمل على ذلك ولقتل زعيم إيران وإزالة خصوم جادين وأعداء جادين والعثور عليهم بطرق غير محتملة قد لا يكونوا قد وُجدوا من قبل.”
‘أداة مقنعة للغاية’
يوافق الأستاذ ليزلي على أن الأنظمة الجديدة قادرة للغاية من منظور عسكري.
يقول: “السباق من أجل السرعة هو ما يدفع هذا التبني”. “تسريع دورات صنع القرار هو ما يجلب مزايا عسكرية من حيث القتل”.
ميزة مهمة لأنظمة دعم القرار هي أن الذكاء الاصطناعي لا يضغط على الزر. يقوم إنسان بذلك. لقد كانت هذه هي الطمأنينة الأساسية في النقاشات حول الذكاء الاصطناعي العسكري. هناك دائماً “إنسان في الحلقة”.
كما ذكرت شركة OpenAI، الشركة التي تصنع ChatGPT، بعد الإعلان عن شراكة لتزويد البنتاغون بالذكاء الاصطناعي: “سوف يكون لدينا مهندسون متقدمون من OpenAI يساعدون الحكومة، مع باحثين مؤهلين في السلامة والارتباط ضمن الحلقة.”
كما أكدت OpenAI أنها حصلت على اتفاق مع البنتاغون بأن تقنيتها لن تُستخدم بطرق تتجاوز ثلاث “خطوط حمراء”: المراقبة المحلية الجماعية، ونظم الأسلحة المستقلة المباشرة، والقرارات الآلية عالية المخاطر.
لكن حتى مع وجود إنسان في الحلقة، يبقى سؤال.
اقرأ المزيد:
الذكاء الاصطناعي على استعداد ‘للذهاب نووياً’ في ألعاب الحرب، دراسة تجد
كلود أوبوس 4.6: هذا الذكاء الاصطناعي تجاوز ‘اختبار آلة البيع’
عندما تخوض حربًا، هل يمكن للإنسان حقًا التحقق من كل قرار من الذكاء الاصطناعي؟ عندما يصبح الوقت مضغوطًا وتكون المعلومات غير مكتملة، ماذا يعني “الإشراف البشري” حقًا؟
يقول الدكتور جونز: “البشر من الناحية الفنية في الحلقة”.
“هذا لا يعني، في رأيي، أنهم في الحلقة بما يكفي لإدارة صنع القرار بفعالية والإشراف على ما حدث بالضبط. الذكاء الاصطناعي… أداة مقنعة للغاية للأشخاص الذين يتخذون القرارات.”
أو كما يقول الأستاذ ليزلي: “نواجه حقًا خطرًا محتملاً مقاسًا… توقيع مطاطي، حيث بسبب السرعة المعنية، لا توجد مشاركة بشرية نشطة، ولا نقد بشري لتقييم التوصيات المقدمة من هذه الأنظمة.”
ثم هناك سؤال عن عدم موثوقية الذكاء الاصطناعي نفسه.
اقرأ المزيد:
المملكة المتحدة ستنشر HMS Dragon في قبرص، يؤكد رئيس الوزراء
إيران تساؤلات وأجوبة: لماذا قد يحاول ترامب إعلان انتصار سريع
وجدت اختبارات من سكاي نيوز أن لا كلاود ولا ChatGPT يمكنهما معرفة عدد أرجل الدجاجة، إذا لم تبدو الدجاجة كما توقعا.
علاوة على ذلك، أصرت الذكاء الاصطناعي على أنه كان على حق، حتى عندما كان واضحًا أنه مخطئ.
جاء المثال من ورقة توضح عشرات من أمثلة الفشل المماثل. “ليس الأمر مثالًا واحدًا من أرجل الحيوانات”، قال المؤلف الرئيسي آنه فوه.
“المشكلة عامة عبر أنواع البيانات والمهام”، أضاف فوه.
والسبب هو أن الذكاء الاصطناعي لا يرى العالم حقًا بالمعنى البشري – بل يخمن ما هو الأكثر احتمالية بناءً على البيانات السابقة.
في معظم الأوقات، فإن هذا النوع من المنطق الإحصائي فعال بشكل مذهل. العالم قابل للتنبؤ بما يكفي لتعمل الاحتمالات.
لكن بعض البيئات بطبيعتها غير قابلة للتنبؤ وذو المخاطر العالية.
نحن نختبر حدود هذه التكنولوجيا في أقسى الظروف الممكنة.

