
التحول الحقيقي لم يكن في المفاعل النووي. بل كان في الشبكة.
تتركز معظم المقارنات بين الذكاء الاصطناعي والطاقة النووية على المخاطر والتنظيم. هذه التوازي حقيقي، لكنها تفوت النقطة الأكبر.
محطة الطاقة النووية ليست سحرية. في جوهرها، هي عبارة عن توربين بخاري، وهي تقنية موجودة منذ أكثر من قرن. ما تغير هو مصدر الطاقة. جعلت التفاعلات النووية من الممكن توليد الطاقة على نطاق واستمرارية لم تستطع الأنظمة القديمة مجاراتها. لكن تلك الطاقة لم تهم إلا بعد أن تطور النظام المحيط بها.
لنجعل الطاقة النووية قابلة للتطبيق، كان علينا إعادة تصميم كل شيء من حولها. توسعت شبكات النقل. تحسن توازن الأحمال. كان يجب بناء أنظمة أمان ومراقبة جديدة وتطبيقها بشكل مستمر. ظهرت أدوار وتخصصات كاملة لإدارة نوع جديد من الطاقة التي كانت قوية وغير مألوفة. لم تتطلب الشبكة الهندسة فقط. بل تطلبت الحوكمة والتنظيم والمحاسبة والثقة لجعل تلك الطاقة آمنة وقابلة للاستخدام.
يتبع الذكاء الاصطناعي نفس المسار. النماذج ليست النظام. بل هي مصدر الطاقة الجديد.
تلاحظ طبيبة القلب إفستاثيا أندريكو بولوس، MD، MBA، المشكلة بوضوح من داخل الرعاية السريرية. في حديثنا، وضعتها ببساطة: “الاكتشاف ليس نتيجة. نحن بحاجة إلى الكشف، لكن الكشف لا يعني شيئًا ما لم تكن هناك إجراءات محددة بوضوح ونظام مصمم لاستيعاب المتابعة.”
هذه هي الفشل الأساسي في الذكاء الاصطناعي في الرعاية الصحية. التكنولوجيا ليست عنق الزجاجة. ما يحدث بعد ذلك هو.
قد تشير نموذج إلى مرض أو خطر أو تدهور. لكن بدون سير عمل واضحة، وملكية ومتابعة، لا يتغير شيء للمريض. تجلس النتيجة في صندوق الوارد. قد يراها طبيب أو لا. يتلقى المريض معلومات بدون سياق.
نادراً ما نحتفل بالكشف. نقيس الدقة. نقارن النماذج. لكننا نادرًا ما نسأل السؤال الأكثر أهمية: ماذا يحدث بعد ذلك؟
في كثير من الحالات، الإجابة هي لا شيء. أو شيء غير متسق.
لهذا السبب يبدو الذكاء الاصطناعي أقل كبرامج وأكثر كمصدر طاقة جديد. مثل الطاقة النووية، تعتمد قيمته على ما إذا كان بإمكان النظام المحيط استخدام ما ينتجه بشكل آمن وموثوق.
القيود هي الشبكة
لم تصمم الرعاية الصحية لاستيعاب والعمل على هذا المستوى من الإنتاج. سير العمل مجزأة، والبيانات قسمية، والمسؤولية غالبًا ما تكون غير واضحة، ويتوقع من الناس الذين يواجهون بعض من أصعب اللحظات في حياتهم فهم ذلك.
ينتج الذكاء الاصطناعي المزيد من الإشارات، لكن الأنظمة المتوقع أن تستقبل وتعمل عليها لم تواكب ذلك. بدون نظام يحملها إلى الأمام، تتحول الإشارة إلى ضوضاء. والضوضاء ليست مجرد عدم كفاءة. إنها عدم اتساق، وفي الرعاية الصحية، عدم الاتساق هو خطر.
ليست هذه مشكلة نشر. إنها مشكلة نظم. يعني ذلك تضمين الذكاء الاصطناعي في سير عمل حقيقية بدلاً من إضافته على الجانب، مما يجعل من الواضح من المسؤول عن المتابعة وقياس النجاح بناءً على النتائج بدلاً من أداء النموذج.
ما تطلبته الطاقة النووية غالبًا ما يتم تجاهله. كان يتطلب أنظمة أمان جديدة، بما في ذلك التنظيم، والاستجابة للحوادث والتكرارات المضافة. كان يتطلب التعامل مع الوقود على المدى الطويل وإدارة النفايات. أنشأ أدوار جديدة تمامًا، من المهندسين إلى المشغلين إلى المنظمين.
لم تُجرى هذه التغييرات لأن الطاقة النووية كانت معيبة. بل أُجريت لأنها كانت قوية.
لم تقم الرعاية الصحية بهذا الانتقال.
تُدخل أدوات الذكاء الاصطناعي لكن لا تُدمَج بالكامل، وغالبًا ما يُقاس الأداء مرة واحدة أو لا يُقاس على الإطلاق، وعندما يتم الإشارة إلى خطر، غالبًا ما تكون الملكية غير واضحة.
لقد بنينا المفاعل. لم نبنِ الشبكة.
نحن غير مقيدين بما يمكن أن ينتج الذكاء الاصطناعي. نحن مقيدون بما تم بناء أنظمتنا لاستيعابه.
تنظيم المصدر. تمكين النظام
يساعد التشبيه النووي أيضًا في توضيح الحوكمة.
تُنظم الطاقة النووية بشكل صارم بسبب المخاطر الحقيقية. لكن الهدف من التنظيم ليس إيقافها. بل التأكد من أنها تُستخدم بشكل آمن.
يتطلب الذكاء الاصطناعي نفس التوازن.
يجب أن نتسم بالدقة في كيفية اختبار النماذج والموافقة عليها ومراقبتها. لكن يجب علينا تجنب التعامل مع الذكاء الاصطناعي كشيء يجب احتواؤه. الهدف هو الاستخدام الآمن، وليس القمع.
في الولايات المتحدة، توجد بالفعل هذه الفكرة في كيفية تنظيمنا للتكنولوجيا. تركز الولايات على كيفية استخدام الأدوات في بيئات حقيقية، خصوصًا عندما يتعلق الأمر بالسلامة. الهدف ليس حظر التكنولوجيا نفسها، بل التأكد من استخدامها بمسؤولية ومع محاسبة واضحة.
يجب أن يتبع الذكاء الاصطناعي نفس المسار.
التاريخ يقدم تحذيرًا. شكلت الإخفاقات المبكرة كيف يرى الجمهور الطاقة النووية، ولا تزال هذه النظرة تحد من التبني حتى اليوم.
لا يجب علينا ارتكاب نفس الخطأ مع الذكاء الاصطناعي.
البنية التحتية هي السياسة
أهم قرارات سياسة الذكاء الاصطناعي ليست حول النماذج. بل حول البنية التحتية التي تحيط بها.
يعكس قانون بيانات الذكاء الاصطناعي الجاهزة الثنائي الذي قدمه السيناتوران تيد بود واندى كيم هذا التحول من خلال التركيز على جودة البيانات، وتوافقها، وسهولة الوصول إليها، وهي الأسس المطلوبة لعمل الذكاء الاصطناعي في العالم الحقيقي.
ما يفعله هذا القانون ليس محاولة لتنظيم النموذج. بل يستثمر في الشروط المسبقة التي تسمح للنماذج بالعمل من الأساس.
في الرعاية الصحية، القضية نادراً ما تكون ما إذا كان بإمكان نموذج توليد المعلومات. بل تتعلق بما إذا كانت البيانات موجودة في شكل يسمح بتلك المعلومات بالثقة، والتوجيه، والعمل عليها. عندما تكون البيانات مجزأة أو غير متسقة، حتى المخرجات الدقيقة تكافح لترجمة إلى قرارات.
لهذا السبب تبرز الطبيعة الثنائية لهذا القانون. البنية التحتية هي واحدة من المجالات القليلة في الذكاء الاصطناعي حيث تكون المساواة ممكنة، لأنها تتجنب النقاشات حول تقييد القدرة ويتركز بدلاً من ذلك على تمكين الاستخدام المسؤول.
إذا كانت الطاقة النووية تتطلب بناء الشبكة الكهربائية، فإن الذكاء الاصطناعي يتطلب بناء طبقة البيانات. ليس فقط من أجل التطوير، ولكن من أجل التحقق، والمراقبة، والعمل في البيئات الحقيقية.
المزيد من الطاقة لن يُصلح نظامًا مكسورًا
الذكاء الاصطناعي يعتبر اختراقًا، لكن الاختراقات لا تخلق تأثيرًا بمفردها. الأنظمة تفعل.
نحن ننتج المزيد من الذكاء أكثر من أي وقت مضى، لكن الأنظمة المسؤولة عن العمل عليه لم يتم إعادة تصميمها. إن تطبيق مصدر أكثر قوة على نفس النظام لن ينتج عنه نتائج أفضل.
لن يُصلح المزيد من الطاقة نظامًا مكسورًا. بل سيكشفه.
