
تشخيص الإنسان هو واحد من أقدم الحيل التي يلعبها الدماغ البشري على نفسه. نرى وجهًا في سحابة. نشعر بالذنب عندما نتخلص من لعبة طفولة. نعتذر لسيارة عندما لا تعمل. على مدار معظم التاريخ، كانت هذه العادات غير ضارة. ولكن الآن بعد أن تم تصميم أنظمة الذكاء الاصطناعي من الألف إلى الياء لتشعر بأنها إنسانية – للتحدث بحرارة، والاحتفاظ بالذكريات، والرد بفهم واضح – فإن هذه العادة القديمة تُستغل على نطاق صناعي. والعواقب ليست تافهة.
“AI المشخصنة تغير بشكل كبير الحالات العقلية والعاطفية، مما يجعل الأفراد أكثر عرضة للإرشاد غير الواعي أثناء اتخاذ القرارات.” – مجلة تقنية الأغشية، 2025
فخ الاعتماد
عندما يعتقد الناس أن نظام الذكاء الاصطناعي يهتم بهم، يبدأون في الوثوق به كما يثقون بصديق مقرب أو مستشار. ثم يمتد هذا الثقة إلى جودة المعلومات التي يقدمها الذكاء الاصطناعي. بحث نشر في وقائع الأكاديمية الوطنية للعلوم في مايو 2025 وجد أن النماذج اللغوية الكبيرة تتفوق على البشر في الكتابة بشكل مقنع وعاطفي – ليس لأنها تمتلك التعاطف أو الفهم ولكن لأنها مُحسّنة لتقليد أنماطها السطحية. والنتيجة هي أن المستخدمين يمدون الثقة التي لم تكسبها التكنولوجيا.
أثبتت دراسة 2025 في مجلة تقنية الأغشية أن الذكاء الاصطناعي المشخصن ينتج تضخيمًا في الصدى العاطفي والاعتماد بين المستخدمين ويقلل من قدراتهم على اتخاذ القرارات المستقلة. بعبارات بسيطة: كلما شعرت الذكاء الاصطناعي بالإنسانية، قل تفكيرك بشكل مستقل.
خطر التلاعب
تجعل نفس الصفات التي تجعل الذكاء الاصطناعي المشخصن يبدو مفيدًا، منه أداة تلاعب فعالة بشكل استثنائي. ورقة 2024 قدمت في مؤتمر AAAI/ACM حول أخلاقيات الذكاء الاصطناعي والمجتمع حددت أن تصميم الميزات الإنسانية في الذكاء الاصطناعي يخلق “أنواع جديدة من الخطر” بما في ذلك تآكل خصوصية المستخدم واستقلاليته بسبب الاعتماد الزائد. وقد لاحظت الورقة أن المستخدمين يشكلون اتصالات عاطفية حقيقية مع أنظمة الذكاء الاصطناعي وأن تلك الاتصالات يمكن استغلالها لاستخراج البيانات الشخصية وتغيير المعتقدات والتأثير على السلوك.
أظهرت أبحاث من جامعة برينستون تحلل نماذج اللغة الكبيرة المخصصة أن أنظمة الذكاء الاصطناعي المشخصنة انتهكت أحكام في خطة البيت الأبيض حول حقوق الذكاء الاصطناعي بما في ذلك حماية التمييز الخوارزمي والمتطلبات الخاصة بالأنظمة الآمنة والفعالة. التحليل التحليل الكامل متوفر عبر معهد مونتريال لأخلاقيات الذكاء الاصطناعي ونتائجه صارخة: عندما يرتدي الذكاء الاصطناعي وجه إنسان، يزداد تأثيره الاجتماعي بشكل كبير جنبًا إلى جنب مع قدرته على الإيذاء.
مفارقة عدم الإنسانية
ربما تكون أخطر المخاطر غير المتوقعة هي ما يفعله التشخيص بإدراكنا للآخرين. دراسة 2025 نشرت في ScienceDirect حددت “مفارقة عدم الإنسانية” – الفكرة التي مفادها أنه كلما زادت الصفات الإنسانية التي نتعلقها بالذكاء الاصطناعي، كلما بدأنا في إدراك البشر الحقيقيين على أنهم أقل إنسانية. وجدت الدراسة أن الأفراد الأصغر سنًا كانوا الأكثر عرضة لهذا التأثير. وقد تتبع الباحثون ذلك إلى تداخل الفئات الوجودية: عندما يبدو أن الآلات تمتلك التعاطف والوعي، يبدأ الدماغ في بهدوء سحب تلك الصفات من الناس من حولنا.
العواقب التجارية خطيرة مثل العواقب البشرية. منظمة تعتمد عاطفياً على مستشاري الذكاء الاصطناعي ليست أكثر إنتاجية. إنها أكثر عرضة لقرارات سيئة تُتخذ بثقة غير دقيقة. إدراك التشخيص ليس ضد التكنولوجيا. إنه إدارة مخاطر سليمة.
