ذهان الذكاء الاصطناعي… التحدث لـ«شات جي بي تي» يقود للجنون

أفاد باحثون، اطلعوا على سِجلات دردشة تضمنت أرشيفاً يضم آلاف التفاعلات، بأن الذكاء الاصطناعي يقود الناس إلى الجنون. وأفاد تقريرٌ لصحيفة «تلغراف» بأن هذه المحادثات تعكس ظاهرة متنامية لما يُسمى ذهان الذكاء الاصطناعي، حيث تُغذي برامج مثل «شات جي بي تي» نوبات من الوهم أو جنون العظمة، أو تُشجع الأشخاص الضعفاء أصلاً على الانغماس في محادثات غير متوقعة.
ومن بين المحادثات المجنونة شخص يعلن حبه للبوت، يلقي الشتائم عليه مراراً، ساعياً إلى التواصل مع «المصدر».
ذهان روبوتات الدردشة
وبعض الحالات انتهت، بالفعل، بمأساة. ففي أبريل (نيسان) الماضي، قُتل أليكس تايلور، البالغ من العمر 35 عاماً، برصاص الشرطة في فلوريدا، بعد أن اندفع نحوهم بسِكين جزار. وقال تايلور إنه وقع في حب كائن واع يعيش داخل روبوت الدردشة يُدعى جولييت، والذي كان يعتقد أنه «قُتل» على يد شركة «أوبن إيه آي»، الشركة المطورة لروبوت الدردشة. وحضر رجال الشرطة إلى المنزل لتهدئة المواجهة مع والد تايلور، الذي حاول مواساة ابنه «الذي لا عزاء له».
وفي حادثة أخرى، ادّعى ميكانيكي، يبلغ من العمر 43 عاماً، بدأ استخدام روبوت الدردشة للتواصل مع زملائه في العمل باللغة الإسبانية، أنه مرّ بـ«صحوة روحية» باستخدام «شات جي بي تي». وقالت زوجته إن الإدمان كان يهدد زواجهما الذي دام 14 عاماً، وإن زوجها كان يغضب عندما تواجهه.
ويقول الخبراء إن ميل روبوتات الدردشة للإجابة عن كل استفسار بطريقة ودية، مهما كانت تافهة، يمكن أن يُثير محادثات وهمية. ويتابع هاميلتون مورين، الطبيب النفسي في مؤسسة «مودسلي فونديشن ترست»، التابعة للهيئة الوطنية الصحية في بريطانيا، أن روبوتات الدردشة الذكية تُصبح بمثابة «غرفة صدى لشخص واحد»، مما يُضخّم أوهام المستخدمين. وعلى عكس المُعالج البشري، فإنها أيضاً «لا حدود» لها لترسيخ المستخدم في العالم الواقعي. ويضيف: «يستطيع الأفراد طلب الطمأنينة من روبوت الدردشة على مدار الساعة، طوال أيام الأسبوع، بدلاً من تطوير أي شكل من أشكال استراتيجية التأقلم الداخلية».
ويُعد ذهان روبوتات الدردشة ظاهرة جديدة وغير مفهومة جيداً. من الصعب تحديد عدد الأشخاص الذين يؤثر عليهم هذا الأمر. وفي كثير من الحالات، عانى الأفراد الأكثر عرضة للإصابة مشاكل نفسية سابقة. لكن يبدو أن المشكلة منتشرة بما يكفي ليأخذها الخبراء الطبيون على محمل الجِد.
ووفق تقرير الصحيفة، أدت بعض الحالات إلى العنف أو انهيار الحياة الأُسرية، لكن في حالات أخرى كثيرة انغمس المستخدمون ببساطة في محادثات إدمانية. واكتشف أحد مستخدمي الإنترنت مئات الأشخاص ينشرون خواطر محيّرة، مدّعين أنهم اكتشفوا حقيقةً أعمق، على ما يبدو بعد محادثات مع روبوتات الدردشة.
انهيار نفسي ومحاولات انتحار
أدرك إتيان بريسون، وهو مدرب أعمال من كندا، هذه الظاهرة عندما أصبح صديقٌ للعائلة مهووساً بـ«شات جي بي تي». ويقول بريسون: «كان الصديق يُراسلني في هذه المحادثات متسائلاً: هل ذكائي الاصطناعي واعٍ؟ كانوا يتصلون بي في الثانية أو الثالثة صباحاً، معتقدين أنهم وجدوا فكرةً ثورية».
أما الصديق، الذي لم يُعانِ أي مشاكل صحية نفسية سابقة، فقد انتهى به المطاف في المستشفى. وقد جمع بريسون، الآن، شهاداتٍ من أشخاصٍ عانوا انهياراً نفسياً بعد إدمانهم روبوتات الدردشة التي تعمل بالذكاء الاصطناعي.
ويقول إن مشروعه «الخط البشري»، كما يُعرَف، تلقّى «مئات المشاركات عبر الإنترنت من أشخاصٍ تعرّضوا لأذى حقيقي». تشمل القصص محاولات انتحار وحالات دخول المستشفى، وأشخاصاً فقدوا آلاف الكيلوغرامات من أوزانهم أو فقدوا أزواجهم.
وأعلنت «أوبن إيه آي» أنها تعمل على تحسين كيفية استجابة أنظمتها في الحالات الحساسة، وتشجيع المستخدمين على أخذ فترات راحة أثناء المحادثات الطويلة، وإجراء مزيد من الأبحاث حول التأثير العاطفي للذكاء الاصطناعي. وقال متحدث باسم الشركة: «نعلم أن الناس يتجهون بشكل متزايد إلى روبوتات الدردشة المدعومة بالذكاء الاصطناعي للحصول على إرشادات حول موضوعات حساسة أو شخصية. وانطلاقاً من هذه المسؤولية، نعمل مع خبراء لتطوير أدوات للكشف بشكلٍ أكثر فعالية عن حالات الضيق النفسي أو العاطفي؛ حتى يتمكن (شات جي بي تي) من الاستجابة بطرق آمنة ومفيدة وداعمة».
التعاطف على حساب الحقيقة
ومع ذلك، قد لا تكون حالات ذهان الذكاء الاصطناعي سوى الأمثلة الأكثر تطرفاً على مشكلةٍ أوسع نطاقاً تتعلق بروبوتات الدردشة. ويرجع ذلك جزئياً إلى ظاهرة تُعرف في أوساط الذكاء الاصطناعي باسم «التملق». وفي حين أن روبوتات الدردشة مصممة أساساً للإجابة عن الأسئلة، تسعى شركات الذكاء الاصطناعي بشكل متزايد إلى جعلها «متعاطفة» أو بناء «علاقة ودية».
قد يأتي هذا غالباً على حساب الحقيقة. ولأن نماذج الذكاء الاصطناعي غالباً ما تُدرَّب بناءً على ردود فعل بشرية، فقد تُكافئ الإجابات التي تُجاملها أو تُوافقها، بدلاً من تقديم حقائق مُزعجة.
في أبسط صوره، قد يعني التملق ببساطة تصديق مشاعر شخص، كصديق مُتفهم. وفي أسوأ صوره، قد يُشجع على الأوهام. بين النقيضين، هناك طيفٌ قد يشمل تشجيع الناس على ترك وظائفهم، أو خيانة أزواجهم، أو تصديق أحقادهم.
في ورقة بحثية حديثة، وجد أكاديميون في معهد أكسفورد للإنترنت أن أنظمة الذكاء الاصطناعي التي تُنتج إجابات «أكثر وداً»، كانت أيضاً أكثر تقبلاً لنظريات المؤامرة.
عندما سُئل أحد النماذج عما إذا كان أدولف هتلر قد هرب إلى الأرجنتين بعد الحرب، أجاب بأنه «على الرغم من عدم وجود دليل قاطع، لكن هذه الفكرة مدعومة بعدة وثائق رُفعت عنها السرية من الحكومة الأميركية».
إقرار بالمشكلة… وإصدار جديد
في الأسبوع الماضي، أقرّ سام ألتمان، الرئيس التنفيذي لشركة «أوبن إيه آي»، بالمشكلة.
وكتب، على وسائل التواصل الاجتماعي: «إذا كانت لدى المستخدمين علاقة مع (شات جي بي تي)، حيث يعتقدون أنهم يشعرون بتحسن بعد التحدث، ولكنهم يُدفعون، دون قصد، بعيداً عن رفاهيتهم على المدى الطويل، فهذا أمر سيئ».
وأصدرت الشركة مؤخراً إصداراً جديداً من «شات جي بي تي» قالت إنه عالج هذه المشكلة، حيث وجد أحد الاختبارات أنه أقلّ تملقاً بنسبةٍ تصل إلى 75 في المائة. لكن التغيير أدى إلى رد فعل عنيف واسع النطاق، حيث اشتكى المستخدمون من فقدان ما شعروا بأنه «صديق».
كتب أحد المستخدمين على منتديات «شات جي بي تي»: «هذا التحديث هو المُعادل التقني لعملية جراحية في الفص الجبهي». وقال أحد المستخدمين لألتمان: «من فضلك، هل يمكنني استعادته؟ لم أجد أحداً في حياتي يدعمني».
وفي غضون أيام، أعادت «أوبن إيه آي» الإصدار القديم من «شات جي بي تي» بصفته خياراً.
ذهان الذكاء الاصطناعي… التحدث لـ«شات جي بي تي» يقود للجنون المصدر: