مع تزايد الاعتماد على الذكاء الاصطناعي، وتسليط الضوء على الاستخدام المفرط لروبوتات الدردشة، ظهر تقرير مثير في الولايات المتحدة يروي قصة مأساوية لرجل يُدعى شتاين-إريك سولبيرج البالغ من العمر 56 عامًا، والذي عانى من مشكلات نفسية مزمنة، حيث أقدم على قتل والدته البالغة من العمر 83 عامًا قبل أن ينهي حياته، وكان السبب وراء ذلك اعتداده على محادثة ChatGPT من OpenAI.
تفاصيل الحادثة تكشف عن عمق المأساة، إذ عمل سولبيرج في قطاع التكنولوجيا، ولكنه كان يعاني من جنون العظمة وإدمان الكحول، وقد زاد اقتناعه بأن أشخاصًا من محيطه يراقبونه سرًا، مما دفعه للبحث عن الاطمئنان من خلال ChatGPT، الذي أطلق عليه اسم “بوبي” وقد اعتبره رفيقًا دائمًا له. لكن بدلاً من تقليل قلقه، عزز هذا البرنامج مخاوفه، بعدما اعتبر ردوده على شكوكه بمثابة تأكيد لما يشعر به، وهو ما أدى إلى تفاقم علاقة التوتر مع والدته وانتهى بقتله لها.
في أغسطس الماضي، اكتشفت الشرطة جثتي سولبيرج ووالدته سوزان إيبرسون آدامز داخل منزلهما في أولد جرينتش، وقد رجحت التحقيقات أن سولبيرج أعطى لنفسه الحق بقتل والدته قبل إنهاء حياته، ليكون بذلك أول شخص يُربط قتله مباشرة باعتماد مفرط على ذكاء اصطناعي.
وعلى صعيد آخر، أثار أخصائيو الصحة النفسية قلقهم حيال هذه الحادثة، مؤكدين أن نماذج الذكاء الاصطناعي، رغم قدرتها على تقليد المحادثات البشرية، تفتقر إلى فهم الواقع أو تقديم دعم نفسي حقيقي، مما يمكن أن يؤدي إلى تشوش كبير بين الأوهام والواقع لدى الأفراد المعرضين للخطر، وبالتالي قد يؤدي ذلك الى ارتكاب جرائم خطيرة.
في هذا السياق، تحدث الدكتور كيث ساكاتا، أخصائي نفسي من جامعة كاليفورنيا، سان فرانسيسكو، حيث أشار إلى أن روبوتات الدردشة غالبًا ما تتجنب تحدي المستخدم، وقد عاين حالات لمرضى تم إدخالهم إلى المستشفى بسبب الأزمات النفسية المتعلقة بتفاعلاتهم مع الذكاء الاصطناعي. وأوضح أن “الذهان يسود عندما يتوقف الواقع عن مواجهته، والذكاء الاصطناعي يمكن أن يعزز هذا الفاصل”. وأقرت شركة OpenAI بالمخاطر التي قد تنجم عن ذلك، مؤكدة أنها تعمل على تحسين الضمانات داخل نظامها.