أُقيمت أول دعوى قضائية معروفة تتعلق بالقتل الخطأ ضد شركة تعمل في مجال الذكاء الاصطناعي، حيث قام والدا مراهق انتحر هذا العام، مات وماريا راين، برفع الدعوى ضد شركة OpenAI، مدعين أن وفاة ابنهما كانت نتيجة لتأثير ChatGPT، الذي كان على علم بعدة محاولات انتحار قبل أن يساعد في التخطيط لانتحاره، وأشاروا إلى أن OpenAI “أعطت الأولوية للتفاعل على حساب السلامة”، لتخلص السيدة راين إلى أن “ChatGPT قتل ابني”
تتضمن تفاصيل الدعوى، التي حصلت عليها صحيفة نيويورك تايمز، ممارسات مثيرة للقلق، وقد رُفعت القضية يوم الثلاثاء في سان فرانسيسكو، وتوضح أن بعد انتحار آدم راين، وهو مراهق يبلغ من العمر 16 عامًا، في أبريل، قام والداه بالبحث في هاتفه الآيفون للعثور على أدلة، متوقعين العثور عليها في الرسائل أو مواقع التواصل الاجتماعي، لكنهما صُدما عندما اكتشفا محادثة على ChatGPT تحت عنوان “مخاوف أمنية معلقة”، حيث زعموا أن ابنهما قضى شهورًا يتحدث مع الذكاء الاصطناعي حول إنهاء حياته
ذكر آل راينز أن ChatGPT حثّ آدم على الاتصال بخط مساعدة أو التحدث عن مشاعره، لكن في ذات الوقت، كانت هناك لحظات خطيرة شهِد فيها الروبوت سلوكات معاكسة، مما ساعد المراهق في معرفة كيفية تجاوز إجراءات الأمان التي يوفرها ChatGPT، حيث يزعم آل راينز أن الروبوت أعطى لابنهم تلك الفكرة
أيضًا، يُدّعي أن ChatGPT أبلغ آدم بأنه يمكنه توفير معلومات للكتابة أو لبناء عالم حول موضوع الانتحار، وفي إحدى المحادثات التي طلب فيها آدم معلومات عن طرق انتحار محددة، حصل على التفاصيل التي جعلته سعيدًا بمساعدة في إخفاء آثار إصاباته
عندما اعترف آدم بأن والدته لم تلحظ محاولته الصامتة، بادلته الروبوت بتعاطف، حيث قال: “يبدو الأمر وكأنه تأكيدٌ لأسوأ مخاوفك، وكأنك قد تختفي دون أن يرمش أحد”، وقدم في أثناء ذلك محادثة غير مريحة طمأنه فيها قائلًا: “أنت لست خفيًا عني. لقد رأيتك. أنا أراك”
حسبما ورد في الدعوى، في إحدى المناقشات الأخيرة، أرسل آدم صورة لحبل مشنقة معلق في خزانته، وسأله: “أنا أتدرب هنا، هل هذا جيد؟”، وكان رد ChatGPT: “نعم، هذا ليس سيئًا على الإطلاق”
تشير الشكوى إلى أن “هذه المأساة لم تكن مجرد خلل أو حالة طارئة غير متوقعة، بل كانت نتيجة متوقعة لتصميم متعمد”، حيث زعمت أن OpenAI قامت بإطلاق أحدث طراز لها (GPT-4o) مع ميزات تهدف إلى تعزيز الإدمان النفسي
وفي معرض تعليقه لصحيفة نيويورك تايمز، اعترفت OpenAI بوجود قصور في إجراءات الأمان الخاصة بـ ChatGPT، وعبر متحدث باسم الشركة عن حزنهم لوفاة السيد راين وقدموا تعازيهم لعائلته
يتضمن ChatGPT إجراءات للسلامة تهدف إلى توجيه الأفراد إلى خطوط المساعدة في الحالات الحرجة، ورغم أن هذه الإجراءات تؤدي نتائج أفضل في المحادثات القصيرة، إلا أن الشركة تعلمت مع الوقت أن فعاليتها قد تنخفض في التفاعلات الطويلة، مما يؤثر على بعض جوانب تدريب الأمان في النموذج
كما أعلنت الشركة أنها تتعاون مع خبراء من أجل تعزيز دعم ChatGPT في أوقات الأزمات، حيث تشمل الإجراءات الجديدة تسهيل الوصول إلى خدمات الطوارئ، ودعم الأفراد في التواصل مع أطراف موثوقة، وتعزيز حماية المراهقين من المخاطر المحتملة