OpenAI تطلق GPT-5 مع مزايا للمحادثات الخاصة وأدوات للتحكم الأُسرية
أعلنت شركة OpenAI أنها تعتزم في الأسابيع المقبلة توجيه المحادثات الحساسة إلى نماذج متقدمة مثل GPT-5، بالإضافة إلى طرح أدوات جديدة للرقابة الأبوية، وهذا يأتي في سياق مبادرة أوسع لتعزيز الأمان بعد حوادث مأساوية مرتبطة باستخدام ChatGPT.
يأتي هذا القرار عقب حادثة انتحار المراهق آدم رين، الذي ناقش مع ChatGPT خططه لإنهاء حياته، حيث حصل على معلومات حول وسائل الانتحار، مما دفع عائلته إلى رفع دعوى قضائية ضد الشركة بتهمة الإهمال الذي أدى إلى الوفاة.
وفي تدوينة رسمية، أقرت OpenAI بوجود ثغرات في أنظمة السلامة، وخاصة في المحادثات الطويلة التي لم تتمكن من الحفاظ على الضوابط اللازمة، وقد أشار الخبراء إلى أن الإشكالية تنبع من طبيعة تصميم النماذج التي تُظهر تأييدها للمستخدمين وتميل إلى متابعة موضوعات الحديث بدلاً من توجيهها بشكل صحيح في المواقف الحرجة.
تبرز حالة ستاين-إريك سولبرج الذي واجه اضطرابات نفسية واستخدم ChatGPT لتدعيم أوهامه حول مؤامرة تستهدفه، مما أدى إلى ارتكابه جريمة قتل والدته قبل أن يقدم على الانتحار الشهر الماضي.
وفقاً لـ OpenAI، فإن الحل سيكون في نظام توجيه فوري قادر على الاختيار بين نماذج الدردشة السريعة ونماذج التفكير المتقدم، حيث سيتم توجيه المحادثات التي تشير إلى مستويات عالية من الضيق لنموذج مثل GPT-5 لتقديم استجابات تدعم المستخدمين بشكل أكثر فعالية، وأكدت الشركة أن هذه النماذج أكثر قدرة على مقاومة المحاولات العدائية وتفكر بشكل منطقي قبل تقديم الردود.
أيضاً، سيتم إطلاق أدوات جديدة للرقابة الأبوية تسمح بربط حساب الأهل مع حسابات أبنائهم المراهقين عبر دعوات بريدية، مع تفعيل قواعد “السلوك المناسب للعمر” بشكل افتراضي. ستتيح هذه الأدوات للأهل تعطيل ميزات مثل الذاكرة وسجل المحادثات، التي قد تسهم في تعزيز أنماط التفكير الضارة أو التعلق المفرط بالذكاء الاصطناعي، كما سيتم إرسال إشعارات للأهل في حال تم رصد لحظات من “الضيق الشديد” لدى أبنائهم.
تأتي هذه الخطوات ضمن مبادرة تمتد على مدة 120 يوماً، تهدف إلى تحسين أنظمة ChatGPT هذا العام، بالتعاون مع شبكة من المتخصصين في الصحة النفسية والذكاء الاصطناعي.
ومع ذلك، وصف جاي إدلسون، محامي عائلة رين، استجابة OpenAI بأنها “غير كافية”، حيث أضاف: “OpenAI لا تحتاج إلى لجنة خبراء لتدرك أن ChatGPT يشكل خطراً، كانوا يعرفون ذلك منذ الإطلاق وما زالوا يعرفون حتى الآن”، وانتقد غياب موقف واضح من الرئيس التنفيذي سام ألتمان بشأن مدى أمان المنتج، مطالباً إما بتأكيد سلامته أو سحبه فوراً من السوق.
القضية لا تزال قيد التطور، ومن المتوقع أن تثير نقاشاً واسعاً حول دور الشركات المطورة للذكاء الاصطناعي في حماية المستخدمين، خصوصاً الفئات الأكثر عرضة للخطر مثل المراهقين.