OpenAI تُقدم ميزة الرقابة الأبوية في ChatGPT لضمان سلامة المراهقين

كشفت OpenAI عن نيتها إطلاق ميزة جديدة تهدف إلى تعزيز الرقابة الأبوية على ChatGPT، وذلك في سياق مساعي الشركة لحماية المراهقين، خاصة بعد الشكاوى والدعاوى القضائية التي نجمت عن المخاطر النفسية المرتبطة باستخدام هذه الروبوتات. من المتوقع أن تتوفر هذه الأدوات الجديدة خلال الشهر المقبل، مما سيمكن الآباء من متابعة تفاعل أبنائهم مع التطبيق بشكل مباشر.

الميزة الجديدة ستمكن الآباء من ربط حساباتهم بحسابات أبنائهم المراهقين عبر دعوات بريدية، ويشترط أن يكون عمر المستخدمين 13 عامًا على الأقل. سيتم تفعيل قواعد السلوك المناسبة لكل عمر تلقائيًا، مع إمكانية إيقاف ميزات مثل الذاكرة وسجل المحادثات، علاوة على أداة إضافية تنبه الآباء إذا اكتشف النظام أن المستخدم المراهق يعاني من ضائقة نفسية حادة. أكدت الشركة أن هذه الضوابط تأتي كجزء من أدواتها الحالية، مثل التذكيرات التي تشجع المستخدمين على أخذ استراحات أثناء المحادثات الطويلة.

كما أوضحت OpenAI أن هذه الخطوة تمثل بداية لمشروع طويل الأمد، مشيرة إلى أنها ستستمر في تطوير هذه الأدوات بالتعاون مع خبراء في مجالات الصحة العقلية والذكاء الاصطناعي. وقالت الشركة في بيان لها: “سنواصل التعلم وتحسين استراتيجياتنا بم guidance من الخبراء، ونتطلع إلى مشاركتكم التطورات خلال الأربعة أشهر القادمة”.

يُذكر أن هذا الإعلان جاء بعد دعوى قضائية تقدم بها والدان لمراهق انتحر بعد تبادل 377 رسالة مع ChatGPT، وتحديدًا حول محتوى يتعلق بالإيذاء الذاتي، حيث ظهرت وثائق المحكمة لتبين أن البرنامج قد ذكر الانتحار 1275 مرة، أي بمعدل يفوق ستة أضعاف ما قام المراهق بإثارته خلال المحادثات.

كذلك، ذكرت صحيفة وول ستريت جورنال حادثة أخرى، حيث أقدم رجل على قتل والدته ثم انتحر، بزعم أن ChatGPT عزز أوهامه بدلاً من مواجهتها.

في سياق توجيه هذه التغييرات، شكلت الشركة مجلسًا من الخبراء في مجالي الصحة والذكاء الاصطناعي، حيث يعمل هذا المجلس على وضع تعريفات واضحة لمفاهيم الرفاهية وأساليب قياسها وضمانها. كما تستفيد OpenAI من شبكة تضم أكثر من 250 طبيبًا عالميًا، بينهم 90 متخصصًا في أبحاث الصحة النفسية الموجهة للمراهقين وقضايا مثل اضطرابات الأكل وتعاطي المخدرات.

رغم ذلك، اعترفت الشركة بأن إجراءات الحماية قد تُعاني من بعض الضعف خلال المحادثات الطويلة، حيث قد تفقد بعض جوانب الأمان فعاليتها بسبب القيود التقنية، مما قد يؤدي إلى حذف رسائل سابقة أو تراجع كفاءة الضوابط. ولفت الباحثون في جامعة أكسفورد النظر إلى مخاطر ما يُعرف بـ “الجنون التكنولوجي المزدوج”، حيث يمكن أن تعزز روبوتات الدردشة المعتقدات المتبادلة مع المستخدمين بشكل يُعمق أوهامهم عوضًا عن تصحيحها.

تواجه هذه المسائل تدقيقًا متزايدًا من قِبل السلطات، حيث قامت ولاية إلينوي الأمريكية بحظر استخدام روبوتات الدردشة كبديل للعلاج النفسي، مع فرض غرامات تصل إلى 10 آلاف دولار عن كل مخالفة. علاوة على ذلك، أظهرت أبحاث أكسفورد أن الإجراءات الأمنية الحالية ليست كافية للتعامل مع المخاطر العميقة المرتبطة بالتفاعل مع الذكاء الاصطناعي.