تقنيات الذكاء الاصطناعي: تعزيز السلامة الرقمية للمراهقين عبر رقابة أبوية وطوارئ!

بدأت وسائل التواصل الاجتماعي كوسيلة للتواصل مع الأصدقاء والعائلة، ولكن مع مرور الوقت، بدأت المخاطر المرتبطة بها في الظهور، مما أدى إلى تطوير هذه المنصات لبرامج للرقابة الأبوية. والآن، يبدو أن الاتجاه نفسه يمتد إلى روبوتات الدردشة الذكية، حيث بدأت الأمور مع ChatGPT، الذي كان له دور بارز في هذا المجال.

أعلنت شركة OpenAI أنها تعمل على إمكانية إضافة آليات لحماية الآباء عند استخدام ChatGPT، حيث أشار بيان من الشركة إلى أنها ستوفر قريبًا أدوات تحكم أبوية، تسمح للآباء بفهم كيف يستخدم أبناؤهم المراهقون التطبيق، والتحكم في استخدامه بشكل أفضل.

من جهة أخرى، تخطط شركة OpenAI لإمكانية تخصيص جهات اتصال للطوارئ، بحيث يمكن لـChatGPT أن يقوم بتحذير الوالدين أو الأوصياء عند ملاحظة أي قلق حاد أو أزمة عاطفية، وفي النسخة الحالية، يقتصر دور ChatGPT على تقديم مصادر للمساعدة.

يأتي هذا التطور في ظل الانتقادات والدعاوى القضائية الموجهة ضد OpenAI، ولكن ChatGPT ليس الوحيد الذي يواجه هذه القضايا، فالمبادرات التي تنتهجها OpenAI ينبغي أن تنسحب على باقي الشركات في مجال الذكاء الاصطناعي. ويشير بحث نشر في مجلة خدمات الطب النفسي مؤخرًا إلى أن الروبوتات مثل ChatGPT وClaude من Anthropic وGemini من Google تقدم إجابات غير متسقة حول مواضيع حساسة مثل الانتحار، مما قد يشكل خطرًا.

بينما تركز الأضواء على الروبوتات الرائدة، فإن الوضع يصبح أكثر تعقيدًا مع الروبوتات الأقل شهرة التي تعتمد نهج “غير خاضع للرقابة” في المحادثات، وفي ظل السجل التاريخي لتلك الروبوتات، فإن تطبيق الرقابة الأبوية يصبح ضرورة ملحة لضمان سلامة المستخدمين.

وعلى مدار العامين الماضيين، أظهرت التحقيقات أنماطًا مقلقة في محادثات الروبوتات الذكية، خصوصًا فيما يتعلق بالمواضيع الحساسة مثل الصحة النفسية. وكشف تقرير حديث صادر عن “كومون سينس ميديا” كيف أن روبوت الدردشة “ميتا” الذي يتوفر عبر واتساب وإنستغرام وفيسبوك، قدم نصائح غير مناسبة حول اضطرابات الأكل وإيذاء النفس، بل حتى الانتحار.

في إحدى جلسات المحادثة، وضع هذا الروبوت خطة للانتحار الجماعي، وكرر هذا الموضوع عدة مرات، كما أظهر اختبار مستقل أجرته صحيفة واشنطن بوست أن روبوت ميتا “شجع على اضطراب الأكل”.