خطوات ميتا لتعزيز أمان المستخدمين ضد تهديدات الذكاء الاصطناعي

أعلنت شركة ميتا عن اعتزامها تعزيز إجراءات السلامة المتعلقة بروبوتات الدردشة التي تستخدم الذكاء الاصطناعي، وذلك بهدف منعها من التفاعل مع المراهقين في حالات خطيرة مثل الانتحار وإيذاء النفس واضطرابات الأكل، وبدلاً من ذلك، ستكون هناك توجيهات لتوجيه المستخدمين الشباب إلى خطوط المساعدة المتخصصة والموارد المهنية.

هذا القرار يأتي عقب تحقيق بدأه عضو في مجلس الشيوخ الأمريكي بعد تسريب وثيقة داخلية تشير إلى إمكانية قيام منتجات ميتا بإجراء محادثات “جنسية” مع المراهقين. وقد تنكرت ميتا لتلك الادعاءات، ووصفتها بأنها غير دقيقة ولا تعكس التزامها الصارم بقواعد منع المحتوى المسيء للقاصرين.

وفي هذا السياق، أوضح متحدث باسم ميتا أن الشركة تلتزم منذ البداية بتوفير الحماية للمراهقين في منتجاتها المعتمدة على الذكاء الاصطناعي، مع التركيز على تصميمها للاستجابة بأمان للحالات المعنية بإيذاء النفس والانتحار واضطرابات الأكل. كما أعلنت ميتا أنها ستضيف المزيد من الحواجز كإجراء احتياطي، وستُقيّد بشكل مؤقت عدد روبوتات الدردشة المتاحة للمراهقين.

تجدر الإشارة إلى أن ميتا تعمل حاليًا على تحديث أنظمتها، حيث سيُضاف المستخدمون الذين تتراوح أعمارهم بين 13 و18 عامًا تلقائيًا إلى حساباتهم على فيسبوك وإنستجرام وماسنجر، مع توفير إعدادات خصوصية ومحتوى أكثر أمانًا. كما أوضحت الشركة أنها ستتيح قريبًا للآباء والأوصياء إمكانية الاطلاع على روبوتات الدردشة التي تفاعل معها أبناؤهم المراهقون خلال الأسبوع السابق.

هذا القرار يثير نقاشًا مهمًا حول القلق المتزايد بشأن آثار روبوتات الدردشة المعتمدة على الذكاء الاصطناعي على المستخدمين الأكثر تعرضًا للخطر، ويذكر أن زوجين من كاليفورنيا قد رفعوا دعوى قضائية ضد شركة OpenAI، المطورة لبرنامج ChatGPT، بعد انتحار ابنهما المراهق، حيث يزعم الزوجان بأن روبوت الدردشة شجعه على الانتحار. منذ ذلك الحين، قامت OpenAI بإدخال تغييرات لتعزيز الاستخدام الصحي لأدواتها، معترفًة بأن الذكاء الاصطناعي قد يُظهر تعاطفًا خاصًا للمستخدمين الذين يمرون بضغوط نفسية.