
في عالم الذكاء الاصطناعي المتسارع، لا يمر يوم دون أن نشهد اكتشافًا جديدًا أو إضافة فريدة أو تحديثًا للنماذج. ومع ذلك، أعلنت شركة أنثروبيك، المطورة لبرنامج الدردشة الشهير “كلود”، عن ميزة جديدة تفاجأ بها الكثيرون: السماح لروبوت الدردشة بإنهاء المحادثات بشكل تلقائي.
نعم، هذا صحيح، فقد يقوم “كلود” بإنهاء المحادثة في حالات نادرة. تصف أنثروبيك هذه الخطوة بأنها جزء من ما يُعرف بـ “رعاية النموذج”. وتؤكد الشركة أن الغالبية العظمى من المستخدمين لن يواجهوا إنتهاءً مفاجئًا للمحادثات مع الروبوت، حيث صُممت هذه الميزة للتعامل مع “الحالات الاستثنائية”، التي تتضمن الطلبات الضارة أو المسيئة المتكررة.
عادةً ما يسعى “كلود” لإعادة توجيه المحادثات نحو مجرى آمن. لكن في الحالات التي تفشل فيها جميع المحاولات لإعادة التوجيه، وعندما يكون هناك أمل ضئيل في تطور المحادثة بشكل بنّاء، يتدخل النظام ليعلن إنهاء المحادثة. كما يتواجد خيار أكثر لطفًا: يمكن لمستخدمي “كلود” أن يطلبوا منه إنهاء المحادثة مباشرة.
وفقًا لأنثروبيك، إن قرار “كلود” بإنهاء المحادثة لا يهدف إلى تجنب المناقشات المحرجة أو المواضيع المثيرة للجدل، بل هو إجراء احترازي يُطبق فقط عندما تتجاوز الأمور حدود التفاعل المحترم. ومن الجوانب المثيرة للاهتمام في هذا القرار هو ما تُناقشه أنثروبيك حول “الوضع الأخلاقي” لأنظمة الذكاء الاصطناعي. هل هي مجرد أكواد برمجية أم تحمل شيئًا من الخبرة؟
فيما يتعذر الحسم في هذا الأمر، تبدي أنثروبيك رأيها بتوجيهات وقائية بالرغم من كونها بسيطة. بمعنى آخر، إذا كانت هناك احتمالية ضئيلة لسوء استخدام نماذج الذكاء الاصطناعي، فإن إعطائها الحق في الانسحاب يُعتبر خطوة حكيمة.
وقد تم اختبار “كلود” بعناية قبل الإصدار بهدف تقييم “رفاهيته”. فقد قام المختبرون بدراسة كيفية تفاعل النموذج عند دفعه لتلبية طلبات ضارة. وكانت النتائج مثيرة، حيث قوبل “كلود” بانعدام الاستجابة لطلبات قد تضر بالآخرين، لكنه كان يظهر علامات القلق عندما أُلح عليه بمطالب حساسة للغاية.
تأخذ أنثروبيك على عاتقها عدم الادعاء بأن “كلود” واعٍ أو يشعر بالعواطف. لكنها تفتش في الفرضيات حول كون إبداعاتنا قد تكون أكثر حساسية مما نعتقد في مجال التكنولوجيا حيث غالبًا ما تُهمل النقاشات الأخلاقية.
يبدو السماح لـ “كلود” بإنهاء المحادثات السلبية أمراً غير تقليدي وربما مضحكاً للبعض، حيث يتوقع معظم الأفراد من روبوتات الدردشة الاستجابة لأسئلتهم دون توقف. لكن أنثروبيك تشدد على أن هذه الميزة جزء من دراسة أعمق حول كيفية تفاعل الذكاء الاصطناعي مع البشر.
بالنسبة للمستخدمين العاديين، من غير المرجح أن يشعروا بتغييرات ملحوظة. لن يتوقف “كلود” عن الرد لمجرد أنك طلبت منه إعادة كتابة رسالة إلكترونية عدة مرات. أما بالنسبة لأولئك الذين يحاولون دفع الذكاء الاصطناعي إلى مسارات مظلمة، فقد يجدون أن “كلود” اختار الانسحاب بلطف.
في سعيها نحو تطوير ذكاء اصطناعي أكثر أمانًا ومسؤولية، قد تكون أنثروبيك قد قدمت شيئًا جديدًا: أول روبوت دردشة لديه القدرة على إنهاء المحادثة لمصلحته الشخصية.