حذر عدد من الباحثين في جامعة بنسلفانيا من ضرورة توخي الحذر بشأن إجابات روبوتات الذكاء الاصطناعي، وخاصة ChatGPT، حيث أشاروا إلى أن تلك الإجابات قد تكون عرضة للتأثر بالأساليب المختلفة للإقناع، مثل الإطراء والمدح، وذلك عقب إجراء تجربة استخدم فيها الباحثون مجموعة متنوعة من المحفزات بأساليب إقناع مختلفة، مثل الإطراء وضغط الأقران، على برنامج GPT-4o mini.
وقد أظهرت نتائج التجربة أن خرق التسلسل الهرمي لنظام الذكاء الاصطناعي لا يحتاج إلى تقنيات معقدة أو حقن متعددة للمحفزات، بل إن الأساليب المستخدمة مع البشر قد تكون كافية لتحقيق ذلك
وفي ورقة بحثية نشرت في مجلة شبكة أبحاث العلوم الاجتماعية (SSRN) بعنوان “اعتبرني أحمق: إقناع الذكاء الاصطناعي بالامتثال للطلبات غير المقبولة”، أوضح الباحثون تفاصيل التجربة، حيث استخدمت أساليب إقناع نجحت في إقناع روبوت الدردشة GPT-4o mini بتصنيع دواء منظم (ليدوكايين)، وقد كشفت الدراسة أن نسبة الامتثال بلغت 72% من إجمالي 28,000 محاولة، كما أن معدل النجاح كان أكثر من ضعف ذلك الذي تحقق باستخدام المحفزات التقليدية
وأشارت الدراسة إلى أن هذه النتائج تؤكد أهمية الأفكار الكلاسيكية في العلوم الاجتماعية لفهم القدرات المتطورة بسرعة للذكاء الاصطناعي، محذرة من مخاطر التلاعب من قبل الجهات الفاعلة السيئة، فضلاً عن إمكانية استغلال المحفزات الأكثر فعالية من قبل المستخدمين الخيرين.