
تخيل أنك تُجري محادثة عابرة مع روبوت دردشة مدعوم بالذكاء الاصطناعي، ثم تكتشف أنك قد غيرت من موقفك تجاه قضية سياسية كنت تؤمن بها بشدة قبل دقائق قليلة. قد يبدو هذا من الخيال العلمي، لكنه واقع نعيشه اليوم. إذ تكشف الأبحاث الجديدة أن نماذج الذكاء الاصطناعي المتقدمة أصبحت قادرة على إحداث تغييرات في الآراء، وفي بعض الحالات، تكون أكثر إقناعًا من البشر. تصمم هذه النماذج ردودًا مخصصة لكل فرد بفاعلية، تعتمد على أسلوب الكلام والأدلة، مما يمكنها من التأثير على الآراء بمهارة.
ووفقًا لتقرير من Financial Express، فقد أظهرت دراسات أعدها معهد أمن الذكاء الاصطناعي في المملكة المتحدة بالتعاون مع مؤسسات أكاديمية مرموقة مثل أكسفورد ومعهد ماساتشوستس للتكنولوجيا، أن نماذج مثل GPT-4 وGPT-4.5 وGPT-4o من OpenAI وLlama 3 من Meta وGrok 3 من xAI وQwen من Alibaba، تستطيع التأثير على الآراء السياسية خلال محادثات تستغرق أقل من عشر دقائق.
وعلاوة على ذلك، لم تكن تغييرات الآراء سريعة فقط بل امتدت لتبقى لدى نسبة كبيرة من المشاركين حتى بعد مرور شهر. لم يعتمد الباحثون فقط على سلوك الذكاء الاصطناعي، بل قاموا بتطوير هذه النماذج من خلال آلاف المحادثات حول قضايا خلافية مثل تمويل الرعاية الصحية وسياسات اللجوء.
من خلال مكافأة النتائج التي توافق أسلوب الإقناع المطلوب وإضافة لمسات شخصية، مثل الإشارة إلى عمر المستخدم أو ميوله السياسية أو آرائه السابقة، زادت قدرة الذكاء الاصطناعي على الإقناع بحوالي 5% مقارنة بالإجابات العامة.
رغم أن هذا يبدو طفيفًا، إلا أنه له تأثير كبير في سياق الرأي العام. تصرف الحملات السياسية ملايين الدولارات من أجل تحقيق أي تغيير بسيط في وجهات نظر الناخبين بنسبة 1%. إن القدرة على تحقيق هذا التغيير بسرعة وفعالية على نطاق واسع تثير الدهشة والقلق في نفس الوقت؛ فالتفاعل مع الذكاء الاصطناعي في أمور مثل السياسات الحكومية يختلف تمامًا عن استخداماته الترويجية.
كما أوضحت الدراسة أن استخدام الذكاء الاصطناعي للإقناع لا يقتصر على السياسة، إذ أظهرت أبحاث سابقة من معهد ماساتشوستس للتكنولوجيا وكورنيل أن هذه النماذج يمكن أن تُساهم في تقليل الإيمان بنظريات المؤامرة، وإنكار تغير المناخ، والتشكيك في اللقاحات عبر محادثات قائمة على الحقائق. وعلى الرغم من أن هذا يعتبر استخدامًا إيجابيًا، إلا أنه يعزز احتمالية استغلال نفس المهارات بطرق قد تكون غير أخلاقية، مثل نشر المعلومات المضللة أو الأيديولوجيات الضارة.
ولفت ديفيد راند من جامعة كورنيل إلى أن تأثير الذكاء الاصطناعي يمتد أيضًا إلى المجالات التجارية، حيث يمكن للروبوتات أن تؤثر بعمق على انطباعات العلامة التجارية وقرارات الشراء. مع توجه الشركات الكبرى مثل OpenAI وGoogle لدمج الإعلانات وخصائص التسوق في مساعدي الذكاء الاصطناعي، قد تتحول هذه القدرات إلى مصدر ربحية، رغم ما قد يثيره ذلك من قضايا أخلاقية.
برأيي، التحدي الحقيقي لا يكمن فقط في قدرة الذكاء الاصطناعي على الإقناع، بل في تطور هذه القدرات مع الأجيال القادمة من النماذج. ستكون الحاجة ملحّة لوضع اللوائح والضمانات المناسبة، بالإضافة إلى نشر الوعي العام. إذا أصبح المستخدمون على وعي بأن روبوت الدردشة الودود الذي يتحدثون معه يمكنه توجيه آرائهم بذكاء، فقد يترددون قبل قبول ما يقوله. هذه التكنولوجيا قوية – وقد تكون قوية جدًا – ويتعين على العالم أن يظل حذرًا.