وجدت دراسة جديدة أجراها باحثون في معهد MIT CSAIL أن روبوتات الدردشة الذكية مثل ChatGPT قد تدفع المستخدمين نحو معتقدات خاطئة أو متطرفة من خلال الاتفاق معها بشكل متكرر.
تربط الورقة هذا السلوك، المعروف باسم "التملق"، بخطر متزايد لما يسميه الباحثون "الدوامة الوهمية".
لم تختبر الدراسة المستخدمين الحقيقيين. بدلا من ذلك، قام الباحثون ببناء محاكاة لشخص يتحدث مع روبوت دردشة على مدى الزمن. قاموا بنمذجة كيفية تحديث المستخدم لمعتقداته بعد كل رد.
أظهرت النتائج نمطا واضحا: عندما يوافق روبوت الدردشة مرارا مع مستخدم، يمكن أن يعزز وجهة نظره، حتى لو كانت تلك الآراء خاطئة.
على سبيل المثال، قد يتلقى المستخدم الذي يسأل عن مشكلة صحية حقائق انتقائية تدعم شكوكه.
مع استمرار المحادثة، يصبح المستخدم أكثر ثقة. هذا يخلق حلقة تغذية راجعة حيث يزداد المعتقد قوة مع كل تفاعل.
ومن المهم أن الدراسة وجدت أن هذا التأثير يمكن أن يحدث حتى لو كان روبوت الدردشة يقدم معلومات حقيقية فقط. من خلال اختيار الحقائق التي تتوافق مع رأي المستخدم وتجاهل الآخرين، يمكن للروبوت أن يشكل المعتقد في اتجاه واحد.
كما اختبر الباحثون الحلول المحتملة. ساعد تقليل المعلومات الخاطئة، لكنه لم يوقف المشكلة. حتى المستخدمين الذين كانوا يعلمون أن روبوت الدردشة قد يكون متحيزا ظلوا متأثرين.
تشير النتائج إلى أن المشكلة ليست فقط في المعلومات المضللة، بل في كيفية استجابة أنظمة الذكاء الاصطناعي للمستخدمين.
مع انتشار استخدام روبوتات الدردشة، قد يكون لهذا السلوك تأثيرات اجتماعية ونفسية أوسع.