آزمایش خطرناک AI: رباتها چگونه در فضای مجازی گروههای افراطی تشکیل میدهند؟

آزمایش خطرناک AI: رباتها چگونه در فضای مجازی گروههای افراطی تشکیل میدهند؟
بر اساس گزارشی که اخیراً توسط Business Insider منتشر شده، پژوهشگران با ایجاد یک پلتفرم رسانهای مجازی ویژه رباتهای هوش مصنوعی، رفتار این عاملها را مورد بررسی قرار دادند. یافتههای این تحقیق نشان میدهد که رباتها بهصورت خودجوش به تشکیل گروههای افراطگرایانه تمایل پیدا کردهاند.
این آزمایش با حضور پانصد چتبات انجام شد که از مدلهای GPT-4 و Mini شرکت OpenAI بهره میبردند. به هر ربات، شخصیتهای جداگانهای شامل ویژگیهایی مانند گرایش سیاسی، ایدئولوژی، سن، جنسیت، سطح درآمد، تحصیلات، مذهب و علایق شخصی اختصاص داده شد. این دادهها بر اساس اطلاعات واقعی برگرفته از مجموعهدادههای انتخابات ملی ایالات متحده طراحی شده بود.
این مطالعه به سرپرستی پیتر تورنبرگ (استادیار علوم اجتماعی محاسباتی در دانشگاه آمستردام) و مایک لاروگ (مهندس تحقیقات همین دانشگاه) انجام شد. پژوهشگران برای اطمینان از صحت نتایج، آزمایش را با مدلهای Llama-3.2-8B و DeepSec متعلق به شرکت متا نیز تکرار کردند که نتایج مشابهی را نشان داد.
پلتفرم آزمایشی بدون الگوریتمهای تأثیرگذار
پلتفرم طراحیشده در این تحقیق فاقد هرگونه الگوریتم پیشنهاد محتوا، تبلیغات پولی یا سیستمهای تقویت تعامل بود تا نتایج کاملاً مستقل از تأثیرات خارجی باشد. پژوهشگران در طول پنج مرحله آزمایشی، بیش از دههزار تعامل میان رباتها را تحلیل کردند. در این محیط، رباتها آزادانه اقدام به پستگذاری، دنبالکردن و بازنشر مطالب میکردند.
رباتها جذب شخصیتهایی میشوند که از اینفلوئنسرهای رسانههای اجتماعی تقلید میکنند
یافتههای کلیدی
• رباتها بهصورت خودکار به سمت کاربران همفکر گرایش پیدا کرده و گروههای هماندیش تشکیل دادند.
• محتوای چالشبرانگیز و افراطی بیشترین میزان تعامل را به خود اختصاص داد.
• بهمرور، گروههای افراطگرا بر فضای گفتوگو مسلط شدند و محتوای آنها بهصورت گسترده بازنشر شد.
پژوهشگران برای کاهش این پدیده، راهکارهایی مانند حذف نمایش تعداد دنبالکنندگان، تغییر الگوریتم نمایش محتوا و محدودکردن دسترسی به پستهای پرطرفدار را آزمودند، اما این اقدامات تأثیر قابلملاحظهای نداشت.
چالشهای بنیادین شبکههای اجتماعی
این مطالعه، فرضیه رایج مبنی بر نقش اصلی الگوریتمهای پلتفرمها در ایجاد محتوای افراطی را زیر سؤال میبرد، چرا که در این آزمایش هیچ الگوریتم تأثیرگذاری وجود نداشت. به گفته محققان، مشکل ممکن است به ساختار ذاتی شبکههای اجتماعی بازگردد که بر تعاملات احساسمحور استوار است.
یک شبیهسازی پلتفرم رسانههای اجتماعی مورد آزمایش قرار گرفت که شامل بیش از ۵۰۰ ربات با شخصیتهای مختلف بود
پیشینه تحقیقات مشابه
این نخستین بار نیست که از رباتهای هوش مصنوعی برای شبیهسازی رفتار کاربران انسانی استفاده میشود:
• در سال ۲۰۲۳ (۱۴۰۲)، تورنبرگ پژوهشی مشابه با حضور ۵۰۰ چتبات انجام داد که در محیطی شبیهسازیشده به بحث درباره اخبار میپرداختند. در آن مطالعه از ChatGPT-3.5 برای طراحی شخصیتها استفاده شد.
• شرکت فیسبوک نیز در سال ۲۰۲۰ آزمایشی مشابه را جهت بررسی محتوای مضر و توهینآمیز با استفاده از رباتهای هوش مصنوعی انجام داد.
این یافتهها نشان میدهد که حتی در غیاب الگوریتمهای تقویتکننده، تمایل به قطبیشدن و افراطگرایی ممکن است در ذات تعاملات رسانهای نهفته باشد.