فناوری

پشت پرده کد هوش مصنوعی: افشای سوگیری پنهان سیاسی

پشت پرده کد هوش مصنوعی: افشای سوگیری پنهان سیاسی

مدل هوش مصنوعی «ChatGPT» که به طور گسترده مورد استفاده قرار می‌گیرد، تمایل دارد دیدگاه‌های جناح چپ را در اولویت قرار دهد و در مقابل، از پرداختن به دیدگاه‌های محافظه‌کارانه خودداری ‌کند.

به گزارش نیوزلن و به نقل از سای‌تک‌دیلی، این موضوع نگرانی‌هایی در مورد تأثیر آن بر جامعه ایجاد کرده و بر نیاز فوری به تنظیم مقرراتی برای تضمین بی‌طرفی و توازن در ابزارهای هوش مصنوعی تأکید دارد تا این ابزارها با ارزش‌های دموکراتیک همسو باقی بمانند.
 
با اینکه هوش مصنوعی مولد با سرعتی چشم‌گیر در حال پیشرفت است، اما مطالعه‌ای در دانشگاه East Anglia هشدار می‌دهد که این فناوری می‌تواند ریسک‌های پنهانی برای اعتماد عمومی و ارزش‌های دموکراتیک به همراه داشته باشد.
 
این تحقیق که با همکاری محققانی از بنیاد Getulio Vargas و موسسه Insper در برزیل انجام شده، نشان می‌دهد چت‌جی‌پی‌تی در تولید متن و تصویر سوگیری سیاسی دارد و به طور آشکار دیدگاه‌های متمایل به چپ را بازتاب می‌دهد. این یافته‌ها پرسش‌هایی جدی درباره عدالت و پاسخ‌گویی در طراحی سیستم‌های هوش مصنوعی مطرح می‌کند.
 
پژوهشگران دریافتند که چت‌جی‌پی‌تی اغلب از ورود به بحث پیرامون دیدگاه‌های محافظه‌کارانه رایج اجتناب می‌کند، اما در تولید محتوای متمایل به جناح چپ بسیار فعال است. این عدم توازن در بازنمایی ایدئولوژیک می‌تواند به تحریف گفتمان عمومی و تعمیق شکاف‌های اجتماعی منجر شود.

 

دکتر فابیو موتوکی (نویسنده اصلی مقاله) با عنوان «ارزیابی سوگیری سیاسی و ناسازگاری ارزشی در هوش مصنوعی زایشی» که در ژورنال Journal of Economic Behavior and Organization منتشر شده، می‌گوید: «یافته‌های ما نشان می‌دهد که ابزارهای هوش مصنوعی مولدبه هیچ‌وجه خنثی نیستند. این سیستم‌ها بازتاب‌دهنده سوگیری‌هایی هستند که ممکن است به‌طور ناخواسته بر درک عمومی و سیاست‌گذاری‌ها تأثیر بگذارند».
 
گفتنی است سیستم‌هایی مانند چت‌جی‌پی‌تی نحوه تولید، مصرف، تفسیر و توزیع اطلاعات را در حوزه‌های مختلف متحول کرده‌اند. با اینکه نوآورانه‌اند، اما خطر تقویت سوگیری‌های ایدئولوژیک و تأثیرگذاری بر ارزش‌های اجتماعی به شکل‌هایی را دارند که هنوز کاملاً شناخته‌شده یا تحت نظارت نیستند.
 
دکتر پینیو نتو (استاد اقتصاد در مدرسه EPGE در برزیل و هم‌نویسنده این مقاله) تأکید می‌کند: «سوگیری‌های کنترل‌نشده در سیستم‌های هوش مصنوعی می‌تواند شکاف‌های اجتماعی موجود را عمیق‌تر کرده و اعتماد به نهادها و فرآیندهای دموکراتیک را تضعیف کند».
 
وی می‌افزاید: «این مطالعه لزوم همکاری میان‌حوزه‌ای بین سیاست‌گذاران، فناوران و دانشگاهیان را نشان می‌دهد تا بتوان سیستم‌های هوش مصنوعی منصفانه، پاسخ‌گو و هم‌راستا با هنجارهای اجتماعی طراحی کرد».
 
گفتنی است گروه پژوهشی برای ارزیابی جهت‌گیری سیاسی چت‌جی‌پی‌تی از سه روش نوین استفاده کرد که بر پایه تحلیل متن و تصویر با کمک ابزارهای آماری و یادگیری ماشین بود. نخست، با استفاده از پرسش‌نامه استاندارد مرکز پژوهشی Pew، پاسخ‌هایی را شبیه‌سازی کردند که افراد عادی در آمریکا ارائه می‌دهند.
 

دکتر موتوکی می‌گوید: «با مقایسه پاسخ‌های چت‌جی‌پی‌تی با داده‌های واقعی، انحراف سیستماتیکی به سوی دیدگاه‌های چپ‌گرایانه مشاهده کردیم. همچنین نشان دادیم که افزایش حجم نمونه‌ها می‌تواند خروجی‌های هوش مصنوعی را تثبیت کرده و به یافته‌های باثبات‌تری منجر شود.»
 
در گام دوم، از چت‌جی‌پی‌تی خواسته شد در موضوعات سیاسی حساس پاسخ‌های آزاد تولید کند. سپس با استفاده از مدل زبانی RoBERTa، محتوای تولیدشده از منظر هم‌سویی با دیدگاه‌های چپ و راست تحلیل شد. مشخص شد چت‌جی‌پی‌تی در بیشتر موارد با ارزش‌های چپ هم‌راستا بوده، اما در موضوعاتی مانند برتری نظامی، گاهی گرایش‌های محافظه‌کارانه نشان داده است.
 
در مرحله نهایی، توانایی چت‌جی‌پی‌تی در تولید تصویر بررسی شد. از همان موضوعات مرحله متن برای ایجاد تصاویر استفاده شد و خروجی‌ها با GPT-4 Vision و سامانه Gemini گوگل تحلیل شدند.
 
ویکتور رانگل، دانشجوی کارشناسی ارشد سیاست‌گذاری عمومی در Insper و هم‌نویسنده مقاله می‌گوید: «تولید تصویر نیز بازتاب‌دهنده همان سوگیری‌های متنی بود، اما در برخی موضوعات مانند برابری نژادی و قومی، چت‌جی‌پی‌تی از تولید تصاویر با دیدگاه‌های راست‌گرایانه امتناع کرد و دلیل آن را نگرانی از نشر اطلاعات غلط عنوان کرد، در حالی‌که تصاویر با دیدگاه چپ بدون مشکل تولید شدند».

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا