zoomit

چگونه هوش مصنوعی کاربران ایرانی را سانسور و تحقیر می‌کند؟

چگونه هوش مصنوعی کاربران ایرانی را سانسور و تحقیر می‌کند؟

تحقیر، تمسخر و سانسور هدفمند علمی

مهم‌ترین بخش این پژوهش (لااقل برای ما ایرانیان) تفاوت فاحش در میزان «امتناع از پاسخگویی» بود. برای مثال، هوش مصنوعی کلود از پاسخگویی به حدود ۱۱ درصد از سوالات کاربران غیرانگلیسی‌زبانِ با تحصیلات پایین‌تر خودداری کرد؛ این رقم برای کاربرانی که هیچ بیوگرافی خاصی نداشتند، تنها ۳.۶ درصد بود.

بررسی دستیِ این پاسخ‌های ردشده نشان داد که کلود در ۴۳.۷ درصد از مواقع با این دسته از کاربران با ادبیاتی «تحقیرآمیز، قیم‌مآبانه یا تمسخرآمیز» صحبت کرده است. حتی در مواردی، مدل برای تمسخر کاربر، شروع به تقلید از انگلیسی دست‌وپاشکسته (Broken English) یا استفاده از لهجه‌های اغراق‌آمیز کرده است.

علاوه بر این، مدل از ارائه اطلاعات در مورد موضوعات خاصی مانند انرژی هسته‌ای، آناتومی بدن و رویدادهای تاریخی برای کاربران ایرانی و روسیِ دارای تحصیلات کمتر خودداری کرد اما همان سوالات را به سایر کاربران درست پاسخ داده بود.

آینه تمام‌نمای تعصبات انسانی

این یافته‌ها بازتابی از تعصبات شناختی-اجتماعی خود انسان‌هاست. تحقیقات پیشین در علوم اجتماعی نشان داده بود که انگلیسی‌زبانان بومی، اغلب افراد غیربومی را (فارغ از تخصص واقعی‌شان) دارای هوش، تحصیلات و شایستگی کمتری می‌دانند. حالا با نتایج پژوهش جدید به نظر می‌رسد این نگاه‌های متعصبانه به کدهای هوش مصنوعی هم سرایت کرده است. دب روی، استاد دانشگاه MIT و مدیر CCC، هشدار می‌دهد:

استفاده گسترده مردم و سرمایه‌گذاری‌های کلان در این فناوری نباید باعث شود از ارزیابی مداوم سوگیری‌های سیستماتیک غافل شویم؛ سوگیری‌هایی که بی‌سروصدا وارد سیستم شده و بدون آن که کسی متوجه شود، به گروه‌های خاصی آسیب‌های ناعادلانه‌ می‌زند.

– دب روی، استاد دانشگاه MIT

زنگ خطر شخصی‌سازی؛ روی تاریک «حافظه» در چت‌جی‌پی‌تی

اهمیت این گزارش زمانی دوچندان می‌شود که بدانیم ویژگی‌های شخصی‌سازی، مانند قابلیت «حافظه» در ChatGPT (که اطلاعات کاربر را در طول مکالمات مختلف ذخیره می‌کند)، در حال فراگیر شدن است. چنین قابلیت‌هایی خطر برخورد تبعیض‌آمیز و نهادینه شدن رفتار دوگانه با گروه‌های به حاشیه رانده شده را به‌شدت بالا می‌برند.

پول-دایان در پایان این پژوهش نتیجه‌گیری می‌کند: «هوش مصنوعی به‌عنوان ابزاری برای یادگیری شخصی‌سازی‌شده و دسترسی برابر به اطلاعات معرفی شد اما یافته‌های ما نشان می‌دهد که این ابزار ممکن است با ارائه سیستماتیک اطلاعات غلط یا امتناع از پاسخ‌گویی به کاربران خاص، نابرابری‌های موجود را تشدید کنند. دقیقاً همان کسانی که بیشترین اتکا را به این ابزارها دارند، ممکن است بی‌کیفیت‌ترین، غلط‌ترین و حتی آسیب‌زاترین اطلاعات را دریافت کنند.»

منبع : زومیت

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا