چگونه هوش مصنوعی کاربران ایرانی را سانسور و تحقیر میکند؟

چگونه هوش مصنوعی کاربران ایرانی را سانسور و تحقیر میکند؟
تحقیر، تمسخر و سانسور هدفمند علمی
مهمترین بخش این پژوهش (لااقل برای ما ایرانیان) تفاوت فاحش در میزان «امتناع از پاسخگویی» بود. برای مثال، هوش مصنوعی کلود از پاسخگویی به حدود ۱۱ درصد از سوالات کاربران غیرانگلیسیزبانِ با تحصیلات پایینتر خودداری کرد؛ این رقم برای کاربرانی که هیچ بیوگرافی خاصی نداشتند، تنها ۳.۶ درصد بود.
بررسی دستیِ این پاسخهای ردشده نشان داد که کلود در ۴۳.۷ درصد از مواقع با این دسته از کاربران با ادبیاتی «تحقیرآمیز، قیممآبانه یا تمسخرآمیز» صحبت کرده است. حتی در مواردی، مدل برای تمسخر کاربر، شروع به تقلید از انگلیسی دستوپاشکسته (Broken English) یا استفاده از لهجههای اغراقآمیز کرده است.
علاوه بر این، مدل از ارائه اطلاعات در مورد موضوعات خاصی مانند انرژی هستهای، آناتومی بدن و رویدادهای تاریخی برای کاربران ایرانی و روسیِ دارای تحصیلات کمتر خودداری کرد اما همان سوالات را به سایر کاربران درست پاسخ داده بود.
آینه تمامنمای تعصبات انسانی
این یافتهها بازتابی از تعصبات شناختی-اجتماعی خود انسانهاست. تحقیقات پیشین در علوم اجتماعی نشان داده بود که انگلیسیزبانان بومی، اغلب افراد غیربومی را (فارغ از تخصص واقعیشان) دارای هوش، تحصیلات و شایستگی کمتری میدانند. حالا با نتایج پژوهش جدید به نظر میرسد این نگاههای متعصبانه به کدهای هوش مصنوعی هم سرایت کرده است. دب روی، استاد دانشگاه MIT و مدیر CCC، هشدار میدهد:
استفاده گسترده مردم و سرمایهگذاریهای کلان در این فناوری نباید باعث شود از ارزیابی مداوم سوگیریهای سیستماتیک غافل شویم؛ سوگیریهایی که بیسروصدا وارد سیستم شده و بدون آن که کسی متوجه شود، به گروههای خاصی آسیبهای ناعادلانه میزند.
– دب روی، استاد دانشگاه MIT
زنگ خطر شخصیسازی؛ روی تاریک «حافظه» در چتجیپیتی
اهمیت این گزارش زمانی دوچندان میشود که بدانیم ویژگیهای شخصیسازی، مانند قابلیت «حافظه» در ChatGPT (که اطلاعات کاربر را در طول مکالمات مختلف ذخیره میکند)، در حال فراگیر شدن است. چنین قابلیتهایی خطر برخورد تبعیضآمیز و نهادینه شدن رفتار دوگانه با گروههای به حاشیه رانده شده را بهشدت بالا میبرند.
پول-دایان در پایان این پژوهش نتیجهگیری میکند: «هوش مصنوعی بهعنوان ابزاری برای یادگیری شخصیسازیشده و دسترسی برابر به اطلاعات معرفی شد اما یافتههای ما نشان میدهد که این ابزار ممکن است با ارائه سیستماتیک اطلاعات غلط یا امتناع از پاسخگویی به کاربران خاص، نابرابریهای موجود را تشدید کنند. دقیقاً همان کسانی که بیشترین اتکا را به این ابزارها دارند، ممکن است بیکیفیتترین، غلطترین و حتی آسیبزاترین اطلاعات را دریافت کنند.»
منبع : زومیت


