هوش مصنوعی علیه انسان: پژوهش جدید سوگیری پنهان ChatGPT را فاش میکند

هوش مصنوعی علیه انسان: پژوهش جدید سوگیری پنهان ChatGPT را فاش میکند
شاید شما به هوش مصنوعی علاقه داشته باشید، اما آنها متقابلاً به شما هیچ علاقهای ندارند. تصور کنید در دنیایی زندگی میکنید که هر رزومه، مقاله یا ارائهی شما توسط هوش مصنوعی ارزیابی میشود. همهی تصمیمها را ماشینها میگیرند و هیچ تلاش و خلاقیت انسانی، جایگاه واقعی خود را پیدا نمیکند. در چنین دنیایی، محتوای تولیدشده توسط چتباتها بر کار انسان ارجحیت دارد و هر تلاش انسانی، در مقایسه با تولید ماشینی کوچک و کماهمیت به نظر میرسد.
بهگزارش فیوچریزم، پژوهشی تازه نشان میدهد که پیشرفتهترین مدلهای زبانی بزرگ و پیشرو در صنعت هوش مصنوعی، از جمله مدلهای پشتیبانیکنندهی ChatGPT، هنگام انتخاب بین محتوای تولیدشده توسط انسان و ماشین، گرایش نگرانکنندهای به نفع سرویسهای هوش مصنوعی نشان میدهند.
نویسندگان مطالعه پدیدهی کشفشده را «سوگیری هوش مصنوعی-هوش مصنوعی» نامیدهاند که میتواند هشداردهنده باشد؛ آنها نسبت به آیندهای تحت سلطهی هوش مصنوعی هشدار میدهند که در آن، اگر مدلها در موقعیت تصمیمگیری یا توصیهی تصمیمات مهم قرار گیرند، ممکن است تبعیض علیه انسانها بهعنوان طبقهای اجتماعی اعمال شود.
هوش مصنوعی ممکن است علیه انسانها بهعنوان طبقهای اجتماعی تبعیض قائل شود
نشانههایی از شروع روند سوگیری مشاهده شده است. امروزه کارفرمایان از ابزارهای هوش مصنوعی برای غربال خودکار رزومهها استفاده میکنند و کارشناسان معتقدند این فرآیند به شکل ضعیفی انجام میشود، زیرا موج رزومههای تولیدشده توسط هوش مصنوعی، رزومههای انسانی را پشت سر میگذارند.
جان کولویت، دانشمند کامپیوتر از دانشگاه چارلز در بریتانیا و نویسندهی همکار مطالعه، در رشتهای از توییتها در ایکس (توییتر سابق) توضیح میدهد: «حضور بهعنوان انسان در اقتصادی که پر از نمایندگان هوش مصنوعی است، وضعیت دشواری خواهد بود.»
در مطالعه، نویسندگان چندین مدل زبانی بزرگ (LLM) پرکاربرد، از جمله GPT-4 و GPT-3.5 شرکت OpenAI و Llama 3.1-70b شرکت Meta را بررسی کردند. برای آزمایش، تیم پژوهش از مدلها درخواست کردند تا یک محصول، مقالهی علمی یا فیلم را بر اساس توضیحهای ارائهشده انتخاب کنند. برای هر مورد، مدل هوش مصنوعی یک توضیح نوشتهشده توسط انسان و یک توضیح تولیدشده توسط هوش مصنوعی را دریافت کرد.
نتایج آزمایشها کاملاً مشخص بود: مدلها بهطور مداوم توضیحهای تولیدشده توسط هوش مصنوعی را ترجیح میدادند. نکتهی جالب این بود که سوگیری بیش از همه هنگام انتخاب کالاها و محصولات آشکار شد و شدیدترین گرایش مربوط به متنهای تولید شده توسط GPT-4 بود. این موضوع اهمیت ویژهای دارد، زیرا GPT-4 پیش از ظهور GPT-5، محبوبترین چتبات بازار بود.
بیشتر بخوانید
ممکن است پرسش مطرح شود که آیا متون تولیدشده توسط هوش مصنوعی واقعاً کیفیت بهتری دارند؟ کولویت پاسخ میدهد: «بهنظر انسانها، خیر.» در آزمایشهای مشابه با ۱۳ دستیار پژوهشی انسانی، انسانها نیز بهویژه در مورد فیلمها و مقالات علمی، تمایل اندکی به متنهای هوش مصنوعی داشتند. اما شدت تمایل انسان بسیار کمتر از گرایش مدلهای هوش مصنوعی بود.
یافتهها در نقطهعطف کنونی اهمیت بیشتری پیدا میکنند؛ اینترنت از محتوای تولیدشده توسط هوش مصنوعی پر شده و مدلها ناچار به مصرف خروجیهای خود میشوند. برخی پژوهشها نشان میدهند که این روند ممکن است باعث پسرفت مدلها شود و گرایش عجیب آنها به محتوای خود نیز بخشی از این علت است.
پیامد سوگیری هوش مصنوعی علیه انسان، برای انسانها نگرانکننده است. در حال حاضر هیچ دلیلی وجود ندارد که این موضع با پیشرفت فناوری و نفوذ آن در زندگی روزمره از بین برود. کولویت توضیح میدهد: «انتظار داریم اثر مشابه در بسیاری از دیگر موقعیتها رخ دهد، مانند ارزیابی متقاضیان شغلی، وظایف مدرسه، کمک هزینههای تحصیلی و موارد دیگر. اگر یک عامل مبتنی بر مدل زبانی بین ارائهی شما و ارائهای نوشتهشده توسط مدل زبانی بزرگ تصمیم بگیرد، ممکن است به طور سیستماتیک نسخهی هوش مصنوعی را ترجیح دهد.»
پیشبینی میشود که با گسترش استفاده از هوش مصنوعی، شرکتها و نهادها از آن «بهعنوان دستیار تصمیمگیری در مواجهه با حجم بالای پیشنهادها در هر زمینهای» استفاده کنند. این روند میتواند تبعیضی گسترده علیه انسانهایی ایجاد کند که قادر به استفاده از ابزارهای مدل زبانی بزرگ نیستند، یا توان مالی پرداخت هزینههای آن را ندارند.
اینترنت از محتوای تولیدشده توسط هوش مصنوعی پر شده و مدلها ناچار به مصرف خروجیهای خود میشوند
به عبارت دیگر، سوگیری هوش مصنوعی-هوش مصنوعی، «مالیات دروازهای» ایجاد میکند که ممکن است شکاف دیجیتال را بین کسانی که به مدلهای پیشرفته دسترسی دارند و کسانی که دسترسی ندارند، تشدید کند.
کولویت اذعان دارد که آزمودن تبعیض و سوگیری، مسئلهای پیچیده و مورد بحث است. اما او تأکید میکند که اگر هویت ارائهدهنده نباید بر تصمیمات تأثیر بگذارد، نتایج پژوهش شواهدی برای احتمال تبعیض مدلهای زبانی بزرگ علیه انسانها بهعنوان یک طبقه ارائه میدهند.
در نهایت، توصیهی عملی کولویت برای دیدهشدن انسانها نیز واضح است: «اگر مشکوک هستید که ارزیابی توسط هوش مصنوعی در حال انجام است، ارائهی خود را با کمک مدلهای زبانی بزرگ تنظیم کنید تا مورد پسند قرار گیرد، بدون اینکه کیفیت انسانی محتوا قربانی شود.»
مطالعه در مجله PNAS منتشر شده است.
منبع : زومیت