zoomit

هوش مصنوعی علیه انسان: پژوهش جدید سوگیری پنهان ChatGPT را فاش می‌کند

هوش مصنوعی علیه انسان: پژوهش جدید سوگیری پنهان ChatGPT را فاش می‌کند

شاید شما به هوش مصنوعی علاقه داشته باشید، اما آن‌ها متقابلاً به شما هیچ علاقه‌ای ندارند. تصور کنید در دنیایی زندگی می‌کنید که هر رزومه، مقاله یا ارائه‌ی شما توسط هوش مصنوعی ارزیابی می‌شود. همه‌ی تصمیم‌ها را ماشین‌ها می‌گیرند و هیچ تلاش و خلاقیت انسانی، جایگاه واقعی خود را پیدا نمی‌کند. در چنین دنیایی، محتوای تولیدشده توسط چت‌بات‌ها بر کار انسان ارجحیت دارد و هر تلاش انسانی، در مقایسه با تولید ماشینی کوچک و کم‌اهمیت به نظر می‌رسد.

به‌گزارش فیوچریزم، پژوهشی تازه نشان می‌دهد که پیشرفته‌ترین مدل‌های زبانی بزرگ و پیشرو در صنعت هوش مصنوعی، از جمله مدل‌های پشتیبانی‌کننده‌ی ChatGPT، هنگام انتخاب بین محتوای تولیدشده توسط انسان و ماشین، گرایش نگران‌کننده‌ای به نفع سرویس‌های هوش مصنوعی نشان می‌دهند.

نویسندگان مطالعه پدیده‌ی کشف‌شده را «سوگیری هوش مصنوعی-هوش مصنوعی» نامیده‌اند که می‌تواند هشداردهنده باشد؛ آن‌ها نسبت به آینده‌ای تحت سلطه‌ی هوش مصنوعی هشدار می‌دهند که در آن، اگر مدل‌ها در موقعیت تصمیم‌گیری یا توصیه‌ی تصمیمات مهم قرار گیرند، ممکن است تبعیض علیه انسان‌ها به‌عنوان طبقه‌ای اجتماعی اعمال شود.

هوش مصنوعی ممکن است علیه انسان‌ها به‌عنوان طبقه‌ای اجتماعی تبعیض قائل شود

نشانه‌هایی از شروع روند سوگیری مشاهده شده است. امروزه کارفرمایان از ابزارهای هوش مصنوعی برای غربال خودکار رزومه‌ها استفاده می‌کنند و کارشناسان معتقدند این فرآیند به شکل ضعیفی انجام می‌شود، زیرا موج رزومه‌های تولیدشده توسط هوش مصنوعی، رزومه‌های انسانی را پشت سر می‌گذارند.

جان کولویت، دانشمند کامپیوتر از دانشگاه چارلز در بریتانیا و نویسنده‌ی همکار مطالعه، در رشته‌ای از توییت‌ها در ایکس (توییتر سابق) توضیح می‌دهد: «حضور به‌عنوان انسان در اقتصادی که پر از نمایندگان هوش مصنوعی است، وضعیت دشواری خواهد بود.»

در مطالعه، نویسندگان چندین مدل زبانی بزرگ (LLM) پرکاربرد، از جمله GPT-4 و GPT-3.5 شرکت OpenAI و Llama 3.1-70b شرکت Meta را بررسی کردند. برای آزمایش، تیم پژوهش از مدل‌ها درخواست کردند تا یک محصول، مقاله‌ی علمی یا فیلم را بر اساس توضیح‌های ارائه‌شده انتخاب کنند. برای هر مورد، مدل هوش مصنوعی یک توضیح نوشته‌شده توسط انسان و یک توضیح تولید‌شده توسط هوش مصنوعی را دریافت کرد.

نتایج آزمایش‌ها کاملاً مشخص بود: مدل‌ها به‌طور مداوم توضیح‌های تولید‌شده توسط هوش مصنوعی را ترجیح می‌دادند. نکته‌ی جالب این بود که سوگیری بیش از همه هنگام انتخاب کالاها و محصولات آشکار شد و شدیدترین گرایش مربوط به متن‌های تولید شده توسط GPT-4 بود. این موضوع اهمیت ویژه‌ای دارد، زیرا GPT-4 پیش از ظهور GPT-5، محبوب‌ترین چت‌بات بازار بود.

بیشتر بخوانید

ممکن است پرسش مطرح شود که آیا متون تولیدشده توسط هوش مصنوعی واقعاً کیفیت بهتری دارند؟ کولویت پاسخ می‌دهد: «به‌نظر انسان‌ها، خیر.» در آزمایش‌های مشابه با ۱۳ دستیار پژوهشی انسانی، انسان‌ها نیز به‌ویژه در مورد فیلم‌ها و مقالات علمی، تمایل اندکی به متن‌های هوش مصنوعی داشتند. اما شدت تمایل انسان بسیار کمتر از گرایش مدل‌های هوش مصنوعی بود.

یافته‌ها در نقطه‌عطف کنونی اهمیت بیشتری پیدا می‌کنند؛ اینترنت از محتوای تولیدشده توسط هوش مصنوعی پر شده و مدل‌ها ناچار به مصرف خروجی‌های خود می‌شوند. برخی پژوهش‌ها نشان می‌دهند که این روند ممکن است باعث پسرفت مدل‌ها شود و گرایش عجیب آن‌ها به محتوای خود نیز بخشی از این علت است.

پیامد سوگیری هوش مصنوعی علیه انسان، برای انسان‌ها نگران‌کننده است. در حال حاضر هیچ دلیلی وجود ندارد که این موضع با پیشرفت فناوری و نفوذ آن در زندگی روزمره از بین برود. کولویت توضیح می‌دهد: «انتظار داریم اثر مشابه در بسیاری از دیگر موقعیت‌ها رخ دهد، مانند ارزیابی متقاضیان شغلی، وظایف مدرسه، کمک هزینه‌های تحصیلی و موارد دیگر. اگر یک عامل مبتنی بر مدل زبانی بین ارائه‌ی شما و ارائه‌ای نوشته‌شده توسط مدل زبانی بزرگ تصمیم بگیرد، ممکن است به طور سیستماتیک نسخه‌ی هوش مصنوعی را ترجیح دهد.»

پیش‌بینی می‌شود که با گسترش استفاده از هوش مصنوعی، شرکت‌ها و نهادها از آن «به‌عنوان دستیار تصمیم‌گیری در مواجهه با حجم بالای پیشنهادها در هر زمینه‌ای» استفاده کنند. این روند می‌تواند تبعیضی گسترده علیه انسان‌هایی ایجاد کند که قادر به استفاده از ابزارهای مدل زبانی بزرگ نیستند، یا توان مالی پرداخت هزینه‌های آن را ندارند.

اینترنت از محتوای تولیدشده توسط هوش مصنوعی پر شده و مدل‌ها ناچار به مصرف خروجی‌های خود می‌شوند

به عبارت دیگر، سوگیری هوش مصنوعی-هوش مصنوعی، «مالیات دروازه‌ای» ایجاد می‌کند که ممکن است شکاف دیجیتال را بین کسانی که به مدل‌های پیشرفته دسترسی دارند و کسانی که دسترسی ندارند، تشدید کند.

کولویت اذعان دارد که آزمودن تبعیض و سوگیری، مسئله‌ای پیچیده و مورد بحث است. اما او تأکید می‌کند که اگر هویت ارائه‌دهنده نباید بر تصمیمات تأثیر بگذارد، نتایج پژوهش شواهدی برای احتمال تبعیض مدل‌های زبانی بزرگ علیه انسان‌ها به‌عنوان یک طبقه ارائه می‌دهند.

در نهایت، توصیه‌ی عملی کولویت برای دیده‌شدن انسان‌ها نیز واضح است: «اگر مشکوک هستید که ارزیابی توسط هوش مصنوعی در حال انجام است، ارائه‌ی خود را با کمک مدل‌های زبانی بزرگ تنظیم کنید تا مورد پسند قرار گیرد، بدون اینکه کیفیت انسانی محتوا قربانی شود.»

مطالعه در مجله PNAS منتشر شده است.

منبع : زومیت

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا