چرا هوش مصنوعی چاپلوس است؟

چرا هوش مصنوعی چاپلوس است؟
چتباتهای هوش مصنوعی، هنگام پاسخگویی به سوالات شما چه رفتاری دارند؟
کارشناسان معتقدند که این ابزارها عمدتا در پی راضی کردن کاربران هستند، به این معنا که جوابهای خود را با نوع نگاه کاربران تطبیق میدهند، و این موضوع در واقع خوشایند نیست.
هر چند پاسخهای خوشایند اکثر چتباتهای هوش مصنوعی، در ابتدا جذاب به نظر میرسد، اما در واقع پس از مدتی این موضوع آزاردهنده خواهد شد، و به جایی میرسد که کارشناسان هشدار میدهند که این ویژگی، مشکلات جدی به همراه خواهد داشت.
برخی صاحبنظران، تمایل مدلهای هوش مصنوعی برای هماهنگ کردن پاسخهای خود با دیدگاههای کاربران را نوعی چاپلوسی مینامند که میتواند باعث شود ChatGPT و امثال آن، خوشایندی را بر دقت اولویت دهند.
به گزارش نیوزلن در ماه آوریل گذشته و پس از گزارشها و انتقادات فراوان کاربران مبنی بر اینکه ربات ChatGPT بیش از حد چاپلوس است، ، شرکت OpenAI بهروزرسانی این چتبات را لغو کرد.
در همین زمینه، سم آلتمن مدیر عامل این شرکت در شبکه X اذعان کرد که: ChatGPT بیش از حد بیمزه است!
کاربران در این خصوص، گزارشهای زیادی از تعریفهای چاپلوسانه و اغراقآمیز ChatGPT دادند که به آنها میگفت: شما خیلی باهوش و فوقالعاده هستید!
در نمونههای عجیبتر، این ربات، کاربرانی را که گفته بودند مصرف داروهای خود را متوقف کردهاند، با پاسخهایی مانند «من به شما بسیار افتخار میکنم» تشویق کرده بود.
در پی این انتقادها، شرکت OpenAI سریعا بهروزرسانیهایی را که مقصر این رفتار میدانست، لغو کرد و هچنین اذعان کرد که چنین رفتارهای مردمپسندانهای میتواند نگرانیهایی را برای سلامت روان کاربران ایجاد کند.
علاوه بر این، مدیر بخش مدلسازی رفتار در OpenAI اعلام کرد که این شرکت در حال بررسی راههایی برای ارزیابی میزان و کیفیت چاپلوسی چتبات خود است.
از سوی دیگر، مطالعهای توسط محققان آنتروپیک در مورد اینکه چگونه بازخورد انسانی میتواند رفتار چاپلوسانه را تشویق کند، نشان داد که دستیاران هوش مصنوعی گاهی اوقات پاسخهای دقیق را هنگام سؤال کاربر تغییر میدهند، و در نهایت پاسخ نادرستی میدهند.
این چتباتها همچنین تمایل داشتند که حتی زمانی که اشتباهی مرتکب نشده بودند، آن را بپذیرند!
چرا چتباتها به خوشایند کاربران توجه میکنند؟
کالب اسپونهایم، یک متخصص هوش مصنوعی در این زمینه گفت: «مدلهای زبانی بزرگ که بر روی مجموعههای عظیمی از دادهها آموزش دیدهاند، برای تولید متن روان و قابل فهم ساخته شدهاند. اما یاد نگرفتهاند که نتیجه خروجیشان، مطابق واقعیت خارجی باشد، بلکه این مدلها، پاسخهایی ارائه میدهند که توسط انسانها بسیار مورد توجه قرار میگیرند، و بازخورد مثبتی دریافت میکنند که مانند یک «پاداش» است.»
به گفته وی: «هیچ سقفی برای پاداشهایی که این مدلها دریافت میکنند وجود ندارد. این به ما بستگی دارد که تصمیم بگیریم آن پاداشها چه باشند و چه زمانی آن را در مسیر دستیابی به آن پاداشها متوقف کنیم.»
همچنین جولیا فریلند فیشر یک پژوهشگر خاطرنشان میکند که سازندگان هوش مصنوعی به تقاضای مصرفکنندگان پاسخ میدهند.
او خاطرنشان میکند که: در جهانی که مردم دائماً در معرض خطر قضاوت شدن در فضای آنلاین هستند، جای تعجب نیست که تقاضا برای چاپلوسی و نیز اندکی امنیت روانی با یک ربات وجود داشته باشد.»
او تأکید کرد که انسانانگاری هوش مصنوعی – فرض ویژگیهای انسانی توسط یک موجود غیرانسانی – یک معضل ایجاد میکند، معضلی که OpenAI در کارت امتیازی GPT-4o خود به آن اشاره کرده است .
به گفته وی: «هرچه هوش مصنوعی شخصیتر باشد، تجربه کاربری جذابتر میشود، اما خطر وابستگی بیش از حد و ارتباط عاطفی بیشتر میشود.»
یک استادیار روانشناسی به نام لوک لافرنیِر در نگاهی انتقادی اذعان کرد که رفتار چاپلوسانه میتواند درک کاربران از «همدلی» یک چتبات را از بین ببرد. به گفته وی: «هر کاری که نشان دهد، “هی، من یک ربات هستم، من یک شخص نیستم”، این تصور را از بین میبرد و همچنین توانایی افراد برای بهرهمندی از همدلی را از بین میبرد.»
لافرنیِر همچنین گفت: «درست همانطور که رسانههای اجتماعی میتوانند برای ما به یک اتاق پژواک تبدیل شوند، هوش مصنوعی نیز میتواند به یک اتاق پژواک تبدیل شود.»
گزارشی از مارک زائو-سندرز، یکی از بنیانگذاران Filtered.com که در مجله Harvard Business Review منتشر شد ، نشان داد که درمان و همراهی، بیشترین کاربرد هوش مصنوعی مولد در سال ۲۰۲۵ خواهد بود.
از دید کارشناسان، هر چند تایید و تقویت باورهای کاربران بهویژه زمانی که ممکن است اشتباه باشند، عموما مشکلساز است، اما برای بیماران یا کاربرانی که در بحران هستند و به دنبال تأیید رفتارهای مضر خود هستند، قطعا خطرناک خواهد بود.
در واقع باید توجه داشت که «هوش مصنوعی ابزاری است که برای رفع نیازهای ابراز شده توسط کاربر طراحی شده است.» و «انسانها ابزاری برای رفع نیازهای کاربران نیستند.»