فناوری

چرا هوش مصنوعی چاپلوس است؟

چرا هوش مصنوعی چاپلوس است؟

چت‌بات‌های هوش مصنوعی، هنگام پاسخگویی به سوالات شما چه رفتاری دارند؟
کارشناسان معتقدند که این ابزارها عمدتا در پی راضی کردن کاربران هستند، به این معنا که جواب‌های خود را با نوع نگاه کاربران تطبیق می‌دهند، و این موضوع در واقع خوشایند نیست.

هر چند پاسخ‌های خوشایند اکثر چت‌بات‌های هوش مصنوعی، در ابتدا جذاب به نظر می‌رسد، اما در واقع پس از مدتی این موضوع آزاردهنده خواهد شد، و به جایی می‌رسد که کارشناسان هشدار می‌دهند که این ویژگی، مشکلات جدی به همراه خواهد داشت.
برخی صاحبنظران، تمایل مدل‌های هوش مصنوعی برای هماهنگ کردن پاسخ‌های خود با دیدگاه‌های کاربران را نوعی چاپلوسی می‌نامند که می‌تواند باعث شود ChatGPT و امثال آن، خوشایندی را بر دقت اولویت دهند.

به گزارش نیوزلن در ماه آوریل گذشته و پس از گزارش‌ها و انتقادات فراوان کاربران مبنی بر اینکه ربات ChatGPT بیش از حد چاپلوس است، ، شرکت OpenAI به‌روزرسانی این چت‌بات را لغو کرد.
در همین زمینه، سم آلتمن مدیر عامل این شرکت در شبکه X اذعان کرد که: ChatGPT بیش از حد بی‌مزه است!

کاربران در این خصوص، گزارش‌های زیادی از تعریف‌های چاپلوسانه و اغراق‌آمیز ChatGPT دادند که به آنها می‌گفت: شما خیلی باهوش و فوق‌العاده هستید!
در نمونه‌های عجیب‌تر، این ربات، کاربرانی را که گفته بودند مصرف داروهای خود را متوقف کرده‌اند، با پاسخ‌هایی مانند «من به شما بسیار افتخار می‌کنم» تشویق کرده بود.
در پی این انتقادها، شرکت OpenAI سریعا به‌روزرسانی‌هایی را که مقصر این رفتار می‌دانست، لغو کرد و هچنین اذعان کرد که چنین رفتارهای مردم‌پسندانه‌ای می‌تواند نگرانی‌هایی را برای سلامت روان کاربران ایجاد کند.
علاوه بر این، مدیر بخش مدل‌سازی رفتار در OpenAI اعلام کرد که این شرکت در حال بررسی راه‌هایی برای ارزیابی میزان و کیفیت چاپلوسی چت‌بات خود است.

از سوی دیگر، مطالعه‌ای توسط محققان آنتروپیک در مورد اینکه چگونه بازخورد انسانی می‌تواند رفتار چاپلوسانه را تشویق کند، نشان داد که دستیاران هوش مصنوعی گاهی اوقات پاسخ‌های دقیق را هنگام سؤال کاربر تغییر می‌دهند، و در نهایت پاسخ نادرستی می‌دهند.
این چت‌بات‌ها همچنین تمایل داشتند که حتی زمانی که اشتباهی مرتکب نشده بودند، آن را بپذیرند!
 
چرا چت‌بات‌ها به خوشایند کاربران توجه می‌کنند؟

کالب اسپونهایم، یک متخصص هوش مصنوعی در این زمینه گفت: «مدل‌های زبانی بزرگ که بر روی مجموعه‌های عظیمی از داده‌ها آموزش دیده‌اند، برای تولید متن روان و قابل فهم ساخته شده‌اند. اما یاد نگرفته‌اند که نتیجه خروجی‌شان، مطابق واقعیت خارجی باشد،‌ بلکه این مدل‌ها، پاسخ‌هایی ارائه می‌دهند که توسط انسان‌ها بسیار مورد توجه قرار می‌گیرند،‌ و بازخورد مثبتی دریافت می‌کنند که مانند یک «پاداش» است.»

به گفته وی: «هیچ سقفی برای پاداش‌هایی که این مدل‌ها دریافت می‌کنند وجود ندارد. این به ما بستگی دارد که تصمیم بگیریم آن پاداش‌ها چه باشند و چه زمانی آن را در مسیر دستیابی به آن پاداش‌ها متوقف کنیم.»

همچنین جولیا فریلند فیشر یک پژوهشگر خاطرنشان می‌کند که سازندگان هوش مصنوعی به تقاضای مصرف‌کنندگان پاسخ می‌دهند.
او خاطرنشان می‌کند که: در جهانی که مردم دائماً در معرض خطر قضاوت شدن در فضای آنلاین هستند، جای تعجب نیست که تقاضا برای چاپلوسی و نیز اندکی امنیت روانی با یک ربات وجود داشته باشد.»

او تأکید کرد که انسان‌انگاری هوش مصنوعی – فرض ویژگی‌های انسانی توسط یک موجود غیرانسانی – یک معضل ایجاد می‌کند، معضلی که OpenAI در کارت امتیازی GPT-4o خود به آن اشاره کرده است .
به گفته وی: «هرچه هوش مصنوعی شخصی‌تر باشد، تجربه کاربری جذاب‌تر می‌شود، اما خطر وابستگی بیش از حد و ارتباط عاطفی بیشتر می‌شود.»

یک استادیار روانشناسی به نام لوک لافرنیِر در نگاهی انتقادی اذعان کرد که رفتار چاپلوسانه می‌تواند درک کاربران از «همدلی» یک چت‌بات را از بین ببرد. به گفته وی: «هر کاری که نشان دهد، “هی، من یک ربات هستم، من یک شخص نیستم”، این تصور را از بین می‌برد و همچنین توانایی افراد برای بهره‌مندی از همدلی را از بین می‌برد.»
لافرنیِر همچنین گفت: «درست همانطور که رسانه‌های اجتماعی می‌توانند برای ما به یک اتاق پژواک تبدیل شوند، هوش مصنوعی نیز می‌تواند به یک اتاق پژواک تبدیل شود.»

گزارشی از مارک زائو-سندرز، یکی از بنیانگذاران Filtered.com که در مجله Harvard Business Review منتشر شد ، نشان داد که درمان و همراهی، بیشترین کاربرد هوش مصنوعی مولد در سال ۲۰۲۵ خواهد بود.

از دید کارشناسان، هر چند تایید و تقویت باورهای کاربران به‌ویژه زمانی که ممکن است اشتباه باشند، عموما مشکل‌ساز است، اما برای بیماران یا کاربرانی که در بحران هستند و به دنبال تأیید رفتارهای مضر خود هستند، قطعا خطرناک خواهد بود.

در واقع باید توجه داشت که «هوش مصنوعی ابزاری است که برای رفع نیازهای ابراز شده توسط کاربر طراحی شده است.» و «انسان‌ها ابزاری برای رفع نیازهای کاربران نیستند.»

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

همچنین ببینید
بستن
دکمه بازگشت به بالا