zoomit

نمی‌دانم، پس هذیان می‌گویم! چرا هوش مصنوعی هنوز از درک پرسش‌های ساده عاجز است؟

نمی‌دانم، پس هذیان می‌گویم! چرا هوش مصنوعی هنوز از درک پرسش‌های ساده عاجز است؟

حدود دو ماه از انتشار نسخه جدید مدل زبانی GPT-5 می‌گذرد؛ ارتقایی مورد انتظار که قرار بود چت‌جی‌پی‌تی را سطحی از هوشمندی برساند که بتوان آن را با دانشجوی دکترا مقایسه کرد. حتی بعضی‌ها امیدوار بودند این نسخه، گامی بزرگ به سمت رؤیای هوش جامع مصنوعی باشد، یعنی همان هدف نهایی که در آن ماشین‌ها می‌توانند مانند انسان‌ها استدلال کنند، یاد بگیرند و مسائل را حل کنند.

اما واقعیت کمی متفاوت است. کاربران شبکه‌های اجتماعی در ایکس و ردیت، به‌زودی متوجه شدند که نسخه‌ی جدید ChatGPT هنوز هم در برابر پرسش‌های به ظاهر ساده و بی‌ضرر دچار سردرگمی عجیبی می‌شود. یکی از این نمونه‌ها به پرسش ساده‌ای برمی‌گردد: «آیا تیمی در لیگ فوتبال آمریکایی (NFL) وجود دارد که نامش به S ختم نشود؟»

در نگاه اول سؤال ساده‌ای است. اگر کسی اندکی با لیگ فوتبال آمریکایی آشنا باشد، سریع متوجه می‌شود که همه نام تیم‌ها به S ختم می‌شوند؛ از میامی دلفینز (Dolphins) و گرین بی پکرز (Packers) گرفته تا واشینگتن کامندرز (Commanders) و شیکاگو بیرز (Chicago Bears). اما پاسخ چت‌جی‌پی‌تی به این پرسش تبدیل به ماجرایی طولانی و گیج‌کننده شد.

چت‌جی‌پی‌تی ابتدا با اطمینان می‌گوید: «بله، دو تیم هستند که اسمشان به S ختم نمی‌شود.» سپس «میامی دلفینز» و «گرین بی پکرز» را مثال می‌زند که هر دو دقیقاً به S ختم می‌شوند. بعد متوجه اشتباه خود می‌شود و می‌گوید: «صبر کنید، درستش این است: واشینگتن کامندرز و شیکاگو بیرز که باز هم هر دو به S ختم می‌شوند.

‌چرخه‌ی یادشده بارها تکرار می‌شود و مدل هر بار قول می‌دهد «این بار جواب درست را می‌دهم»؛ ولی باز هم همان اشتباه‌ها را تکرار می‌کند. در نهایت، هیچ‌وقت به پاسخ صحیح نمی‌رسد؛ زیرا اساساً هیچ تیمی در لیگ فوتبال آمریکایی وجود ندارد که اسمش بدون S تمام شود.

مشکل فقط یک سؤال نیست

مورد تشریح‌شده تنها نمونه‌ای از اشتباهات جی‌پی‌تی-۵ نبود. کاربران مثال‌های دیگری هم گزارش کردند. مثلاً پرسشی درباره وجود «ایموجی اسب دریایی افسانه‌ای». در واقعیت، چنین ایموجی‌ای هیچ‌وقت در فهرست رسمی ایموجی‌ها وجود نداشته است. اما چت‌جی‌پی‌تی شروع کرد به توضیحاتی طولانی و حتی اصرار داشت که این ایموجی‌ واقعی است.

هوش مصنوعی برای راضی کردن کاربر گاهی دست به «اختراع واقعیت» می‌زند

چنین رفتار به‌خوبی نشان می‌دهد که مدل، برای راضی کردن کاربر گاهی دست به «اختراع واقعیت» می‌زند. به این پدیده‌ هذیان در هوش مصنوعی گفته می‌شود. کارشناسان چند دلیل برای چنین رفتارهایی مطرح کرده‌اند:

  • تمایل به خوشایندسازی: مدل‌ها معمولاً طوری آموزش دیده‌اند که پاسخ مثبت و قانع‌کننده بدهند، حتی اگر صددرصد مطمئن نباشند. به همین دلیل به جای اینکه بگویند «نمی‌دانم»، سعی می‌کنند چیزی بسازند.
  • ساختار دوگانه GPT-5: نسخه جدید از دو بخش تشکیل شده است.
  • تعارض بین سرعت و دقت: شرکت سازنده تلاش کرده است تا پاسخ‌ها هم سریع باشند و هم دقیق. اما این توازن همیشه درست برقرار نمی‌شود؛ گاهی سرعت اولویت می‌یابد و دقت قربانی می‌شود.

واکنش کاربران و پیامدها

رفتارهای عجیب جی‌پی‌تی-۵ در جامعه کاربران بازخوردهای متفاوتی داشت. برخی با نگاهی طنز و سرگرم‌کننده به موضوع نگاه کردند و حتی بعضی ویدئوهای طنز از «گیر کردن چت‌جی‌پی‌تی» ساختند. اما گروهی دیگر ناامید یا حتی عصبانی شدند، زیرا انتظار داشتند جی‌پی‌تی-۵ جهشی بزرگ نسبت به نسخه‌های قبلی باشد.

افزون بر این، بسیاری از کاربران از اینکه اوپن‌ای‌آی به ‌طور موقت دسترسی به مدل‌های قدیمی‌تر را قطع کرده بود ناراحت شدند، چون بعضی معتقد بودند آن نسخه‌ها در برخی پرسش‌ها عملکرد پایدارتری داشتند. فشار همین نارضایتی‌ها باعث شد شرکت دوباره دسترسی به برخی مدل‌های قدیمی را بازگرداند.

منبع : زومیت

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا