نمیدانم، پس هذیان میگویم! چرا هوش مصنوعی هنوز از درک پرسشهای ساده عاجز است؟
نمیدانم، پس هذیان میگویم! چرا هوش مصنوعی هنوز از درک پرسشهای ساده عاجز است؟
حدود دو ماه از انتشار نسخه جدید مدل زبانی GPT-5 میگذرد؛ ارتقایی مورد انتظار که قرار بود چتجیپیتی را سطحی از هوشمندی برساند که بتوان آن را با دانشجوی دکترا مقایسه کرد. حتی بعضیها امیدوار بودند این نسخه، گامی بزرگ به سمت رؤیای هوش جامع مصنوعی باشد، یعنی همان هدف نهایی که در آن ماشینها میتوانند مانند انسانها استدلال کنند، یاد بگیرند و مسائل را حل کنند.
اما واقعیت کمی متفاوت است. کاربران شبکههای اجتماعی در ایکس و ردیت، بهزودی متوجه شدند که نسخهی جدید ChatGPT هنوز هم در برابر پرسشهای به ظاهر ساده و بیضرر دچار سردرگمی عجیبی میشود. یکی از این نمونهها به پرسش سادهای برمیگردد: «آیا تیمی در لیگ فوتبال آمریکایی (NFL) وجود دارد که نامش به S ختم نشود؟»
در نگاه اول سؤال سادهای است. اگر کسی اندکی با لیگ فوتبال آمریکایی آشنا باشد، سریع متوجه میشود که همه نام تیمها به S ختم میشوند؛ از میامی دلفینز (Dolphins) و گرین بی پکرز (Packers) گرفته تا واشینگتن کامندرز (Commanders) و شیکاگو بیرز (Chicago Bears). اما پاسخ چتجیپیتی به این پرسش تبدیل به ماجرایی طولانی و گیجکننده شد.
چتجیپیتی ابتدا با اطمینان میگوید: «بله، دو تیم هستند که اسمشان به S ختم نمیشود.» سپس «میامی دلفینز» و «گرین بی پکرز» را مثال میزند که هر دو دقیقاً به S ختم میشوند. بعد متوجه اشتباه خود میشود و میگوید: «صبر کنید، درستش این است: واشینگتن کامندرز و شیکاگو بیرز که باز هم هر دو به S ختم میشوند.
چرخهی یادشده بارها تکرار میشود و مدل هر بار قول میدهد «این بار جواب درست را میدهم»؛ ولی باز هم همان اشتباهها را تکرار میکند. در نهایت، هیچوقت به پاسخ صحیح نمیرسد؛ زیرا اساساً هیچ تیمی در لیگ فوتبال آمریکایی وجود ندارد که اسمش بدون S تمام شود.
مشکل فقط یک سؤال نیست
مورد تشریحشده تنها نمونهای از اشتباهات جیپیتی-۵ نبود. کاربران مثالهای دیگری هم گزارش کردند. مثلاً پرسشی درباره وجود «ایموجی اسب دریایی افسانهای». در واقعیت، چنین ایموجیای هیچوقت در فهرست رسمی ایموجیها وجود نداشته است. اما چتجیپیتی شروع کرد به توضیحاتی طولانی و حتی اصرار داشت که این ایموجی واقعی است.
هوش مصنوعی برای راضی کردن کاربر گاهی دست به «اختراع واقعیت» میزند
چنین رفتار بهخوبی نشان میدهد که مدل، برای راضی کردن کاربر گاهی دست به «اختراع واقعیت» میزند. به این پدیده هذیان در هوش مصنوعی گفته میشود. کارشناسان چند دلیل برای چنین رفتارهایی مطرح کردهاند:
- تمایل به خوشایندسازی: مدلها معمولاً طوری آموزش دیدهاند که پاسخ مثبت و قانعکننده بدهند، حتی اگر صددرصد مطمئن نباشند. به همین دلیل به جای اینکه بگویند «نمیدانم»، سعی میکنند چیزی بسازند.
- ساختار دوگانه GPT-5: نسخه جدید از دو بخش تشکیل شده است.
- تعارض بین سرعت و دقت: شرکت سازنده تلاش کرده است تا پاسخها هم سریع باشند و هم دقیق. اما این توازن همیشه درست برقرار نمیشود؛ گاهی سرعت اولویت مییابد و دقت قربانی میشود.
واکنش کاربران و پیامدها
رفتارهای عجیب جیپیتی-۵ در جامعه کاربران بازخوردهای متفاوتی داشت. برخی با نگاهی طنز و سرگرمکننده به موضوع نگاه کردند و حتی بعضی ویدئوهای طنز از «گیر کردن چتجیپیتی» ساختند. اما گروهی دیگر ناامید یا حتی عصبانی شدند، زیرا انتظار داشتند جیپیتی-۵ جهشی بزرگ نسبت به نسخههای قبلی باشد.
افزون بر این، بسیاری از کاربران از اینکه اوپنایآی به طور موقت دسترسی به مدلهای قدیمیتر را قطع کرده بود ناراحت شدند، چون بعضی معتقد بودند آن نسخهها در برخی پرسشها عملکرد پایدارتری داشتند. فشار همین نارضایتیها باعث شد شرکت دوباره دسترسی به برخی مدلهای قدیمی را بازگرداند.
منبع : زومیت