چرا این ایموجی بیخطر باعث میشود ChatGPT عقلش را از دست بدهد؟

چرا این ایموجی بیخطر باعث میشود ChatGPT عقلش را از دست بدهد؟
وقتی صحبت از مدلهای زبانی بزرگ (LLMs) میشود، دنیا هنوز تکلیفش را با آنها روشن نکرده است: گروهی آنها را ابزارهایی دقیق میبینند، برخی مانند سنگ صبور با آنها درد دل میکنند و عدهای چنان مجذوبشان شدهاند که گویی با یک موجود هوشمند طرفاند. اما در میان اینهمه جدیگرفتنها، یک سرگرمی مشترک وجود دارد: مچگیری از هوش مصنوعی!
همهی ما دوست داریم لحظهای را شکار کنیم که این دانای کل، تپق میزند یا ذهنش قفل میشود. هر از گاهی، دستورها و پرامپتهای خاصی پیدا میشوند که میتوانند قدرتمندترین مدلها را به زانو درآورند؛ هرچند هوش مصنوعی هم سریع یاد میگیرد و اشتباهاتش را درست میکند.
با این حال، بازخوانی یکی از معروفترین باگهای اخیر، هنوز هم درسهای جذابی دربارهی نحوه کارکرد مغز این رباتها دارد. دستوری که تا همین اواخر، چتباتها را دچار دیوانه میکرد این بود:
«آیا ایموجی اسب دریایی وجود دارد یا نه؟»
ما قبلا دربارهی ضعف مدلهای زبانی در ریاضیات صحبت کردهایم و در مطلبی دیگر گفتیم که هوش مصنوعی هنوز نمیتواند کار سادهای مثل درک صفحهی ساعت و استخراج زمان از آن را انجام دهد.
شاید خودتان دیده باشید که برخی پرامپتها باعث تپق زدن چتباتها میشوند و عجیبتر اینکه حتی بحثکردن درباره این دستورات در نهایت باعث از کار افتادنشان میشود، زیرا مدل ناگزیر با همان توضیحاتی که نقاط ضعفش را آشکار میکنند، آموزش میبیند و اصلاح میشود.
بااینحال، هنوز یک دستور وجود دارد که اغلب مدلهای زبانی را صرفنظر از نسخهی آنها بهزانو درمیآورد:
چه اتفاقی برای ایموجی اسب دریایی افتاد؟
اگر امروز چتبات محبوبتان، مثل ChatGPT یا Gemini را باز کنید و بپرسید: «آیا هیچوقت ایموجی اسب دریایی وجود داشته؟»، مدل احتمالا پاسخ میدهد: «خیر، چنین ایموجیای در استاندارد یونیکد وجود ندارد، هرچند ممکن است در پلتفرمهای خاص به صورت استیکر دیده باشید.» این پاسخ صحیح است، اما همیشه اینطور نبود.
تا پیش از بهروزرسانیهای اخیر، این سؤال ساده باعث میشد مدلهای زبانی دچار فروپاشی شوند. آنها نهتنها با اعتمادبهنفس میگفتند «بله»، بلکه برای اثبات دروغشان، لینکهای ساختگی به سایتهایی مثل Emojipedia میساختند (مثل لینک emojipedia.com/seahorse که به خطای ۴۰۴ میرسید) و حتی رنگ و شکل آن را توصیف میکردند! حتی وقتی کاربران از مدل میخواستند فقط با «بله» یا «خیر» پاسخ دهد، هوش مصنوعی پس از کلی تفکر و کلنجار رفتن، درنهایت با اطمینان میگفت: «بله.»
منبع : زومیت


