zoomit

چرا این ایموجی بی‌خطر باعث می‌شود ChatGPT عقلش را از دست بدهد؟

چرا این ایموجی بی‌خطر باعث می‌شود ChatGPT عقلش را از دست بدهد؟

وقتی صحبت از مدل‌های زبانی بزرگ (LLMs) می‌شود، دنیا هنوز تکلیفش را با آن‌ها روشن نکرده است: گروهی آن‌ها را ابزارهایی دقیق می‌بینند، برخی مانند سنگ صبور با آن‌ها درد دل می‌کنند و عده‌ای چنان مجذوبشان شده‌اند که گویی با یک موجود هوشمند طرف‌اند. اما در میان این‌همه جدی‌گرفتن‌ها، یک سرگرمی مشترک وجود دارد: مچ‌گیری از هوش مصنوعی!

همه‌ی ما دوست داریم لحظه‌ای را شکار کنیم که این دانای کل، تپق می‌زند یا ذهنش قفل می‌شود. هر از گاهی، دستورها و پرامپت‌های خاصی پیدا می‌شوند که می‌توانند قدرتمندترین مدل‌ها را به زانو درآورند؛ هرچند هوش مصنوعی هم سریع یاد می‌گیرد و اشتباهاتش را درست می‌کند.

با این حال، بازخوانی یکی از معروف‌ترین باگ‌های اخیر، هنوز هم درس‌های جذابی درباره‌ی نحوه کارکرد مغز این ربات‌ها دارد. دستوری که تا همین اواخر، چت‌بات‌ها را دچار دیوانه می‌کرد این بود:

«آیا ایموجی اسب دریایی وجود دارد یا نه؟»

ما قبلا درباره‌ی ضعف مدل‌های زبانی در ریاضیات صحبت کرده‌ایم و در مطلبی دیگر گفتیم که هوش مصنوعی هنوز نمی‌تواند کار ساده‌ای مثل درک صفحه‌ی ساعت و استخراج زمان از آن را انجام دهد.

شاید خودتان دیده باشید که برخی پرامپت‌ها باعث تپق زدن چت‌بات‌ها می‌شوند و عجیب‌تر اینکه حتی بحث‌کردن درباره این دستورات در نهایت باعث از کار افتادنشان می‌شود، زیرا مدل ناگزیر با همان توضیحاتی که نقاط ضعفش را آشکار می‌کنند، آموزش می‌بیند و اصلاح می‌شود.

بااین‌حال، هنوز یک دستور وجود دارد که اغلب مدل‌های زبانی را صرف‌نظر از نسخه‌ی آن‌ها به‌زانو درمی‌آورد:

چه اتفاقی برای ایموجی اسب دریایی افتاد؟

اگر امروز چت‌بات محبوبتان، مثل ChatGPT یا Gemini را باز کنید و بپرسید: «آیا هیچ‌وقت ایموجی اسب دریایی وجود داشته؟»، مدل احتمالا پاسخ می‌دهد: «خیر، چنین ایموجی‌ای در استاندارد یونیکد وجود ندارد، هرچند ممکن است در پلتفرم‌های خاص به صورت استیکر دیده باشید.» این پاسخ صحیح است، اما همیشه این‌طور نبود.

تا پیش از به‌روزرسانی‌های اخیر، این سؤال ساده باعث می‌شد مدل‌های زبانی دچار فروپاشی شوند. آن‌ها نه‌تنها با اعتمادبه‌نفس می‌گفتند «بله»، بلکه برای اثبات دروغشان، لینک‌های ساختگی به سایت‌هایی مثل Emojipedia می‌ساختند (مثل لینک emojipedia.com/seahorse که به خطای ۴۰۴ می‌رسید) و حتی رنگ و شکل آن را توصیف می‌کردند! حتی وقتی کاربران از مدل می‌خواستند فقط با «بله» یا «خیر» پاسخ دهد، هوش مصنوعی پس از کلی تفکر و کلنجار رفتن، درنهایت با اطمینان می‌گفت: «بله.»

منبع : زومیت

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا