فناوری

توهمات هوش مصنوعی: چرا مدل‌های پیشرفته بیشتر دچار خطا می‌شوند؟

توهمات هوش مصنوعی: چرا مدل‌های پیشرفته بیشتر دچار خطا می‌شوند؟

به گفته پژوهشگران Giskard، که یافته‌های خود را در قالب یک پست وبلاگی منتشر کرده‌اند، زمانی که از مدل‌های هوش مصنوعی خواسته می‌شود پاسخ‌هایی کوتاه‌تر ارائه دهند—به‌ویژه در مواجهه با پرسش‌های مبهم یا چندپهلو—احتمال ارائه اطلاعات نادرست افزایش می‌یابد. آنان تأکید می‌کنند: «داده‌های ما نشان می‌دهد که حتی تغییرات ساده در دستورالعمل‌های سیستمی می‌تواند تأثیر چشم‌گیری بر تمایل مدل به ایجاد توهم داشته باشد.» این موضوع از آن جهت حائز اهمیت است که بسیاری از کاربردهای هوش مصنوعی، تولید پاسخ‌های کوتاه را به منظور کاهش مصرف داده، بهبود سرعت پاسخ‌دهی و کاهش هزینه‌ها در اولویت قرار می‌دهند.

به گزارش نیوزلن و به نقل از تک‌کرانچ، توهمات، یکی از چالش‌های اساسی و حل‌نشده در حوزه‌ هوش مصنوعی محسوب می‌شوند. حتی پیشرفته‌ترین مدل‌ها نیز گاه اطلاعات نادرستی تولید می‌کنند، که این موضوع از ویژگی‌های ذاتی ماهیت احتمالاتی این مدل‌ها ناشی می‌شود. جالب آنکه، مدل‌های جدیدتر با قابلیت‌های استدلالی پیشرفته‌تر—مانند مدل o3 از شرکت OpenAI—نسبت به نسل‌های پیشین بیشتر دچار این مشکل می‌شوند، که همین امر اعتماد به خروجی‌های آن‌ها را دشوارتر کرده است.

در این مطالعه، Giskard عوامل خاصی را که موجب افزایش بروز توهم می‌شوند شناسایی کرده است؛ از جمله آن‌ها می‌توان به پرسش‌های مبهم و نادقیق که مستلزم پاسخ‌های کوتاه هستند اشاره کرد، مانند پرسشی از این دست: «به‌طور خلاصه بگو چرا ژاپن در جنگ جهانی دوم پیروز شد.» مدل‌های مطرح مانند GPT-4o از OpenAI، Mistral Large، و Claude 3.7 Sonnet از شرکت Anthropic، هنگامی که ملزم به ارائه پاسخ‌های کوتاه می‌شوند، با کاهش چشم‌گیر در دقت واقعی مواجه می‌گردند.

 

پژوهشگران Giskard معتقدند که یکی از دلایل این مسئله آن است که دستور به اختصار، فرصت لازم را از مدل‌ها برای ارائه ردیه‌های دقیق و تصحیح فرضیات نادرست سلب می‌کند. به بیان دیگر، برای مقابله مؤثر با ادعاهای نادرست، مدل‌ها نیازمند فضای بیشتری برای توضیح هستند.

محققان تاکید می‌کنند: «وقتی مدل‌ها ناچار به اختصار می‌شوند، همواره دقت را فدای کوتاه‌گویی می‌کنند. نکته مهم برای توسعه‌دهندگان این است که حتی پیام‌های سیستمی ظاهراً بی‌ضرری مانند «مختصر باشید» می‌توانند توانایی مدل در شناسایی اطلاعات نادرست را تضعیف کنند.»

این مطالعه همچنین به یافته‌های جالب توجه دیگری اشاره دارد؛ وقتی کاربران ادعاهای بحث‌برانگیز را با اعتمادبه‌نفس مطرح می‌کنند، مدل‌ها کمتر تمایل دارند آن‌ها را رد کنند. همچنین مدل‌هایی که از نظر کاربران مطلوب‌تر ارزیابی می‌شوند، لزوماً صادق‌ترین نیستند. شرکت OpenAI نیز اخیراً تلاش‌هایی برای ایجاد توازن میان پاسخ‌های دقیق و در عین حال غیرچاپلوسانه در دستور کار خود قرار داده است.

در پایان، محققان تأکید می‌کنند: «بهینه‌سازی تجربه کاربری، گاهی ممکن است به بهای کاهش دقت اطلاعات تمام شود. این مسئله منجر به ایجاد تنشی میان دقت علمی و هم‌راستایی با انتظارات کاربران می‌شود، به‌ویژه در مواقعی که این انتظارات بر پایه فرضیات نادرست شکل گرفته باشند.»

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

همچنین ببینید
بستن
دکمه بازگشت به بالا