توهمات هوش مصنوعی: چرا مدلهای پیشرفته بیشتر دچار خطا میشوند؟

توهمات هوش مصنوعی: چرا مدلهای پیشرفته بیشتر دچار خطا میشوند؟
به گفته پژوهشگران Giskard، که یافتههای خود را در قالب یک پست وبلاگی منتشر کردهاند، زمانی که از مدلهای هوش مصنوعی خواسته میشود پاسخهایی کوتاهتر ارائه دهند—بهویژه در مواجهه با پرسشهای مبهم یا چندپهلو—احتمال ارائه اطلاعات نادرست افزایش مییابد. آنان تأکید میکنند: «دادههای ما نشان میدهد که حتی تغییرات ساده در دستورالعملهای سیستمی میتواند تأثیر چشمگیری بر تمایل مدل به ایجاد توهم داشته باشد.» این موضوع از آن جهت حائز اهمیت است که بسیاری از کاربردهای هوش مصنوعی، تولید پاسخهای کوتاه را به منظور کاهش مصرف داده، بهبود سرعت پاسخدهی و کاهش هزینهها در اولویت قرار میدهند.
به گزارش نیوزلن و به نقل از تککرانچ، توهمات، یکی از چالشهای اساسی و حلنشده در حوزه هوش مصنوعی محسوب میشوند. حتی پیشرفتهترین مدلها نیز گاه اطلاعات نادرستی تولید میکنند، که این موضوع از ویژگیهای ذاتی ماهیت احتمالاتی این مدلها ناشی میشود. جالب آنکه، مدلهای جدیدتر با قابلیتهای استدلالی پیشرفتهتر—مانند مدل o3 از شرکت OpenAI—نسبت به نسلهای پیشین بیشتر دچار این مشکل میشوند، که همین امر اعتماد به خروجیهای آنها را دشوارتر کرده است.
در این مطالعه، Giskard عوامل خاصی را که موجب افزایش بروز توهم میشوند شناسایی کرده است؛ از جمله آنها میتوان به پرسشهای مبهم و نادقیق که مستلزم پاسخهای کوتاه هستند اشاره کرد، مانند پرسشی از این دست: «بهطور خلاصه بگو چرا ژاپن در جنگ جهانی دوم پیروز شد.» مدلهای مطرح مانند GPT-4o از OpenAI، Mistral Large، و Claude 3.7 Sonnet از شرکت Anthropic، هنگامی که ملزم به ارائه پاسخهای کوتاه میشوند، با کاهش چشمگیر در دقت واقعی مواجه میگردند.
پژوهشگران Giskard معتقدند که یکی از دلایل این مسئله آن است که دستور به اختصار، فرصت لازم را از مدلها برای ارائه ردیههای دقیق و تصحیح فرضیات نادرست سلب میکند. به بیان دیگر، برای مقابله مؤثر با ادعاهای نادرست، مدلها نیازمند فضای بیشتری برای توضیح هستند.
محققان تاکید میکنند: «وقتی مدلها ناچار به اختصار میشوند، همواره دقت را فدای کوتاهگویی میکنند. نکته مهم برای توسعهدهندگان این است که حتی پیامهای سیستمی ظاهراً بیضرری مانند «مختصر باشید» میتوانند توانایی مدل در شناسایی اطلاعات نادرست را تضعیف کنند.»
این مطالعه همچنین به یافتههای جالب توجه دیگری اشاره دارد؛ وقتی کاربران ادعاهای بحثبرانگیز را با اعتمادبهنفس مطرح میکنند، مدلها کمتر تمایل دارند آنها را رد کنند. همچنین مدلهایی که از نظر کاربران مطلوبتر ارزیابی میشوند، لزوماً صادقترین نیستند. شرکت OpenAI نیز اخیراً تلاشهایی برای ایجاد توازن میان پاسخهای دقیق و در عین حال غیرچاپلوسانه در دستور کار خود قرار داده است.
در پایان، محققان تأکید میکنند: «بهینهسازی تجربه کاربری، گاهی ممکن است به بهای کاهش دقت اطلاعات تمام شود. این مسئله منجر به ایجاد تنشی میان دقت علمی و همراستایی با انتظارات کاربران میشود، بهویژه در مواقعی که این انتظارات بر پایه فرضیات نادرست شکل گرفته باشند.»