zoomit

هوش مصنوعی کمتر از انسان‌ها هذیان‌گویی می‌کند؛ ادعای مدیرعامل انتروپیک

هوش مصنوعی کمتر از انسان‌ها هذیان‌گویی می‌کند؛ ادعای مدیرعامل انتروپیک

داریو آمودی، مدیرعامل انتروپیک، مدعی است مدل‌های هوش مصنوعی امروزی کمتر از انسان‌ها دچار «توهم» یا تولید اطلاعات نادرست اما به‌ظاهر واقعی می‌شوند.

توهم یا هذیان‌گویی (Hallucinate)، بدین معنی است که هوش مصنوعی با اطمینان کامل اطلاعات اشتباه را در قالب اطلاعات درست ارائه می‌دهد.

آمودی اظهاراتش را به‌عنوان بخشی از دیدگاهی گسترده‌تر درباره‌ی مسیر رسیدن به هوش مصنوعی انسان‌گونه (AGI) بیان کرد. به‌گفته‌ی او، «همه‌چیز به معیار اندازه‌گیری بستگی دارد؛ اما احتمال می‌دهم مدل‌های هوش مصنوعی کمتر از انسان‌ها دچار توهم شوند؛ البته توهم آن‌ها غیرمنتظره‌تر است.»

مدیرعامل انتروپیک یکی از خوش‌بین‌ترین چهره‌ها در صنعت هوش مصنوعی نسبت‌به تحقق AGI به‌شمار می‌رود. او سال گذشته در مقاله‌ای که بازتاب گسترده‌ای داشت، پیش‌بینی کرد که AGI می‌تواند تا سال ۲۰۲۶ محقق شود. در نشست خبری اخیر او با اشاره به پیشرفت مداوم مدل‌ها، اظهار داشت که «سطح آب در حال بالا آمدن است»؛ کنایه‌ای به بهبود همه‌جانبه‌ی توانایی‌های سیستم‌های هوش مصنوعی.

آمودی گفت: «همه همیشه دنبال موانعی هستند که جلوی پیشرفت [هوش مصنوعی] را بگیرد؛ چنین چیزی وجود ندارد.»

دیگر فعالان حوزه‌ی هوش مصنوعی دیدگاه متفاوتی دارند. دِمیس هاسابیس، مدیرعامل گوگل دیپ‌مایند، اوایل همین هفته در اظهارنظری اعلام کرد که مدل‌های امروزی «پر از حفره» هستند و در پاسخ‌گویی به بسیاری از پرسش‌های بدیهی اشتباه می‌کنند. نمونه‌ی بارز، پرونده‌ی حقوقی اخیر انتروپیک است که در آن، وکیل شرکت به‌خاطر استفاده از هوش مصنوعی Claude در تهیه‌ی استنادهای حقوقی مجبور به عذرخواهی شد؛ چون نام و عنوان‌ها را اشتباه تولید کرده بود.

سنجش ادعای آمودی دشوار است؛ چون اغلب معیارهای اندازه‌گیری توهم، مدل‌های هوش مصنوعی را با یکدیگر مقایسه می‌کنند و عملکردشان را در برابر انسان‌ها نمی‌سنجند. برخی راهکارها مانند دسترسی مستقیم مدل‌ها به جست‌وجوی وب توانسته‌اند نرخ خطا را کاهش دهند.

مقاله‌های مرتبط

از سوی دیگر، بعضی مدل‌ها مثل GPT-4.5 در آزمون‌ها، نرخ توهم پایین‌تری نسبتبه نسل‌های اولیه دارند. داده‌هایی وجود دارد که نشان می‌دهند مدل‌های پیشرفته‌تر در استدلال، گاهی عملکرد ضعیف‌تری از نسل‌های قبلی دارند؛ به‌طور خاص، مدل‌های o3 و o4-mini، نرخ توهم بالاتری نسبت‌به مدل‌های قبلی نشان دادند و حتی خود OpenAI هم علت این موضوع را نمی‌داند.

در بخش پایانی نشست، آمودی با اشاره به اشتباهاتی که از سوی مجری‌های تلویزیونی، سیاست‌مداران و افراد شاغل در حرفه‌های گوناگون رخ می‌دهد، خاطرنشان کرد که خطای مدل‌های هوش مصنوعی لزوماً نشانه‌ی ضعف در هوشمندی آن‌ها نیست؛ هرچند گفت که نحوه‌ی ارائه‌ی اطلاعات نادرست توسط مدل‌ها ــ با قطعیت و اطمینان کامل ــ می‌تواند چالشی جدی به‌حساب بیاید.

منبع : زومیت

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا