ایلان ماسک هنوز نسبت به هوش مصنوعی نگران است

ایلان ماسک هنوز نسبت به هوش مصنوعی نگران است
ایلان ماسک بار دیگر در مورد خطرات هوش مصنوعی هشدار داده و سه مورد از مهمترین عوامل برای تضمین آیندهای مثبت با این فناوری را فهرست کرده است.
ماسک در گفتوگویی پادکستی سه عنصر «حقیقتمحوری»، «درک زیبایی» و «کنجکاوی» را پایههای توسعهای امن هوش مصنوعی خواند و نسبت به خطر «توهم» در مدلهای زبانی هشدار داد.
به گزارش نیوزلن ایلان ماسک، مدیرعامل تسلا، اسپیسایکس و xAI، در پادکستی با نیکیل کامات گفت که تضمینی برای مثبتبودن آینده هوش مصنوعی وجود ندارد و فناوریهای قدرتمند میتوانند بالقوه مخرب باشند. او که از بنیانگذاران اولیه OpenAI بود و بعدها xAI را تأسیس کرد، بارها نسبت به سرعت پیشرفت این فناوری و ریسکهای آن ابراز نگرانی کرده است.
سه اصل مهم از نگاه ماسک
حقیقتمحوری: مدلهای هوش مصنوعی باید بر مبنای دادههای دقیق و معتبر آموزش ببینند تا از استنتاجهای نادرست و “توهم” جلوگیری شود.
درک زیبایی: ماسک معتقد است درک زیبایی، معیار مهمی است که هوش مصنوعی را به سمت برداشتهای انسانیتر و معنادارتر هدایت میکند.
کنجکاوی: هوش مصنوعی باید کنجکاوی سازندهای داشته باشد تا به دنبال فهم عمیقتر واقعیتها و عوامل انسانی برود.
توهم هوش مصنوعی؛ چالش بزرگ
ماسک به پدیده «توهم» اشاره کرد؛ وضعیتی که در آن مدلهای زبانی پاسخهای نادرست یا گمراهکننده تولید میکنند. او نمونهای از خطاهای تولیدشده توسط ابزارهای AI را که اخیراً در سیستم Apple Intelligence مشاهده شد، یادآور شد و گفت که آموزش بر پایه منابع ناقص یا غلط میتواند مدل را به استدلالهای ناسازگار سوق دهد.
دیدگاههای دیگر متخصصان
اظهارات ماسک همراستا با هشدارهای دیگر پژوهشگران است. از جمله، جفری هینتون، دانشمند برجسته حوزه هوش مصنوعی، اخیراً احتمال ۱۰ تا ۲۰ درصدی را برای رخداد خطرات جدی هوش مصنوعی اعلام کرده و بر ضرورت تحقیقات گسترده در حوزه ایمنی تأکید کرده است.
جمعبندی
مطابق گزارش CNBC ماسک تأکید کرد که برای هدایت هوش مصنوعی به سمت نتایج مثبت، توسعهدهندگان باید بهصورت همزمان بر حقیقت، زیبایی و کنجکاوی تمرکز کنند.
به گفته او، جهتدهی درست فناوری میتواند تفاوت بین آیندهای سازنده و آیندهای پرخطر را رقم بزند.



