فناوری

بدبینی عمیق پدرخوانده هوش مصنوعی: به سوی فروپاشی می‌رویم!

بدبینی عمیق پدرخوانده هوش مصنوعی: به سوی فروپاشی می‌رویم!

جفری هینتون، یکی از شناخته‌شده‌ترین چهره‌ها در توسعه روش‌های یادگیری عمیق و از برندگان جایزه تورینگ، در یک نشست عمومی با لحنی هشداردهنده اعلام کرد که توسعه فعلی هوش مصنوعی ممکن است پیامدهایی فراتر از حذف مشاغل داشته باشد و حتی به «فروپاشی کامل جامعه» بینجامد.
به گزارش نیوزلن هینتون که سابقه طولانی در شکل‌دهی موج کنونی هوش مصنوعی مولد دارد، و به‌عنوان یکی از سه «پدرخوانده» هوش مصنوعی نیز شناخته می‌شود، پیش‌تر نیز نسبت به پیامدهای نامطلوب این فناوری ابراز نگرانی کرده بود.
 
چرا هینتون نگران است؟

به‌گفته هینتون، تفاوت فعلی با انقلاب‌های فناوری گذشته در این است که این‌بار بسیاری از مشاغل قابل جایگزینی به‌شکلی بنیادین هستند و «افرادی که شغل خود را از دست می‌دهند، شغل جایگزینی نخواهند داشت.»
او معتقد است که برخی از بازیگران بزرگ فناوری و سرمایه‌گذاران، با اتکای بیش‌ از حد بر هوش مصنوعی، راهبردی را دنبال می‌کنند که می‌تواند نابرابری ثروت را تشدید کند و فرصت‌های شغلی گسترده‌ای را از میان ببرد.
او در گفت‌وگوی خود با برنی سناتور سندرز، این خطرات را تکرار کرد و افزود که میلیاردرهای پیشرو در هوش مصنوعی، مانند ایلان ماسک، مارک زاکربرگ و لری الیسون، واقعاً به این واقعیت که «اگر کارگران حقوق نگیرند، کسی نیست که محصولات آنها را بخرد» فکر نکرده‌اند.»
 
پیامدهای اجتماعی و اقتصادی

هینتون هشدار داده است که اگر روند فعلی ادامه یابد، ساختار بازار کار متحول خواهد شد و میلیون‌ها نفر بدون جایگزین شغلی باقی خواهند ماند. به نظر وی، این سناریو می‌تواند شکاف اقتصادی را عمیق کند و فشارهای اجتماعی شدیدی ایجاد کند.
ستیابی به هوش مصنوعی عمومی(AGI)  یعنی سامانه‌ای با توانایی‌های شناختی در سطح یا فراتر از انسان نیز به‌عنوان نگرانی دیگر مطرح شده که ممکن است پیامدهای پیچیده‌تری برای جامعه به دنبال داشته باشد.
 
اهمیت هشدار از زبان یک صاحب‌نظر

اظهارات هینتون به‌دلیل جایگاه او در تاریخ توسعه هوش مصنوعی اهمیت ویژه‌ای دارد؛ کسی که سال‌ها در مرکز پیشرفت‌های یادگیری عمیق بوده و اکنون نسبت به اثرات جمعی این فناوری هشدار می‌دهد. این پیشینه باعث می‌شود دیدگاه او کمتر به‌عنوان بدگمانی صرف و بیش‌تر به‌عنوان یک هشدار سیاستی و اخلاقی تلقی شود.
 
چه باید کرد؟

به گزارش سایت Futurism کارشناسان و سیاستگذاران برای کاهش خطرهای محتمل پیشنهادهایی از جمله تدوین چارچوب‌های قانونی هوش مصنوعی، برنامه‌های آموزش و بازآموزی نیروی کار، سیاست‌های توزیع ثروت و کنترل شفاف توسعه فناوری را مطرح می‌کنند. به‌طور کلی، درخواست‌ها معطوف به آن است که توسعه هوش مصنوعی با رویکردی محافظه‌کارانه‌تر، شفاف و با اولویت شبکۀ حفاظت اجتماعی و عدالت توزیعی همراه شود.

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا