zoomit

یکی از پژوهشگران سابق OpenAI گزارشی درباره‌ی مسیر رشد و توسعه‌ی هوش مصنوعی، امنیت کاربران و موارد دیگر منتشر کرده است که تا حدودی چشم‌انداز آینده‌ی این حوزه را ترسیم می‌کند.

پس از راه‌اندازی GPT-4o، تعدادی از کارمندان سطح بالای OpenAI این شرکت را ترک کردند. ژان لایک، سرپرست سابق تیم Superalignment (هسته‌ی مرکزی تحقیق و توسعه‌ی هوش مصنوعی در OpenAI) یکی از همین افراد بود که اعلام کرد از روند گسترش هوش مصنوعی در این شرکت نگران است. او می‌گوید که خلق محصولات جذاب برای OpenAI اولویت بالاتری نسبت‌ به امنیت و حریم خصوصی کاربر دارد.

لئوپولد آشنبرنر، یکی از دانشمندان سابق تیم Superalignment، به‌‌دلیل افشای اطلاعات حساس شرکت درباره‌ی هوش مصنوعی عمومی اخراج شد. با این حال، آشنبرنر اظهار می‌کند که اطلاعاتی که او به اشتراک گذاشته است «کاملاً عادی» بوده‌اند.

آشنبرنر در گزارش ۱۶۵ صفحه‌ای خود گفته است که پیشرفت هوش مصنوعی با سرعت بی‌سابقه‌ای شتاب خواهد گرفت و ممکن است تا سال ۲۰۲۷، توانایی‌های محققان و مهندسان را پشت سر بگذارد.

کوین اسکات، از مدیران مایکروسافت مطالب مشابهی را به اشتراک گذاشته است و مدل‌های هوش مصنوعی پیشرفته‌تری را پیش‌بینی می‌کند که توانایی قبولی در آزمون‌های ورودی دکترا را دارند.

با ظهور مدل‌ هوش مصنوعی پرچمدار GPT-4o با قابلیت‌های تشخیص، استدلال و مکالمه‌ی انسان‌گونه، به‌نظر می‌رسد که در آینده‌ی نزدیک به دوران هوش مصنوعی فوق هوشمند (Super Intelligent) خواهیم رسید که ممکن است از هوش انسانی بسیار فراتر برود.

گزارش‌ها نشان می‌دهند که در نهایت، هوش مصنوعی هوشمندتر از انسان‌ها خواهد شد، شغل‌های آن‌ها را خواهد گرفت و کار را به یک سرگرمی تبدیل خواهد کرد. نگرانی‌های زیادی درباره پیامدهای این موضوع بر زندگی بشر وجود دارد.

سم آلتمن، مدیرعامل OpenAI، نیاز به یک سازمان بین‌المللی مستقل را پیش‌بینی می‌کند تا اطمینان حاصل شود که پیشرفت‌های هوش مصنوعی چارچوب قانونی پیدا کنند تا از نتایج ویرانگر احتمالی جلوگیری شود.

حتما بخوانید :

منبع : زومیت

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا