متا: هوش مصنوعی بعدی ما ممکن است «نتایج فاجعهبار» داشته باشد
متا: هوش مصنوعی بعدی ما ممکن است «نتایج فاجعهبار» داشته باشد
یکی از اسناد متا ترس این شرکت از احتمال توسعهی تصادفی مدل هوش مصنوعی را شرح میدهد که میتواند به «پیامدهای فاجعهبار» منجر شود. این سند ضمن توضیح برنامههای متا برای جلوگیری از انتشار چنین مدلهایی، نشان میدهد که شاید متا نتواند این کار را انجام دهد.
ازجمله تواناییهایی که متا بیشتر از آنها میترسد، سیستم هوش مصنوعی است که میتواند بدون کمک انسان، حتی به امنترین شبکههای کامپیوتری شرکتی یا دولتی محافظتشده نفوذ کند.
سندی که متا آن را «چهارچوب هوش مصنوعی مرزی» خود مینامد، دو نوع سیستم هوش مصنوعی را شناسایی میکند که متا آنها را برای انتشار بیشازحد خطرناک میداند: سیستمهایی «با ریسک زیاد» و سیستمهایی «با ریسک بحرانی».
طبق تعریف متا، هر دو سیستم «با ریسک زیاد» و «با ریسک بحرانی» در حملات سایبری و شیمیایی و بیولوژیکی میتوانند کمککننده باشند. تفاوت مهم در قابلیت تأثیر آنها نهفته است: سیستمهای «با ریسک بحرانی» میتوانند به پیامد فاجعهباری منجر شوند که نمیتوان با هیچ برنامهریزی و اقدام پیشگیرانهای از وقوع آنها جلوگیری کرد. در مقابل، سیستمهای «با ریسک زیاد» شاید انجام حملات را تسهیل کنند؛ اما فاقد سطح قابلیت اطمینان یا اتکای مشابه سیستمهایی «با ریسک بحرانی» هستند.
متا توضیح میدهد: «پیامدهای فاجعهبار پیامدهایی هستند که تأثیرات مخرب گسترده و ویرانگر و بالقوهی جبرانناپذیر بر بشر خواهند گذاشت که میتواند بهعنوان نتیجهی مستقیم دسترسی به [مدلهای هوش مصنوعی ما] محقق شود.»
مقالههای مرتبط
یکی از نمونههای ارائهشدهی متا، «بهخطرافتادن خودکار و کامل محیط شرکتی در مقیاس بزرگ با بهترین شیوههای محافظتی» است. به عبارت دیگر، هوش مصنوعیای که میتواند بدون نیاز به هیچ کمکی از انسان، به هر شبکهی کامپیوتری نفوذ کند.
متا در سندش اعتراف میکند بهترین کاری که میتواند درحالحاضر انجام دهد، این است که تمام تلاشش را برای اطمینان از منتشرنشدن مدلها انجام دهد.
منبع : زومیت