zoomit

آلتمن: اگر رقبا مدل‌های هوش مصنوعی پرخطر منتشر کنند، شاید ملاحظات ایمنی خود را تغییر دهیم

آلتمن: اگر رقبا مدل‌های هوش مصنوعی پرخطر منتشر کنند، شاید ملاحظات ایمنی خود را تغییر دهیم

OpenAI چارچوب آمادگی (Preparedness Framework) خود را به‌روزرسانی کرد؛ این سیستم داخلی برای ارزیابی ایمنی مدل‌های هوش مصنوعی و تعیین محافظت‌های لازم حین توسعه و استقرار به‌کار می‌رود. OpenAI می‌گوید اگر شرکت‌های رقیب در حوزه‌ی هوش مصنوعی، سیستمی «پرخطر» را بدون محافظت‌های مشابه منتشر کنند، شاید الزامات ایمنی خود را «بازتنظیم» کند.

تغییر رویکرد OpenAI فشارهای رقابتی فزاینده بر توسعه‌دهندگان تجاری هوش مصنوعی برای استقرار سریع مدل‌ها را بازتاب می‌دهد.

خالق ChatGPT متهم به کاهش استانداردهای ایمنی به‌نفع انتشار سریع‌تر و عدم ارائه‌ی گزارش‌های به‌موقع درباره‌ی آزمایش‌های ایمنی خود شده است. هفته‌ی گذشته، ۱۲ کارمند سابق OpenAI در پرونده‌ی ایلان ماسک علیه شرکت مذکور، لایحه‌ای ارائه و استدلال کردند درصورت تکمیل بازسازی ساختار شرکت، OpenAI به نادیده‌گرفتن هرچه بیشتر ایمنی تشویق خواهد شد.

چارچوب آمادگیِ بازنگری‌شده روشن می‌کند که OpenAI بیشتر بر ارزیابی‌های خودکار برای سرعت‌بخشیدن به توسعه‌ی محصول تکیه دارد. خالق ChatGPT می‌گوید گرچه آزمایش‌های انسانی را به‌کلی کنار نگذاشته، اما «مجموعه‌ی روبه‌رشدی از ارزیابی‌های خودکار» ایجاد کرده است که ظاهراً می‌توانند «با سرعت بیشتر [انتشار] همگام شوند.»

تغییرات دیگر در چارچوب OpenAI به نحوه‌ی دسته‌بندی مدل‌ها بر اساس ریسک مربوط می‌شود؛ شامل مدل‌هایی که قادر به پنهان‌کردن قابلیت‌ها، دورزدن محافظت‌ها، جلوگیری از خاموش‌شدن و حتی خودتکثیری هستند. OpenAI می‌گوید که بر این موضوع تمرکز خواهد داشت که آیا مدل‌ها به یکی از دو سطح «ریسک بالا» یا «ریسک بحرانی» می‌رسند یا نه.

مقاله‌های مرتبط

تعریف OpenAI از دسته‌ی اول، مدلی به‌شمار می‌رود که می‌تواند «مسیرهای موجود به سمت آسیب شدید را تقویت کند.» دسته‌ی دوم (ریسک بحرانی) به گفته‌ی این شرکت، مدل‌هایی هستند که «مسیرهای جدید و بی‌سابقه‌ای به سمت آسیب شدید معرفی می‌کنند.»

OpenAI می‌گوید: «سیستم‌هایی که به ریسک بالا می‌رسند، باید پیش‌از استقرار، دارای محافظت‌هایی باشند که به‌قدر کافی ریسک مرتبط با آسیب شدید را به حداقل برسانند. سیستم‌هایی که به ریسک بحرانی دست پیدا می‌کنند نیز نیازمند اقدامات محافظتی‌ای هستند که ریسک‌های مرتبط را در طول توسعه به‌قدر کافی کمینه کنند.»

منبع : زومیت

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا