zoomit

اولویت‌های جدید OpenAI در توسعه محصولات؛ ایمنی قربانی سرعتِ پیشرفت می‌شود؟

اولویت‌های جدید OpenAI در توسعه محصولات؛ ایمنی قربانی سرعتِ پیشرفت می‌شود؟

سال گذشته پس از برکناری سم آلتمن، مدیرعامل OpenAI به‌دلیل نداشتن «صداقت مداوم»، چندین مدیر ارشد ازجمله یان لیکه، مدیر سابق بخش هم‌راستایی، این شرکت را ترک کردند.

لیکه در اظهارات خود تصریح کرد که درباره‌ی استراتژی ایمنی با رهبری OpenAI اختلاف نظر دارد و از نظر او فرهنگ و فرایندهای ایمنی در اولویت‌های شرکت به حاشیه رانده شده‌اند؛ آن‌ هم در شرایطی که تمرکز اصلی روی محصولات پرزرق‌وبرقی مثل هوش مصنوعی عمومی (AGI) قرار گرفته است.

اگرچه OpenAI ادعاهای لیکه را نپذیرفت، اما گزارش فایننشال تایمز این موضوع را تأیید می‌کند که فرایندهای ایمنی OpenAI با هدف عرضه‌ی سریع‌تر محصولات پیشرفته، کنار گذاشته شده‌اند.

گفته می‌شود OpenAI زمان اختصاص‌داده‌شده برای تست‌های ایمنی مدل‌های پرچم‌دار خود را به‌طور چشمگیری کاهش داده است. منبع گزارش توضیح می‌دهد که تست‌ها نسبت به گذشته سطحی‌تر شده‌اند و تیم‌ها زمان و منابع کمتری برای شناسایی و کاهش خطرات احتمالی در اختیار داشته‌اند.

تغییر استراتژی OpenAI، تلاش آشکاری برای حفظ برتری در رقابت فشرده‌ی دنیای هوش مصنوعی محسوب می‌شود، به‌ویژه با ظهور شرکت‌های جدیدی مانند دیپ‌سیک چین که مدل‌هایی با عملکرد بهتر و هزینه‌ی توسعه‌ی پایین‌تر منتشر کرده‌اند.

یکی از افراد مطلع درباره‌ی توسعه‌ی مدل o3 شرکت OpenAI می‌گوید: «وقتی این فناوری هنوز اهمیت فعلی را نداشت، تست‌های ایمنی دقیق‌تری داشتیم.» منبع مذکور تأکید کرد که هرچه مدل‌ها قدرتمندتر می‌شوند، تهدید آن‌ها نیز بیشتر می‌شود. به‌هرحال به‌دلیل حجم بالای تقاضا برای این مدل‌ها، شرکت به‌دنبال عرضه‌ی سریع‌تر آن‌ها است.

بر اساس گمانه‌زنی‌ها، OpenAI احتمالاً مدل o3 را هفته‌ی آینده منتشر خواهد کرد و تیم‌های امنیتی فقط چند روز برای تست و بررسی ایمنی مدل مذکور در اختیار خواهند داشت.

این اولین‌بار نیست که OpenAI به‌دلیل شتاب‌زدگی در فرایندهای ایمنی زیر ذره‌بین می‌رود. در سال ۲۰۲۴، گزارش مستقل دیگری نشان داد که این شرکت در انتشار GPT-4o هم چنین رویکردی داشته است و فرصت محدودی برای تست مدل به تیم ایمنی داده بود.

از موارد عجیب‌تر اینکه دعوت‌نامه‌ی جشن انتشار محصول جدید OpenAI پیش از انجام تست‌های ایمنی ارسال شده بود. منبع داخلی این موضوع را این‌طور توصیف کرد: «مهمانی پس‌ از انتشار را برنامه‌ریزی کرده بودند؛ درحالی‌که هنوز اطمینان نداشتند مدل جدید ایمنی لازم را برای انتشار دارد.»

مقاله‌های مرتبط:

در مقام مقایسه، آزمایش‌های ایمنی GPT-4 حدود ۶ ماه طول کشید و خطرات بالقوه‌ی مدل فقط پس از دو ماه تست فاش شد. منبع دیگری صراحتاً گفت: «آن‌ها به‌هیچ‌وجه ایمنی عمومی را در اولویت قرار نمی‌دهند.»

منبع : زومیت

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا