اولویتهای جدید OpenAI در توسعه محصولات؛ ایمنی قربانی سرعتِ پیشرفت میشود؟

اولویتهای جدید OpenAI در توسعه محصولات؛ ایمنی قربانی سرعتِ پیشرفت میشود؟
سال گذشته پس از برکناری سم آلتمن، مدیرعامل OpenAI بهدلیل نداشتن «صداقت مداوم»، چندین مدیر ارشد ازجمله یان لیکه، مدیر سابق بخش همراستایی، این شرکت را ترک کردند.
لیکه در اظهارات خود تصریح کرد که دربارهی استراتژی ایمنی با رهبری OpenAI اختلاف نظر دارد و از نظر او فرهنگ و فرایندهای ایمنی در اولویتهای شرکت به حاشیه رانده شدهاند؛ آن هم در شرایطی که تمرکز اصلی روی محصولات پرزرقوبرقی مثل هوش مصنوعی عمومی (AGI) قرار گرفته است.
اگرچه OpenAI ادعاهای لیکه را نپذیرفت، اما گزارش فایننشال تایمز این موضوع را تأیید میکند که فرایندهای ایمنی OpenAI با هدف عرضهی سریعتر محصولات پیشرفته، کنار گذاشته شدهاند.
عکاس: Dado Ruvic / Reuters
گفته میشود OpenAI زمان اختصاصدادهشده برای تستهای ایمنی مدلهای پرچمدار خود را بهطور چشمگیری کاهش داده است. منبع گزارش توضیح میدهد که تستها نسبت به گذشته سطحیتر شدهاند و تیمها زمان و منابع کمتری برای شناسایی و کاهش خطرات احتمالی در اختیار داشتهاند.
تغییر استراتژی OpenAI، تلاش آشکاری برای حفظ برتری در رقابت فشردهی دنیای هوش مصنوعی محسوب میشود، بهویژه با ظهور شرکتهای جدیدی مانند دیپسیک چین که مدلهایی با عملکرد بهتر و هزینهی توسعهی پایینتر منتشر کردهاند.
یکی از افراد مطلع دربارهی توسعهی مدل o3 شرکت OpenAI میگوید: «وقتی این فناوری هنوز اهمیت فعلی را نداشت، تستهای ایمنی دقیقتری داشتیم.» منبع مذکور تأکید کرد که هرچه مدلها قدرتمندتر میشوند، تهدید آنها نیز بیشتر میشود. بههرحال بهدلیل حجم بالای تقاضا برای این مدلها، شرکت بهدنبال عرضهی سریعتر آنها است.
بر اساس گمانهزنیها، OpenAI احتمالاً مدل o3 را هفتهی آینده منتشر خواهد کرد و تیمهای امنیتی فقط چند روز برای تست و بررسی ایمنی مدل مذکور در اختیار خواهند داشت.
این اولینبار نیست که OpenAI بهدلیل شتابزدگی در فرایندهای ایمنی زیر ذرهبین میرود. در سال ۲۰۲۴، گزارش مستقل دیگری نشان داد که این شرکت در انتشار GPT-4o هم چنین رویکردی داشته است و فرصت محدودی برای تست مدل به تیم ایمنی داده بود.
از موارد عجیبتر اینکه دعوتنامهی جشن انتشار محصول جدید OpenAI پیش از انجام تستهای ایمنی ارسال شده بود. منبع داخلی این موضوع را اینطور توصیف کرد: «مهمانی پس از انتشار را برنامهریزی کرده بودند؛ درحالیکه هنوز اطمینان نداشتند مدل جدید ایمنی لازم را برای انتشار دارد.»
مقالههای مرتبط:
در مقام مقایسه، آزمایشهای ایمنی GPT-4 حدود ۶ ماه طول کشید و خطرات بالقوهی مدل فقط پس از دو ماه تست فاش شد. منبع دیگری صراحتاً گفت: «آنها بههیچوجه ایمنی عمومی را در اولویت قرار نمیدهند.»
منبع : زومیت