آیا OpenAI به ایمنی هوش مصنوعی بیتوجه است؟ پاسخ یک کارمند سابق

آیا OpenAI به ایمنی هوش مصنوعی بیتوجه است؟ پاسخ یک کارمند سابق
سه هفته پیش، «کالوین فرنچ-اوون» (Calvin French-Owen)، مهندسی که روی یکی از نویدبخشترین محصولات جدید OpenAI کار میکرد، از این شرکت استعفا داد.
به گزارش نیوزلن و به نقل از تککرانچ، فرنچ-اوون اخیراً در وبلاگ شخصیاش، روایتی جذاب از یک سال فعالیت در این شرکت منتشر کرده که شامل جزئیات تلاشهای بیوقفه برای توسعهٔ «Codex»—سیستم کدنویسی هوش مصنوعی OpenAI که با رقبایی مانند «Cursor» و «Claude Code» (از Anthropic) رقابت میکند— بوده است.
فرنچ-اوون تأکید کرده که ترک OpenAI نه به دلیل حاشیهها، بلکه بهمنظور پیگیری مسیر کارآفرینی و تأسیس یک استارتآپ جدید بوده است. او پیشتر از بنیانگذاران استارتآپ «Segment» (فعال در حوزهٔ دادههای مشتری) بود که در سال ۲۰۲۰ با مبلغ ۳/۲ میلیارد دلار توسط «Twilio» خریداری شد.
فرهنگ سازمانی: رشد سریع و چالشهای همراه
برخی از مشاهدات او دربارهٔ فرهنگ OpenAI چندان غیرمنتظره نبود، اما برخی دیگر، تصورات رایج دربارهٔ این شرکت را به چالش کشید.
افزایش چشمگیر نیروی انسانی: طی یک سال حضور او، تعداد کارمندان OpenAI از ۱۰۰۰ نفر به ۳۰۰۰ نفر رسید. این رشد سریع با توجه به موفقیت بیسابقهٔ محصولاتی مانند ChatGPT—که در مارس ۲۰۲۴ بیش از ۵۰۰ میلیون کاربر فعال داشت—چندان عجیب نیست.
هرجومرج ناشی از رشد سریع: فرنچ-اوون میگوید: «در چنین شرایطی، تقریباً همه چیز از هم میپاشد: شیوهٔ ارتباطات داخلی، ساختارهای گزارشدهی، فرآیندهای عرضهٔ محصول، مدیریت منابع انسانی و حتی جذب نیرو.»
روحیهٔ استارتآپی و چالشهای فنی: با وجود مقیاس بزرگ شرکت، کارمندان همچنان اختیار اقدام سریع و بدون تشریفات اداری را دارند. اما این آزادی گاه منجر به موازیکاری میشود؛ مثلاً او به وجود شش کتابخانهٔ مختلف فقط برای مدیریت صفها اشاره کرد. همچنین، تنوع سطح مهارتهای مهندسان—از متخصصان باتجربهٔ گوگل تا فارغالتحصیلان تازهکار—سبب شده پایگاه کد مرکزی شرکت تا حدی آشفته باشد.
چابکی در توسعه و راهاندازی محصول
فرنچ-اوون خاطرنشان کرد که OpenAI هنوز مانند یک شرکت نوپا عمل میکند، مشابه فضای متا (فیسبوک) در سالهای اولیه با شعار «سریع حرکت کن و قواعد را بشکن». جالب آنکه بسیاری از کارمندان فعلی OpenAI سابقاً در متا مشغول بودهاند.
او نمونهٔ موفقیتآمیز این چابکی را راهاندازی Codex در تنها هفت هفته توصیف کرد—پروژهای که با تلاش بیوقفهٔ تیمی متشکل از هشت مهندس، چهار محقق، دو طراح، دو کارمند عملیات و یک مدیر محصول به سرانجام رسید. نتیجه شگفتانگیز بود: «هرگز محصولی ندیده بودم که صرفاً با ظهور در یک نوار ابزار، بهسرعت تا این حد مورد استقبال قرار گیرد. این، قدرت ChatGPT است.»
رازداری و حساسیت به فضای عمومی
OpenAI شرکتی بسیار محافظهکار در افشای اطلاعات است و فرهنگ رازداری شدیدی بر آن حاکم است. بااینحال، به گفتهٔ فرنچ-اوون، این شرکت بهشدت فضای مجازی (بهویژه توییتر) را رصد میکند و واکنشهای سریعی به محتوای وایرال نشان میدهد. به طنز گفته بود: «یکی از دوستانم میگفت OpenAI با لرزشهای توییتر اداره میشود!»
باور غلط رایج دربارهٔ ایمنی هوش مصنوعی
به گفتهٔ او، بزرگترین سوءتفاهم دربارهٔ OpenAI این است که گویا این شرکت به مسائل ایمنی بیتوجه است. درحالی که بخش قابلتوجهی از تمرکز داخلی معطوف به خطرات عملی مانند «تبلیغ خشونت، سوءاستفاده، تقویت سوگیریها، ساخت سلاحهای بیولوژیکی و خودآزاری کاربران» است. البته پژوهشهایی دربارهٔ تأثیرات بلندمدت هوش مصنوعی نیز در جریان است، چراکه امروزه صدها میلیون نفر از مدلهای زبانی OpenAI برای اهداف حساسی مانند مشاورهٔ پزشکی استفاده میکنند.
نتیجهگیری: رقابت در سطح جهانی
با توجه به نظارت دقیق دولتها و رقبای فناوری، OpenAI در موقعیتی حساس قرار دارد. همانطور که فرنچ-اوون میگوید: «شرایط، پرریسک به نظر میرسد.»