مديريت ICT

آیا OpenAI به ایمنی هوش مصنوعی بی‌توجه است؟ پاسخ یک کارمند سابق

آیا OpenAI به ایمنی هوش مصنوعی بی‌توجه است؟ پاسخ یک کارمند سابق

سه هفته پیش، «کالوین فرنچ-اوون» (Calvin French-Owen)، مهندسی که روی یکی از نویدبخش‌ترین محصولات جدید OpenAI کار می‌کرد، از این شرکت استعفا داد.

به گزارش نیوزلن و به نقل از تک‌کرانچ، فرنچ-اوون اخیراً در وبلاگ شخصی‌اش، روایتی جذاب از یک سال فعالیت در این شرکت منتشر کرده که شامل جزئیات تلاش‌های بی‌وقفه برای توسعهٔ «Codex»—سیستم کدنویسی هوش مصنوعی OpenAI که با رقبایی مانند «Cursor» و «Claude Code» (از Anthropic) رقابت می‌کند— بوده است.

فرنچ-اوون تأکید کرده که ترک OpenAI نه به دلیل حاشیه‌ها، بلکه به‌منظور پیگیری مسیر کارآفرینی و تأسیس یک استارت‌آپ جدید بوده است. او پیشتر از بنیانگذاران استارت‌آپ «Segment» (فعال در حوزهٔ داده‌های مشتری) بود که در سال ۲۰۲۰ با مبلغ ۳/۲ میلیارد دلار توسط «Twilio» خریداری شد.

فرهنگ سازمانی: رشد سریع و چالش‌های همراه
برخی از مشاهدات او دربارهٔ فرهنگ OpenAI چندان غیرمنتظره نبود، اما برخی دیگر، تصورات رایج دربارهٔ این شرکت را به چالش کشید. 

افزایش چشمگیر نیروی انسانی: طی یک سال حضور او، تعداد کارمندان OpenAI از ۱۰۰۰ نفر به ۳۰۰۰ نفر رسید. این رشد سریع با توجه به موفقیت بی‌سابقهٔ محصولاتی مانند ChatGPT—که در مارس ۲۰۲۴  بیش از ۵۰۰ میلیون کاربر فعال داشت—چندان عجیب نیست.

 

هرج‌ومرج ناشی از رشد سریع: فرنچ-اوون می‌گوید: «در چنین شرایطی، تقریباً همه چیز از هم می‌پاشد: شیوهٔ ارتباطات داخلی، ساختارهای گزارش‌دهی، فرآیندهای عرضهٔ محصول، مدیریت منابع انسانی و حتی جذب نیرو.»

روحیهٔ استارت‌آپی و چالش‌های فنی: با وجود مقیاس بزرگ شرکت، کارمندان همچنان اختیار اقدام سریع و بدون تشریفات اداری را دارند. اما این آزادی گاه منجر به موازی‌کاری می‌شود؛ مثلاً او به وجود شش کتابخانهٔ مختلف فقط برای مدیریت صف‌ها اشاره کرد. همچنین، تنوع سطح مهارت‌های مهندسان—از متخصصان باتجربهٔ گوگل تا فارغ‌التحصیلان تازه‌کار—سبب شده پایگاه کد مرکزی شرکت تا حدی آشفته باشد.

چابکی در توسعه و راه‌اندازی محصول
فرنچ-اوون خاطرنشان کرد که OpenAI هنوز مانند یک شرکت نوپا عمل می‌کند، مشابه فضای متا (فیس‌بوک) در سال‌های اولیه با شعار «سریع حرکت کن و قواعد را بشکن». جالب آنکه بسیاری از کارمندان فعلی OpenAI سابقاً در متا مشغول بوده‌اند.

او نمونهٔ موفقیت‌آمیز این چابکی را راه‌اندازی Codex در تنها هفت هفته توصیف کرد—پروژه‌ای که با تلاش بی‌وقفهٔ تیمی متشکل از هشت مهندس، چهار محقق، دو طراح، دو کارمند عملیات و یک مدیر محصول به سرانجام رسید. نتیجه شگفت‌انگیز بود: «هرگز محصولی ندیده بودم که صرفاً با ظهور در یک نوار ابزار، به‌سرعت تا این حد مورد استقبال قرار گیرد. این، قدرت ChatGPT است.»

رازداری و حساسیت به فضای عمومی
OpenAI شرکتی بسیار محافظه‌کار در افشای اطلاعات است و فرهنگ رازداری شدیدی بر آن حاکم است. بااین‌حال، به گفتهٔ فرنچ-اوون، این شرکت به‌شدت فضای مجازی (به‌ویژه توییتر) را رصد می‌کند و واکنش‌های سریعی به محتوای وایرال نشان می‌دهد. به طنز گفته بود: «یکی از دوستانم می‌گفت OpenAI با لرزش‌های توییتر اداره می‌شود!»

باور غلط رایج دربارهٔ ایمنی هوش مصنوعی
به گفتهٔ او، بزرگترین سوءتفاهم دربارهٔ OpenAI این است که گویا این شرکت به مسائل ایمنی بی‌توجه است. درحالی که بخش قابل‌توجهی از تمرکز داخلی معطوف به خطرات عملی مانند «تبلیغ خشونت، سوءاستفاده، تقویت سوگیری‌ها، ساخت سلاح‌های بیولوژیکی و خودآزاری کاربران» است. البته پژوهش‌هایی دربارهٔ تأثیرات بلندمدت هوش مصنوعی نیز در جریان است، چراکه امروزه صدها میلیون نفر از مدل‌های زبانی OpenAI برای اهداف حساسی مانند مشاورهٔ پزشکی استفاده می‌کنند.

نتیجه‌گیری: رقابت در سطح جهانی
با توجه به نظارت دقیق دولت‌ها و رقبای فناوری، OpenAI در موقعیتی حساس قرار دارد. همان‌طور که فرنچ-اوون می‌گوید: «شرایط، پرریسک به نظر می‌رسد.»

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا