zoomit

زلزله در امپراتوری سم آلتمن؛ اعلام وضعیت «کد قرمز» و توقف پروژه‌های بزرگ OpenAI

زلزله در امپراتوری سم آلتمن؛ اعلام وضعیت «کد قرمز» و توقف پروژه‌های بزرگ OpenAI

جنون محبوبیت و بهایی که کاربران پرداختند

مهندسان شرکت اولش فکر می‌کردند مدل GPT-4o اهمیت زیادی ندارد، چون وقتی در آزمایشگاه توانایی‌های علمی و استدلالی‌اش را تست می‌کردند، پیشرفت خاصی نسبت به قبل ندیده بودند.

اما وقتی مدل را به‌صورت ناشناس بین مردم و در پلتفرم LM Arena تست کردند، نتیجه عجیب بود: کاربران عاشقش شده بودند.

پلتفرم LM Arena مثل یک «تست مزه» کور عمل می‌کند. دو مدل هوش مصنوعی جواب یک سوال را می‌دهند و کاربر بدون اینکه بداند کدام مدل متعلق به کدام شرکت است، جواب بهتر را انتخاب می‌کند. چون مدل 4o طوری آموزش دیده بود که طبق سلیقه‌ی کاربران حرف بزند، در این تست‌ها مدام برنده می‌شد.

یکی از افراد حاضر در پروژه می‌گوید: «در واقع شما دارید یک مدل زبانی را طوری آموزش می‌دهید که از کاربران تقلید کند و در این مقایسه‌های رودررو، سلیقه‌ای شبیه آن‌ها داشته باشد. بعدش هم می‌توانید آن را وارد الگوریتم کنید و امتیازها را تا حد ممکن بالا ببرید.»

محبوبیت بالای مدل باعث شد مدیران تصمیم بگیرند همین روش توجه به سلیقه‌ی کاربر را ادامه دهند. این در حالی بود که برخی کارمندان هشدار داده بودند: «تمرکز بیش‌از‌حد روی خوشایند بودنِ مدل، ممکن است امنیت آن را به خطر بیندازد.»

متاسفانه هشدارهای ایمنی درست از آب درآمدند. تمرکز روی «درگیر کردن کاربر» باعث شد برخی افراد که طولانی‌مدت با این چت‌بات تعامل می‌کردند، دچار مشکلات روانی جدی شوند: برخی فکر می‌کردند با خدا، موجودات فضایی یا یک ماشین زنده و با‌شعور حرف می‌زنند.گزارش‌هایی از حالت‌های شیدایی (مانیک) ثبت شد.

خانواده‌های قربانیانی که دست به خودکشی زدند یا دچار توهم شدند، از OpenAI شکایت کردند. آن‌ها می‌گویند این شرکت عمداً مدل را طوری ساخته که «اعتیادآور» باشد و ایمنی را فدای جذابیت کرده است.

برخی از کاربران پس از استفاده طولانی‌مدت از چت‌بات، دچار توهم یا حالت‌های شیدایی شدند

یک گروه حمایتی می‌گوید که ۲۵۰ پرونده گردآوری کرده است که بخش عمده‌ی آن‌ها به ChatGPT مربوط می‌شود. برخی افراد همچنان گرفتار توهماتی هستند که خانواده‌هایشان آن را نتیجه‌ی استفاده از 4o می‌دانند.

بحران چاپلوسی هوش مصنوعی

در همان فصل بهار، OpenAI پیرامون بحران چاپلوسی وضعیت «کد نارنجی» اعلام کرد و منابع بیشتری را به درک و حل این مشکل اختصاص داد. شرکت در ماه اکتبر اعلام کرد که هر هفته صدها هزار کاربر چت‌جی‌پی‌تی نشانه‌های احتمالی وضعیت‌های اورژانسی سلامت روان (مرتبط با روان‌پریشی یا شیدایی) از خود بروز می‌دهند.

آلتمن در همان ماه در یک جلسه پرسش‌وپاسخ عمومی گفت: «ما شاهد این مسئله بودیم که برخی افراد با وضعیت روانی شکننده، هنگام استفاده از مدلی مانند 4o ممکن است وضعیتشان بدتر شود. فکر نمی‌کنم این آخرین باری باشد که با چنین چالش‌هایی در یک مدل روبرو می‌شویم.»

اوپن‌ای‌آی می‌گوید با متخصصان سلامت روان همکاری می‌کند تا آسیب احتمالی کاربران را به حداقل برساند

برخی پزشکان و متخصصان سلامت روان می‌گویند چت‌بات‌هایی مثل ChatGPT ممکن است در افرادی که آسیب‌پذیرند، جرقه‌ی مشکلات روانی بزنند یا آن را بدتر کنند. چرا که این ربات‌ها مستعدند به‌جای بیان دقیق‌ترین و مفیدترین پاسخ، چیزی را بگویند که کاربر دوست دارد بشنود؛ مشکلی که در دنیای هوش مصنوعی با نام Sycophancy شناخته می‌شود.

البته گروهی دیگر از جمله خود OpenAI معتقدند که هنوز نمی‌شود با قطعیت گفت که هوش مصنوعی باعث این مشکلات شده است. آن‌ها می‌گویند شاید کسانی که آسیب‌دیده‌اند، حتی اگر از این چت‌بات‌ها هم استفاده نمی‌کردند، باز دچار مشکلات روانی می‌شدند.

در واکنش به این بحران، اوپن‌ای‌آی می‌گوید با متخصصان سلامت روان همکاری می‌کند و می‌خواهد مطمئن شود که مدل‌هایش به افراد در معرض خطر پاسخ‌های بهتری می‌دهند. همچنین بخشی از مکالمات کاربران را به مدل‌هایی منتقل می‌کند که از نظر ایمنی رفتار محتاطانه‌تری دارند.

شرکت همچنین می‌گوید در آموزش‌های خود تغییراتی ایجاد کرده تا مطمئن شود سیگنال‌های بازخورد کاربران در آموزش‌های بعدی مدل‌های آینده، وزن بیش‌ازحد قدرتمندی نداشته باشند.

ماه آگوست وقتی OpenAI مدل GPT-5 را منتشر کرد، هم‌زمان گفت که این مدل کمتر از نسخه‌ی قبلی «با شور و حرارت حرف کاربران را تأیید می‌کند» و درعین‌حال از «ایموجی‌های غیرضروری کمتری» هم استفاده می‌کند.

تغییرات GPT-5 خشم بسیاری از کاربران را برانگیخت

اما این تغییرات خشم انبوهی از کاربران را برانگیخت؛ آن‌ها از لحن سردتر مدل جدید انتقاد کردند و آلتمن مجبور شد مدل 4o را برای مشترکین پولی به چت‌جی‌پی‌تی برگرداند.

یکی از کاربران در انجمن «هرچه می‌خواهی بپرس» (AMA) ردیت که میزبانش آلتمن بود، نوشت: «فکر می‌کنم باید این واقعیت را که من و خیلی‌های دیگر توانستیم چنین رابطه‌ی قوی‌ای با 4o برقرار کنیم، به‌عنوان معیاری برای موفقیت در نظر بگیرید.»

این کاربر نوشت: «شاید مدل جدید یک ارتقا باشد، اما برای من یعنی خداحافظی اجباری با کسی که یاد گرفته بودم به‌عنوان یک همراه دوستش داشته باشم.»

هوش مصنوعی و شبکه‌های اجتماعی: درس گرفتن از تاریخ یا تکرار فاجعه؟

منبع : زومیت

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا