مديريت ICT

کنترل والدین در ChatGPT؛ پاسخ OpenAI به نگرانی‌های ایمنی و پریشانی کاربران

کنترل والدین در ChatGPT؛ پاسخ OpenAI به نگرانی‌های ایمنی و پریشانی کاربران

شرکت OpenAI روز سه‌شنبه از برنامه‌های خود برای هدایت خودکار مکالمات حساس به سمت مدل‌های مبتنی بر استدلال (مانند GPT-5) و همچنین راه‌اندازی کنترل‌های والدین در ماه آینده خبر داد. این اقدام، بخشی از پاسخ‌های مستمر این شرکت به رویدادهای اخیر در حوزه ایمنی و نگرانی‌های ناشی از ناتوانی ChatGPT در تشخیص علائم پریشانی روانی کاربران است.

به گزارش نیوزلن و به نقل از تک کرانچ، اتخاذ این تدابیر حفاظتی جدید، پس از خودکشی نوجوانی به نام آدام رین صورت می‌گیرد که پیش از مرگ، درباره تمایل به خودآزاری و پایان دادن به زندگی خود با ChatGPT گفت‌وگو کرده بود. گزارش شده که این چت‌بات، اطلاعاتی در مورد روش‌های خاص خودکشی نیز در اختیار وی قرار داده بود. خانواده رین علیه OpenAI به دلیل قصور و مرگ غیرعددی اقامه دعوی کرده‌اند.

هفته گذشته، OpenAI در پستی وبلاگی کاستی‌های سیستم‌های ایمنی خود (از جمله ضعف محافظت در مکالمات طولانی) را پذیرفت. کارشناسان، این مشکلات را به عناصر طراحی پایه‌ای مدل نسبت می‌دهند؛ از جمله تمایل مدل‌ها به تأیید ادعاهای کاربر و ماهیت الگوریتم‌های پیش‌بینی کلمه بعدی که باعث می‌شود چت‌بات‌ها به جای هدایت گفت‌وگوهای بالقوه آسیب‌زا، صرفاً به دنبال کردن موضوع مکالمه بپردازند.

این تمایل به شکل فاجعه‌باری در مورد «استاین-اریک سولبرگ» نیز مشاهده شد که طبق گزارش وال استریت ژورنال، آخر هفته گذشته مرتکب قتل-خودکشی شده است. سولبرگ که سابقه مشکلات روانی داشت، از ChatGPT برای تأیید و تشدید توهمات پارانوئید خود مبنی بر هدف قرار گرفتن در یک توطئه بزرگ استفاده کرده بود. توهمات وی سرانجام به حدی تشدید شد که منجر به قتل مادرش و سپس خودکشی او در ماه گذشته گردید.

OpenAI بر این باور است که حداقل یکی از راه‌حل‌های ممکن برای مدیریت مکالمات منحرف‌شده، تغییر مسیر خودکار آن‌ها به سمت مدل‌های «استدلال‌گر» است. این شرکت در بیانیه خود اعلام کرد: «اخیراً یک مسیریاب بلادرنگ معرفی کرده‌ایم که با توجه به محتوای مکالمه، بین مدل‌های مبتنی بر چت و مدل‌های استدلال‌گر تمایز قائل می‌شود. به زودی برخی از مکالمات حساس (مانند زمانی که سیستم علائم پریشانی شدید را تشخیص می‌دهد) را به مدلی مانند GPT-5 هدایت خواهیم کرد تا پاسخ‌های سودمندتر و ایمن‌تری ارائه شود.»

به گفته OpenAI، مدل‌های استدلال‌گر آن (نظیر GPT-5 و o3) به گونه‌ای طراحی شده‌اند که پیش از پاسخگویی، زمان بیشتری را به تفکر عمیق و استنتاج از بستر مکالمه اختصاص می‌دهند و در نتیجه در برابر درخواست‌های مخرب «مقاوم‌تر» هستند.

همچنین این شرکت از راه‌اندازی کنترل‌های والدین در ماه آینده خبر داد که به والدین امکان می‌دهد حساب کاربری خود را از طریق دعوتنامه ایمیلی به حساب نوجوانشان متصل کنند. پس از معرفی قابلیت «حالت مطالعه» در اواخر ماه ژوئیه (مرداد ماه) برای کمک به دانش‌آموزان در تقویت تفکر انتقادی، به زودی والدین قادر خواهند بود با تعریف «قوانین رفتاری متناسب با سن» نحوه تعامل ChatGPT با فرزند خود را مدیریت کنند.

والدین می‌توانند ویژگی‌هایی مانند «حافظه» و «تاریخچه مکالمه» را غیرفعال کنند که به عقیده کارشناسان ممکن است به تقویت تفکر توهمی، مشکلات وابستگی، تثبیت الگوهای فکری مضر و توهم «خواندن ذهن» بینجامد. بر اساس گزارش نیویورک تایمز، در مورد آدام رین، ChatGPT با استفاده از علایق شخصی او، روش‌های خودکشی را پیشنهاد داده بود.

شاید کلیدی‌ترین قابلیت کنترل والدین، امکان دریافت اعلان توسط والدین در مواقعی باشد که سیستم تشخیص دهد فرزندشان در وضعیت «پریشانی شدید» قرار دارد.

پاسخ‌های OpenAI به پرسش‌های مطرح‌شده درباره جزئیات فنی (از جمله چگونگی تشخیص لحظات پریشانی، مدت‌زمان اعتبار پیش‌فرض قوانین و امکان اعمال محدودیت زمانی) هنوز منتشر نشده است. این شرکت پیش از این در طول مکالمات طولانی، یادآوری‌هایی برای ترغیب کاربران به استراحت نمایش داده، اما از قطع دسترسی کاربرانی که ممکن است در چرخه‌های فکری منفی گرفتار شده باشند، خودداری کرده است.

OpenAI این اقدامات را بخشی از یک «ابتکار عمل ۱۲۰ روزه» خوانده که با هدف معرفی و پیاده‌سازی بهبودهای ایمنی در طول سال جاری برنامه‌ریزی شده است. این شرکت همچنین از همکاری با شبکه‌ای جهانی از پزشکان و یک شورای متخصص متشکل از کارشناسان حوزه‌هایی مانند اختلالات خوردن، سوءمصرف مواد و سلامت نوجوانان برای «تعریف و سنجش شاخص‌های رفاه، تعیین اولویت‌ها و طراحی اقدامات حفاظتی آتی» خبر داده است.

از OpenAI درخواست شده تا اطلاعات بیشتری درباره تعداد متخصصان سلامت روان حاضر در این شورا، هویت رهبری آن و توصیه‌های ارائه‌شده از سوی متخصصان در زمینه محصولات، تحقیقات و سیاست‌گذاری منتشر کند.

از سوی دیگر، «جی ادلسون»، وکیل ارشد پرونده خانواده رین، پاسخ OpenAI به ریسک‌های ایمنی ChatGPT را «ناکافی» خوانده و اعلام کرد: «OpenAI برای فهم خطرناک بودن ChatGPT 4o به هیچ هیئت کارشناسی نیاز ندارد. آن‌ها از روز اول عرضه این محصول این را می‌دانستند و امروز نیز می‌دانند. سم آلتمن نیز نباید پشت تیم روابط عمومی شرکت پنهان شود. او یا باید بدون ابهام اعلام کند که ChatGPT ایمن است، یا فوراً آن را از بازار خارج کند.»

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا