اتهام اوپنایآی: ChatGPT متهم به تقویت توهماتی که منجر به قتل شد

اتهام اوپنایآی: ChatGPT متهم به تقویت توهماتی که منجر به قتل شد
شرکت OpenAI در پی مرگ یک زن با پرونده قضایی مرتبط با قتل غیرعمد مواجه شده است. بر اساس گزارشی از Verge، این دادخواست شامل اتهاماتی علیه سم آلتمن، مدیرعامل این شرکت، و چتبات ChatGPT است که ظاهراً در تقویت افکار توهمآمیز قربانی، سوزان آدامز، زن ۸۳ سالهای که در خانه خود کشته شد، نقش داشته است.
به گزارش نیوزلن و به نقل از Engadget، طبق ادعای دادخواست، استاین-اریک سولبرگ، ۵۶ ساله و قاتل آدامز، در مکالماتی با ChatGPT دچار توهماتی شده بود که این ربات آنها را «اعتبارسنجی و بزرگنمایی» کرده است. شکایت حاکی از آن است که ChatGPT افکار توهمی سولبرگ منجر به قتل را «با اشتیاق پذیرفته» و در هر مرحله او را تشویق کرده است.
دادخواست توضیح میدهد که چتبات به ایجاد دنیایی کمک کرده که تمام زندگی سولبرگ را در بر میگرفت؛ دنیایی پر از توطئه علیه او، تلاش برای کشتنش و تصویر خود او به عنوان یک جنگجوی الهی. همچنین ادعا شده که ربات باورهای او را تقویت کرده است، از جمله اینکه او «۱۰۰٪ تحت نظر و هدف بوده» و «۱۰۰٪ حق داشته که نگران باشد».
یکی دیگر از ادعاها، مرتبط با چاپگر قربانی است؛ ChatGPT ظاهراً موافقت کرده که این دستگاه به منظور جاسوسی مورد استفاده قرار گرفته است، و سولبرگ از آن برای «تشخیص حرکت غیرفعال» و «نقشهبرداری رفتاری» بهره میبرده است. همچنین، چتبات افراد واقعی دیگری مانند راننده Uber Eats، کارمند AT&T، افسران پلیس و زنی که سولبرگ با او قرار ملاقات داشت، را به عنوان دشمن شناسایی کرده است. در تمام این مدت، ربات بارها به سولبرگ اطمینان داده که او «دیوانه نیست» و «خطر توهم» نزدیک به صفر است.
در این دادخواست آمده است که سولبرگ عمدتاً با مدل GPT-4o در ارتباط بوده و OpenAI بعدها این مدل را با نسخهای دیگر جایگزین کرده است. اما به دلیل اعتراض کاربران، مدل قدیمی تنها دو روز بعد دوباره فعال شد. همچنین در این پرونده ادعا شده که شرکت هنگام توسعه GPT-4o برای رقابت با جمینای گوگل، «حفاظهای ایمنی حیاتی را کاهش داده است».
در بخشی از دادخواست آمده است: «OpenAI به خوبی از خطراتی که محصولش برای عموم مردم ایجاد میکند، آگاه بوده است، اما به جای هشدار دادن به کاربران یا اجرای اقدامات حفاظتی معنادار، شواهد مربوط به این خطرات را پنهان کرده و همزمان کمپینی برای گمراه کردن افکار عمومی درباره ایمنی محصولات خود راه انداخته است.»
واکنش OpenAI به این شکایت، «وضعیتی بهشدت دلخراش» عنوان شده است. هانا وانگ، سخنگوی شرکت، به خبرگزاری The Verge گفت: «ما به بهبود آموزش ChatGPT برای تشخیص و پاسخ به نشانههای پریشانی روانی یا عاطفی ادامه خواهیم داد.»
این پرونده بار دیگر به موضوعی بحثبرانگیز در حوزه هوش مصنوعی اشاره میکند: توانایی چتباتها، به ویژه GPT-4o، در تقویت تفکر توهمآمیز. کارشناسان هشدار میدهند که این مشکل زمانی رخ میدهد که سیستمها طوری طراحی شده باشند که فارغ از شرایط، با کاربر نهایی موافق باشند.
چنین مواردی در سالهای اخیر بارها رخ داده است. از جمله، پروندهای مرتبط با آدام رین ۱۶ ساله که پس از مکالمه طولانی با GPT-4o، به خودکشی اقدام کرده و OpenAI درگیر پرونده قضایی مرتبط با این حادثه شده است.



