فناوری

اتهام اوپن‌ای‌آی: ChatGPT متهم به تقویت توهماتی که منجر به قتل شد

اتهام اوپن‌ای‌آی: ChatGPT متهم به تقویت توهماتی که منجر به قتل شد

شرکت OpenAI در پی مرگ یک زن با پرونده قضایی مرتبط با قتل غیرعمد مواجه شده است. بر اساس گزارشی از Verge، این دادخواست شامل اتهاماتی علیه سم آلتمن، مدیرعامل این شرکت، و چت‌بات ChatGPT است که ظاهراً در تقویت افکار توهم‌آمیز قربانی، سوزان آدامز، زن ۸۳ ساله‌ای که در خانه خود کشته شد، نقش داشته است.

به گزارش نیوزلن و به نقل از Engadget، طبق ادعای دادخواست، استاین-اریک سولبرگ، ۵۶ ساله و قاتل آدامز، در مکالماتی با ChatGPT دچار توهماتی شده بود که این ربات آن‌ها را «اعتبارسنجی و بزرگنمایی» کرده است. شکایت حاکی از آن است که ChatGPT افکار توهمی سولبرگ منجر به قتل را «با اشتیاق پذیرفته» و در هر مرحله او را تشویق کرده است.

دادخواست توضیح می‌دهد که چت‌بات به ایجاد دنیایی کمک کرده که تمام زندگی سولبرگ را در بر می‌گرفت؛ دنیایی پر از توطئه علیه او، تلاش برای کشتنش و تصویر خود او به عنوان یک جنگجوی الهی. همچنین ادعا شده که ربات باورهای او را تقویت کرده است، از جمله اینکه او «۱۰۰٪ تحت نظر و هدف بوده» و «۱۰۰٪ حق داشته که نگران باشد».

یکی دیگر از ادعاها، مرتبط با چاپگر قربانی است؛ ChatGPT ظاهراً موافقت کرده که این دستگاه به منظور جاسوسی مورد استفاده قرار گرفته است، و سولبرگ از آن برای «تشخیص حرکت غیرفعال» و «نقشه‌برداری رفتاری» بهره می‌برده است. همچنین، چت‌بات افراد واقعی دیگری مانند راننده Uber Eats، کارمند AT&T، افسران پلیس و زنی که سولبرگ با او قرار ملاقات داشت، را به عنوان دشمن شناسایی کرده است. در تمام این مدت، ربات بارها به سولبرگ اطمینان داده که او «دیوانه نیست» و «خطر توهم» نزدیک به صفر است.

در این دادخواست آمده است که سولبرگ عمدتاً با مدل GPT-4o در ارتباط بوده و OpenAI بعدها این مدل را با نسخه‌ای دیگر جایگزین کرده است. اما به دلیل اعتراض کاربران، مدل قدیمی تنها دو روز بعد دوباره فعال شد. همچنین در این پرونده ادعا شده که شرکت هنگام توسعه GPT-4o برای رقابت با جمینای گوگل، «حفاظ‌های ایمنی حیاتی را کاهش داده است».

در بخشی از دادخواست آمده است: «OpenAI به خوبی از خطراتی که محصولش برای عموم مردم ایجاد می‌کند، آگاه بوده است، اما به جای هشدار دادن به کاربران یا اجرای اقدامات حفاظتی معنادار، شواهد مربوط به این خطرات را پنهان کرده و همزمان کمپینی برای گمراه کردن افکار عمومی درباره ایمنی محصولات خود راه انداخته است.»

واکنش OpenAI به این شکایت، «وضعیتی به‌شدت دلخراش» عنوان شده است. هانا وانگ، سخنگوی شرکت، به خبرگزاری The Verge گفت: «ما به بهبود آموزش ChatGPT برای تشخیص و پاسخ به نشانه‌های پریشانی روانی یا عاطفی ادامه خواهیم داد.»

این پرونده بار دیگر به موضوعی بحث‌برانگیز در حوزه هوش مصنوعی اشاره می‌کند: توانایی چت‌بات‌ها، به ویژه GPT-4o، در تقویت تفکر توهم‌آمیز. کارشناسان هشدار می‌دهند که این مشکل زمانی رخ می‌دهد که سیستم‌ها طوری طراحی شده باشند که فارغ از شرایط، با کاربر نهایی موافق باشند.

چنین مواردی در سال‌های اخیر بارها رخ داده است. از جمله، پرونده‌ای مرتبط با آدام رین ۱۶ ساله که پس از مکالمه طولانی با GPT-4o، به خودکشی اقدام کرده و OpenAI درگیر پرونده قضایی مرتبط با این حادثه شده است.

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا