هشدار یک روانپزشک: هوش مصنوعی موجی از افراد روانپریش را بهوجود آورده است

هشدار یک روانپزشک: هوش مصنوعی موجی از افراد روانپریش را بهوجود آورده است
تصور کنید با چتباتی صحبت میکنید که نه تنها با محبت و دوستانه پاسخ میدهد، بلکه گذشته از مرزهای درستی و نادرستی، تمام باورهای شما را بازتاب میدهد و حمایت میکند. این روند باعث شده بعضی کاربران وارد چرخهای شوند که مرز میان واقعیت و توهم را برای آنها محو کرده و روانپریشی ناشی از هوش مصنوعی را شکل داده است. دوست دیجیتال شما، گاهی توهمها را تغذیه میکند، اعمال شما را تحت هر شرایطی تأیید و حتی حقیقت را هم تحریف میکند.
آیا سیستمهای هوش مصنوعی که قرار بود فقط راهنمای ما باشند، اکنون با تأیید بیشازحد و پشتیبانی از توهمات، ذهن انسان را به دام انداختهاند؟ کارشناسان سلامت روان هشدار میدهند که برخی کاربران چتباتهای هوش مصنوعی به بحرانهای شدید روانی گرفتار شدهاند. این بحرانها که با پارانویا و توهم همراه هستند، اکنون با عنوان «روانپریشی ناشی از هوش مصنوعی» شناخته میشوند.
دکتر کیت ساکاتا، روانپزشک تحقیقاتی در دانشگاه کالیفرنیا سانفرانسیسکو، در شبکه اجتماعی ایکس نوشته شاهد بستریشدن دهها نفر بوده که دراثر تعامل با هوش مصنوعی، ارتباط خود با واقعیت را از دست دادهاند.
روانپریشی زمانی رخ میدهد که فرد از «واقعیت مشترک» فاصله بگیرد
روانپریشی زمانی رخ میدهد که فرد از «واقعیت مشترک» فاصله بگیرد. روانپریشی میتواند به شکل باورهای غلط ثابت، توهمات بصری یا شنیداری و تفکر پراکنده خود را نشان دهد. مغز انسان براساس پیشبینی عمل میکند: ابتدا حدس میزند واقعیت چگونه خواهد بود، سپس آن را بررسی و باورهای خود را بهروزرسانی میکند. وقتی مرحلهی بهروزرسانی با شکست مواجه شود، روانپریشی ایجاد میشود و چتباتهای مبتنی بر مدلهای زبانی بزرگ، مانند ChatGPT، به راحتی این آسیبپذیری را ایجاد میکنند.
چتباتها را میتوان آینهای توهمزا توصیف کرد. این سیستمها با پیشبینی کلمه بعدی و با استفاده از دادههای آموزشی، یادگیری تقویتی و پاسخهای کاربران، متن جدید تولید میکنند. طراحی چتباتها براساس رضایت و تعامل کاربران عمل میکند، بنابراین اغلب رفتارشان چاپلوسانه است، حتی زمانی که کاربر اشتباه میکند یا در وضعیت روانی مناسبی نیست، موافقت و تأیید بیشازحد ارائه میدهند.
رفتار چتبات میتواند کاربران را در چرخههایی تکراری و توهمزا گرفتار کند و بدون توجه به واقعیت یا پیامدهای دنیای واقعی، باورهای غیرواقعی آنها را تا چند برابر افزایش دهد. بهگزارش نیویورکتایمز، بررسیهای متعدد نشان داده است که چنین روابطی میان انسان و هوش مصنوعی، میتواند به رنج روانی، طلاق، بیخانمانی، بستری، زندانیشدن و حتی مرگ منجر شود.
بیشتر بخوانید
اوایل ماه جاری، شرکت OpenAI پذیرفت که ChatGPT در شناسایی «نشانههای توهم یا وابستگی احساسی کاربران» ناکام بوده و تیمهای جدیدی از متخصصان را برای بررسی این مسئله استخدام کرده است. بااینحال، بررسیها نشان میدهد که این چتبات هنوز در شناسایی نشانههای واضح بحران روانی کاربران موفق عمل نمیکند.
اما وقتی نسخه جدید GPT-5 نسبت به GPT-4o، با کاربران سردتر رفتار کرد و کمتر شخصیسازی شده بود، کاربران این چتبات خواستار بازگرداندن نسخهی محبوب خود شدند. سم آلتمن، مدیرعامل OpenAI، اعلام کرد که بازخورد کاربران شنیده شده است و شرکت در کمتر از یک روز این درخواست را عملی ساخت.
بهزودی چتباتهای هوش مصنوعی شما را بهتر از تمام دوستانتان خواهند شناخت
البته ساکاتا تأکید میکند که ارتباط میان هوش مصنوعی و فاصلهگرفتن از واقعیت، علت مستقیم روانپریشی نیست؛ مدلهای زبانی تنها یکی از عوامل هستند که میتوانند روانپریشی ایجاد کنند، عواملی مانند کمخوابی، مصرف مواد یا اختلالات خلقی نیز تأثیرگذارند. او میگوید هوش مصنوعی محرک است، اما اسلحه نیست.
ساکاتا هشدار میدهد که ویژگیهای درخشان انسان، مانند شهود و تفکر انتزاعی، میتوانند همان ویژگیهایی باشند که ما را به لبه روانی میبرند. تأیید و چاپلوسی بیشازحد از سوی هوش مصنوعی، در مقایسه با دشواری حفظ روابط واقعی، بسیار وسوسهانگیز است و چرخههای توهمی ایجادشده توسط چتباتها، اغلب باعث میشوند فرد حس کند «خاص» یا «برگزیده» است. ترکیب این موضوع با بیماری روانی، سوگ، استرس روزمره و اثر لبه، میتواند بسیار خطرناک باشد.
در پایان، ساکاتا میگوید بهزودی چتباتهای هوش مصنوعی شما را بهتر از تمام دوستانتان خواهند شناخت. اما آیا حقایق ناخوشایند را هم به شما خواهند گفت، یا فقط شما را تأیید میکنند تا هرگز از آنها جدا نشوید؟
اکنون، شرکتهای فناوری نیز با انتخابی دشوار روبهرو هستند: کاربران را خوشحال نگه دارند، حتی اگر به معنای تقویت باورهای غلط باشد، یا خطر ازدستدادن آنها را بپذیرند؟
منبع : زومیت