خطرات پنهان هوش مصنوعی: چرا چتباتهای درمانگر از استانداردهای اخلاقی پیروی نمیکنند؟

خطرات پنهان هوش مصنوعی: چرا چتباتهای درمانگر از استانداردهای اخلاقی پیروی نمیکنند؟
یک مطالعه علمی جدید نشان میدهد چتباتهای مبتنی بر هوش مصنوعی که به عنوان مشاور یا درمانگر سلامت روان مورد استفاده قرار میگیرند، علیرغم ارائه پاسخهای ظاهراً دقیق و حرفهای، در عمل غالباً مرتکب تخلفات جدی اخلاقی شده و قادر به رعایت استانداردهای اساسی رواندرمانی نیستند.
این پژوهش که در واکنش به افزایش چشمگیر مراجعه کاربران به مدلهای زبانی بزرگ برای دریافت مشاوره روانشناختی در سطح جهان انجام شده، تاکید میکند که این سامانهها در موقعیتهای حساس میتوانند رفتارهای بالقوه خطرآفرینی از خود بروز دهند.
بر پایه این گزارش، اگرچه شمار قابل توجهی از افراد برای بحث درباره مسائل سلامت روان به ابزارهایی مانند چتجیپیتی و دیگر مدلهای مشابه روی آوردهاند، اما یافتهها حاکی از آن است که حتی هنگامی که این ابزارها با دستورالعملهای مبتنی بر روشهای درمانی معتبر (مانند CBT یا DBT) هدایت میشوند، در بسیاری از موارد از پایبندی به اصول اخلاقی تعریفشده توسط نهادهای معتبری مانند انجمن روانشناسی آمریکا ناتوان هستند.
شناسایی ۱۵ خطر اخلاقی در تعاملات درمانی هوش مصنوعی
گروهی از محققان دانشگاه براون، با همکاری متخصصان سلامت روان، در این تحقیق موفق به شناسایی و دستهبندی ۱۵ خطر اخلاقی کلیدی شدند. نتایج نشان میدهد مشاورههای تولیدشده توسط مدلهای زبانی بزرگ (LLM) ممکن است به ارائه توصیههای غیرمناسب، تایید باورهای نادرست یا تقویت پیشداوریهای فرهنگی و جنسیتی منجر شوند. همچنین، این سیستمها در مواجهه با شرایط بحرانی مانند ابراز تمایل به خودکشی، اغلب قادر به ارائه واکنش مناسب و ایمن نیستند.
شبیهسازی درمان واقعی؛ نه ارائه درمان
«زینب افتخار»، دانشجوی دکتری دانشگاه براون و از اعضای این تیم پژوهشی، در تشریح یکی از یافتههای کلیدی توضیح میدهد: «کاربران غالباً از مدل میخواهند تا نقش یک درمانگر متخصص را ایفا کند، اما خروجی این سیستمها در بهترین حالت، یک شبیهسازی مبتنی بر الگوهای دادههای آموزشی است و فاقد ماهیت، مسئولیتپذیری و اثربخشی یک درمان واقعی محسوب میشود.» وی افزود گسترش دستورالعملهای (پرامپتهای) درمانی در شبکههای اجتماعی مانند تیکتاک و اینستاگرام، سبب شده تا بسیاری از چتباتهای حوزه سلامت روان نیز در واقع نسخههای تغییریافتهای از مدلهای عمومی باشند.
ارزیابی بالینی و ثبت تخلفات
در مرحله عملیاتی این مطالعه، مشاوران آموزشدیده با چندین مدل پرکاربرد از جمله GPT، کلود و لاما به تعامل پرداختند. سپس روانشناسان بالینی این گفتوگوها را با دقت مورد بررسی و ارزیابی قرار دادند. برآیند این ارزیابی، ثبت ۱۵ مورد تخلف اخلاقی در پنج دسته اصلی بود: عدم درک صحیح از زمینه و موقعیت کاربر، ایجاد رابطه درمانی ضعیف، ابراز همدلی سطحی و ساختگی، نشاندادن سوگیریهای مختلف و مهمتر از همه، فقدان استانداردهای ایمنی در شرایط بحرانی.
تفاوت بنیادین: مسئولیتپذیری و نظارت
پژوهشگران این مطالعه خاطرنشان میکنند که اگرچه درمانگران انسانی نیز ممکن است مرتکب خطا شوند، اما تفاوت کلیدی در مکانیسمهای مسئولیتپذیری و نظارت حرفهای است. درمانگران تحت قوانین مجوزدهی، اخلاق حرفهای و نظارت نهادهای رسمی فعالیت میکنند، حال آنکه برای چتباتهای درمانگر چنین چارچوب نظارتی شفاف و الزامآوری وجود ندارد.
جمعبندی: ضرورت طراحی مسئولانه و تنظیم مقررات
کارشناسان با تاکید بر پتانسیل هوش مصنوعی در کمک به رفع برخی چالشهای حوزه سلامت روان، هشدار میدهند که بهرهگیری از این فناوری باید همراه با ارزیابیهای دقیق، طراحی مسئولانه و مهمتر از همه، ایجاد مقررات جامع و استانداردهای سختگیرانه باشد تا از آسیبهای جبرانناپذیر به کاربران آسیبپذیر جلوگیری شود.



