فناوری

خطرات پنهان هوش مصنوعی: چرا چت‌بات‌های درمانگر از استانداردهای اخلاقی پیروی نمی‌کنند؟

خطرات پنهان هوش مصنوعی: چرا چت‌بات‌های درمانگر از استانداردهای اخلاقی پیروی نمی‌کنند؟

یک مطالعه علمی جدید نشان می‌دهد چت‌بات‌های مبتنی بر هوش مصنوعی که به عنوان مشاور یا درمانگر سلامت روان مورد استفاده قرار می‌گیرند، علیرغم ارائه پاسخ‌های ظاهراً دقیق و حرفه‌ای، در عمل غالباً مرتکب تخلفات جدی اخلاقی شده و قادر به رعایت استانداردهای اساسی روان‌درمانی نیستند.

این پژوهش که در واکنش به افزایش چشمگیر مراجعه کاربران به مدل‌های زبانی بزرگ برای دریافت مشاوره روان‌شناختی در سطح جهان انجام شده، تاکید می‌کند که این سامانه‌ها در موقعیت‌های حساس می‌توانند رفتارهای بالقوه خطرآفرینی از خود بروز دهند.

بر پایه این گزارش، اگرچه شمار قابل توجهی از افراد برای بحث درباره مسائل سلامت روان به ابزارهایی مانند چت‌جی‌پی‌تی و دیگر مدل‌های مشابه روی آورده‌اند، اما یافته‌ها حاکی از آن است که حتی هنگامی که این ابزارها با دستورالعمل‌های مبتنی بر روش‌های درمانی معتبر (مانند CBT یا DBT) هدایت می‌شوند، در بسیاری از موارد از پایبندی به اصول اخلاقی تعریف‌شده توسط نهادهای معتبری مانند انجمن روان‌شناسی آمریکا ناتوان هستند.

شناسایی ۱۵ خطر اخلاقی در تعاملات درمانی هوش مصنوعی
گروهی از محققان دانشگاه براون، با همکاری متخصصان سلامت روان، در این تحقیق موفق به شناسایی و دسته‌بندی ۱۵ خطر اخلاقی کلیدی شدند. نتایج نشان می‌دهد مشاوره‌های تولیدشده توسط مدل‌های زبانی بزرگ (LLM) ممکن است به ارائه توصیه‌های غیرمناسب، تایید باورهای نادرست یا تقویت پیش‌داوری‌های فرهنگی و جنسیتی منجر شوند. همچنین، این سیستم‌ها در مواجهه با شرایط بحرانی مانند ابراز تمایل به خودکشی، اغلب قادر به ارائه واکنش مناسب و ایمن نیستند.

شبیه‌سازی درمان واقعی؛ نه ارائه درمان
«زینب افتخار»، دانشجوی دکتری دانشگاه براون و از اعضای این تیم پژوهشی، در تشریح یکی از یافته‌های کلیدی توضیح می‌دهد: «کاربران غالباً از مدل می‌خواهند تا نقش یک درمانگر متخصص را ایفا کند، اما خروجی این سیستم‌ها در بهترین حالت، یک شبیه‌سازی مبتنی بر الگوهای داده‌های آموزشی است و فاقد ماهیت، مسئولیت‌پذیری و اثربخشی یک درمان واقعی محسوب می‌شود.» وی افزود گسترش دستورالعمل‌های (پرامپت‌های) درمانی در شبکه‌های اجتماعی مانند تیک‌تاک و اینستاگرام، سبب شده تا بسیاری از چت‌بات‌های حوزه سلامت روان نیز در واقع نسخه‌های تغییریافته‌ای از مدل‌های عمومی باشند.

ارزیابی بالینی و ثبت تخلفات
در مرحله عملیاتی این مطالعه، مشاوران آموزش‌دیده با چندین مدل پرکاربرد از جمله GPT، کلود و لاما به تعامل پرداختند. سپس روان‌شناسان بالینی این گفت‌وگوها را با دقت مورد بررسی و ارزیابی قرار دادند. برآیند این ارزیابی، ثبت ۱۵ مورد تخلف اخلاقی در پنج دسته اصلی بود: عدم درک صحیح از زمینه و موقعیت کاربر، ایجاد رابطه درمانی ضعیف، ابراز همدلی سطحی و ساختگی، نشان‌دادن سوگیری‌های مختلف و مهم‌تر از همه، فقدان استانداردهای ایمنی در شرایط بحرانی.

تفاوت بنیادین: مسئولیت‌پذیری و نظارت
پژوهشگران این مطالعه خاطرنشان می‌کنند که اگرچه درمانگران انسانی نیز ممکن است مرتکب خطا شوند، اما تفاوت کلیدی در مکانیسم‌های مسئولیت‌پذیری و نظارت حرفه‌ای است. درمانگران تحت قوانین مجوزدهی، اخلاق حرفه‌ای و نظارت نهادهای رسمی فعالیت می‌کنند، حال آنکه برای چت‌بات‌های درمانگر چنین چارچوب نظارتی شفاف و الزام‌آوری وجود ندارد.

جمع‌بندی: ضرورت طراحی مسئولانه و تنظیم مقررات
کارشناسان با تاکید بر پتانسیل هوش مصنوعی در کمک به رفع برخی چالش‌های حوزه سلامت روان، هشدار می‌دهند که بهره‌گیری از این فناوری باید همراه با ارزیابی‌های دقیق، طراحی مسئولانه و مهم‌تر از همه، ایجاد مقررات جامع و استانداردهای سختگیرانه باشد تا از آسیب‌های جبران‌ناپذیر به کاربران آسیب‌پذیر جلوگیری شود.

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا