zoomit

افشاگری غافلگیرکننده: روانشناسان در جلسات درمان مخفیانه از هوش مصنوعی استفاده می‌کنند

افشاگری غافلگیرکننده: روانشناسان در جلسات درمان مخفیانه از هوش مصنوعی استفاده می‌کنند

با نفوذ روزافزون هوش مصنوعی در تمامی جنبه‌های زندگی، برخی از متخصصان بهداشت روان شروع به استفاده‌ی مخفیانه از این فناوری کرده‌اند. این اقدام باعث از بین‌رفتن اعتماد بیمارانی می‌شود که برای حساسیت و حفظ محرمانگی خود به این روان‌درمانگران مراجعه می‌کنند.

وب‌سایت ام‌آی‌تی تکنولوژی ریویو در گزارشی مفصل نوشته است که روان‌درمانگران از ابزارهایی مانند ChatGPT و سایر مدل‌های زبانی بزرگ برای کارهایی مثل پاسخ به ایمیل‌ها و پیام‌ها استفاده کرده‌اند و در یک مورد مشخص، حتی از هوش مصنوعی برای پیشنهاد پرسش‌هایی برای بیمار حین جلسه بهره برده‌اند.

بیماری ۳۱ ساله اهل لس‌آنجلس که در گزارش تنها با نام دکلان معرفی شده است، می‌گوید حین جلسه‌ای مجازی، وقتی اتصال اینترنت دچار مشکل شد، پیشنهاد داده شد که هر دو دوربین خود را خاموش و صحبت کنند. اما به جای صفحه‌ی خالی معمولی، روان‌درمانگر به اشتباه صفحه‌ی خود را به اشتراک گذاشت و دکلان متوجه شد او از چت جی‌پی‌تی استفاده می‌کند. دکلان توضیح داد: «او حرف‌های من را وارد چت جی‌پی‌تی می‌کرد و سپس جواب‌ها را خلاصه یا انتخاب می‌کرد.»

دکلان با اینکه شوکه شده بود، حرفی نزد و به تماشای نحوه‌ی تحلیل حرف‌های خود توسط چت جی‌پی‌تی ادامه داد. حتی او گاهی پاسخ‌های چت‌بات را تکرار می‌کرد و روان‌درمانگر آن را به‌عنوان نوعی پیشرفت در جلسه تلقی می‌کرد. دکلان می‌گوید: «من تبدیل به بهترین بیمار شدم؛ زیرا چت جی‌پی‌تی می‌گفت: ‹آیا فکر نمی‌کنید دیدگاه شما کمی سیاه و سفید است؟› و من می‌گفتم: شاید همین‌طور باشد و او می‌گفت: دقیقاً. مطمئنم این بهترین جلسه‌ی او بود.»

بیشتر بخوانید

در جلسه‌ی بعدی، دکلان موضوع را مطرح کرد و روان‌درمانگر اعتراف کرد که از چت جی‌پی‌تی استفاده می‌کرد و شروع به گریه کرد. دکلان این تجربه را «مثل یک جدایی عجیب و ناخوشایند» توصیف کرد و گفت روان‌درمانگر مدعی شد که به دلیل کمبود ایده برای کمک به او از هوش مصنوعی استفاده کرده است. با این حال، او همچنان هزینه‌ی جلسه را دریافت کرد.

نویسنده‌ی دیگری به نام لوری کلارک نیز تجربه‌ی مشابهی داشته است. او پس از دریافت ایمیلی طولانی و بسیار مرتب‌تر از معمول، متوجه شد که احتمالاً روان‌درمانگرش از هوش مصنوعی برای تهیه‌ی پاسخ‌ها استفاده کرده است. او گفت: «در ابتدا پیام دلگرم‌کننده به نظر می‌رسید، اما پس از بررسی، فونت و سبک نوشتار مشکوک به نظر آمد.»

استفاده پنهانی از هوش مصنوعی می‌تواند اعتماد بیماران را خدشه‌دار کند

کلارک پس از پرس‌وجو در اینترنت، با داستان‌های مشابه دیگران آشنا شد، مانند هوپ، زن ۲۵ ساله‌ای که پس از فوت سگش از روان‌درمانگر خود حمایت خواست و پاسخی دریافت کرد که در ظاهر انسانی و همدلانه بود، اما حاوی دستور هوش مصنوعی نیز بود. هوپ گفت: «احساس عجیبی بود و اعتمادم نسبت به روان‌درمانگرم خدشه‌دار شد.» روان‌درمانگر نیز اعتراف کرد که از هوش مصنوعی استفاده کرده؛ زیرا خودش هرگز تجربه داشتن سگ نداشته است.

با افزایش افرادی که سراغ درمانگرهای به اصطلاح هوش مصنوعی می‌روند که حتی سم آلتمن، مدیرعامل اوپن‌ای‌آی می‌گوید به دلیل خطرت حریم خصوصی و احتمال ایجاد مشکلات روانی، توانایی جایگزینی متخصص واقعی را ندارند، مردم باید با اطمینان بتوانند تصمیم بگیرند که به متخصص واقعی سلامت روان مراجعه کنند.

استفاده‌ی مخفیانه از هوش مصنوعی، همان‌طور که در این داستان‌ها دیده می‌شود، نه تنها اعتماد و محرمانگی بیماران را به خطر می‌اندازد، بلکه ممکن است حرفه‌ی خود روان‌درمانگران را نیز در معرض خطر قرار دهد.

منبع : زومیت

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا