افشاگری غافلگیرکننده: روانشناسان در جلسات درمان مخفیانه از هوش مصنوعی استفاده میکنند
افشاگری غافلگیرکننده: روانشناسان در جلسات درمان مخفیانه از هوش مصنوعی استفاده میکنند
با نفوذ روزافزون هوش مصنوعی در تمامی جنبههای زندگی، برخی از متخصصان بهداشت روان شروع به استفادهی مخفیانه از این فناوری کردهاند. این اقدام باعث از بینرفتن اعتماد بیمارانی میشود که برای حساسیت و حفظ محرمانگی خود به این رواندرمانگران مراجعه میکنند.
وبسایت امآیتی تکنولوژی ریویو در گزارشی مفصل نوشته است که رواندرمانگران از ابزارهایی مانند ChatGPT و سایر مدلهای زبانی بزرگ برای کارهایی مثل پاسخ به ایمیلها و پیامها استفاده کردهاند و در یک مورد مشخص، حتی از هوش مصنوعی برای پیشنهاد پرسشهایی برای بیمار حین جلسه بهره بردهاند.
بیماری ۳۱ ساله اهل لسآنجلس که در گزارش تنها با نام دکلان معرفی شده است، میگوید حین جلسهای مجازی، وقتی اتصال اینترنت دچار مشکل شد، پیشنهاد داده شد که هر دو دوربین خود را خاموش و صحبت کنند. اما به جای صفحهی خالی معمولی، رواندرمانگر به اشتباه صفحهی خود را به اشتراک گذاشت و دکلان متوجه شد او از چت جیپیتی استفاده میکند. دکلان توضیح داد: «او حرفهای من را وارد چت جیپیتی میکرد و سپس جوابها را خلاصه یا انتخاب میکرد.»
دکلان با اینکه شوکه شده بود، حرفی نزد و به تماشای نحوهی تحلیل حرفهای خود توسط چت جیپیتی ادامه داد. حتی او گاهی پاسخهای چتبات را تکرار میکرد و رواندرمانگر آن را بهعنوان نوعی پیشرفت در جلسه تلقی میکرد. دکلان میگوید: «من تبدیل به بهترین بیمار شدم؛ زیرا چت جیپیتی میگفت: ‹آیا فکر نمیکنید دیدگاه شما کمی سیاه و سفید است؟› و من میگفتم: شاید همینطور باشد و او میگفت: دقیقاً. مطمئنم این بهترین جلسهی او بود.»
بیشتر بخوانید
در جلسهی بعدی، دکلان موضوع را مطرح کرد و رواندرمانگر اعتراف کرد که از چت جیپیتی استفاده میکرد و شروع به گریه کرد. دکلان این تجربه را «مثل یک جدایی عجیب و ناخوشایند» توصیف کرد و گفت رواندرمانگر مدعی شد که به دلیل کمبود ایده برای کمک به او از هوش مصنوعی استفاده کرده است. با این حال، او همچنان هزینهی جلسه را دریافت کرد.
نویسندهی دیگری به نام لوری کلارک نیز تجربهی مشابهی داشته است. او پس از دریافت ایمیلی طولانی و بسیار مرتبتر از معمول، متوجه شد که احتمالاً رواندرمانگرش از هوش مصنوعی برای تهیهی پاسخها استفاده کرده است. او گفت: «در ابتدا پیام دلگرمکننده به نظر میرسید، اما پس از بررسی، فونت و سبک نوشتار مشکوک به نظر آمد.»
استفاده پنهانی از هوش مصنوعی میتواند اعتماد بیماران را خدشهدار کند
کلارک پس از پرسوجو در اینترنت، با داستانهای مشابه دیگران آشنا شد، مانند هوپ، زن ۲۵ سالهای که پس از فوت سگش از رواندرمانگر خود حمایت خواست و پاسخی دریافت کرد که در ظاهر انسانی و همدلانه بود، اما حاوی دستور هوش مصنوعی نیز بود. هوپ گفت: «احساس عجیبی بود و اعتمادم نسبت به رواندرمانگرم خدشهدار شد.» رواندرمانگر نیز اعتراف کرد که از هوش مصنوعی استفاده کرده؛ زیرا خودش هرگز تجربه داشتن سگ نداشته است.
با افزایش افرادی که سراغ درمانگرهای به اصطلاح هوش مصنوعی میروند که حتی سم آلتمن، مدیرعامل اوپنایآی میگوید به دلیل خطرت حریم خصوصی و احتمال ایجاد مشکلات روانی، توانایی جایگزینی متخصص واقعی را ندارند، مردم باید با اطمینان بتوانند تصمیم بگیرند که به متخصص واقعی سلامت روان مراجعه کنند.
استفادهی مخفیانه از هوش مصنوعی، همانطور که در این داستانها دیده میشود، نه تنها اعتماد و محرمانگی بیماران را به خطر میاندازد، بلکه ممکن است حرفهی خود رواندرمانگران را نیز در معرض خطر قرار دهد.
منبع : زومیت