وقتی چتجیپیتی درمانگر بهتری است؛ آینده سلامت روان در دستان هوش مصنوعی؟

وقتی چتجیپیتی درمانگر بهتری است؛ آینده سلامت روان در دستان هوش مصنوعی؟
مطالعهی جدید محققان، پتانسیل ChatGPT را در زمینهی زوجدرمانی بررسی کرده و نشان میدهد که شاید برای بهبود روابط، رویآوردن به هوش مصنوعی گزینهای بهتر از مراجعه به رواندرمانگر انسانی باشد.
آزمایش جدید که نتایج آن در ژورنال PLOS Mental Health منتشر شده، ۸۳۰ شرکتکننده را در سناریوهای زوجدرمانی قرار داد تا مشخص شود آیا هوش مصنوعی در مقایسه با رواندرمانگر انسانی امتیازات بالاتری دریافت میکند یا خیر. سپس به زوجها بهطور تصادفی یکی از دو مشاور اختصاص داده شد: یک متخصص انسانی آموزشدیده یا چتبات ChatGPT.
بهگزارش فوربز، محققان از شرکتکنندگان خواستند کیفیت مشاورهای را که دریافت کردند براساس پنج معیار ارزیابی کنند: میزان درک گوینده، میزان همدلی، تناسب توصیهها برای یک فضای درمانی، میزان حساسیت فرهنگی و اینکه آیا پیشنهادهای ارائهشده شبیه چیزی است که یک «درمانگر خوب» میگوید یا نه.
چتجیپیتی در آزمایش به عنوان درمانگر امتیاز بهتری گرفت
براساس پژوهشهای پیشین، از جمله تحقیقات چند دهه قبل، دانشمندان حدس میزدند که تشخیص پاسخهای انسان از پاسخهای تولیدشده توسط هوش مصنوعی برای شرکتکنندگان دشوار خواهد بود. این فرضیه نیز تأیید شد؛ زیرا شرکتکنندگان تنها در ۵۶٫۱ درصد موارد توانستند پاسخ انسان را درست تشخیص دهند و این میزان برای ChatGPT برابر با ۵۱٫۲ درصد بود. این نتایج نشان میدهد که منبع پاسخها (انسان یا هوش مصنوعی) تأثیر معنادار و قابلتوجهی بر ارزیابی شرکتکنندگان و نتایج مطالعه نداشته است.
نکتهی جالب این بود که پژوهشگران متوجه شدند شرکتکنندگانی که اعتقاد داشتند پاسخها را درمانگر انسانی نوشته، امتیازاتی بالاتر نسبت به زمانی دادند که گمان میکردند پاسخ از چتجیپیتی آمده است. وقتی دانشمندان این سوگیری را در نظر گرفتند و پاسخها را براساس آن تنظیم کردند، دریافتند که پاسخهای تولیدشده توسط هوش مصنوعی که بهاشتباه تصور میشد از سوی درمانگر انسانی آمده، بالاترین امتیازات را دریافت کرده است. پایینترین امتیازات به پاسخهای انسانی داده شد که بهاشتباه تصور شده بود از ChatGPT هستند. پاسخهایی که درست شناسایی شده بودند، در میانهی این طیف قرار داشتند.
نکتهی قابلتوجه این است که ChatGPT در کل رتبههای مطلوبتری نسبت به انسانها دریافت کرد. پاسخهای تولیدشده توسط هوش مصنوعی بیشتر از سوی شرکتکنندگان بهعنوان «ارتباطگیرنده» و «دارای حساسیت فرهنگی» طبقهبندی شدند.
چتجیپیتی پاسخهای مفصلتری میداد و بیشتر از اسامی و صفتها استفاده میکرد
اما چرا چتجیپیتی درمانگر بهتری است؟ یکی دیگر از کشفیات جالب مطالعه، تفاوتهای آشکار در الگوهای گفتاری بین چتجیپیتی و رواندرمانگران انسانی بود. درمانگران انسانی مختصرتر صحبت میکردند؛ درحالیکه ChatGPT مفصلتر پاسخ میداد. پژوهشگران گمان میکنند که همین ویژگی ممکن است دلیل اصلی برتری این هوش مصنوعی مولد باشد. مدل OpenAI در پاسخهای خود بیشتر از اسامی و صفتها استفاده میکرد.
دانشمندان میگویند: «اینکه میتوان از اسمها میتوان برای توصیف افراد، مکانها و چیزها و از صفتها برای ارائهی زمینهی بیشتر استفاده کرد، میتواند به این معنا باشد که چتجیپیتی بهتر از درمانگران زمینهسازی میکند.» زمینهسازی بهتر ممکن است باعث شده باشد که شرکتکنندگان به پاسخهای ChatGPT در شاخصهای متداول درمان، امتیاز بالاتری داده باشند.
آیا درمانگر آینده شما میتواند ChatGPT باشد؟
با وجود عملکرد بهتر ChatGPT نسبت به انسان در محیط کنترلشده، محققان خاطرنشان میکنند که دریافت مشاوره از مدلهای هوش مصنوعی در شرایط واقعی ممکن است خطرآفرین باشد.
چندی پیش OpenAI تغییراتی در دستورالعملهای خود ایجاد کرد تا مشخص کند چتجیپیتی در مواجهه با موضوعات بحثبرانگیز یا شرایط حساس چگونه رفتار میکند. این مجموعه قوانین جدید، به نحوهی برخورد این مدل با پرسشهایی دربارهی خودآسیبی و موضوعات بالقوهی خطرناک نیز پرداخته است؛ موضوعی که پس از حادثهی خودکشی یک نوجوان در اثر تعامل با چتباتی به نام Character.AI به بحث داغ تبدیل شد.
تغییرات اخیر در دستورالعملهای OpenAI، فضایی برای گفتگوهای متنوعتر، پیچیدهتر و گاهی دشوارتر ایجاد میکند. بااینحال، همین غیرقابلپیشبینیبودن پاسخها، پژوهشگران را نسبت به استفاده از هوش مصنوعی در جلسات درمانی بدون نظارت نگران کرده است. با توجه به دسترسی آسان و گسترده به این فناوری، محققان هشدار میدهند که مراجعهی مردم به هوش مصنوعی برای دریافت مشاوره اجتنابناپذیر به نظر میرسد و در واقع، این روند همین حالا هم آغاز شده است.
دریافت مشاوره از مدلهای هوش مصنوعی ممکن است خطرآفرین باشد
برخی افراد برای دریافت دیدگاهی بیطرفانه در مسائل زندگیشان به چتجیپیتی مراجعه کردهاند و به مرور برای هر اتفاقی از آن کمک گرفتهاند. این ارتباط صرفاً کاربردی نبوده، بلکه در مواردی به یک پیوند عاطفی هم تبدیل شده است. علاوه بر این، پژوهشگران معتقدند که تجاریسازی هوش مصنوعی برای مقاصد درمانی قابل پیشگیری نیست و بالاخره اتفاق میافتد.
محققان میگویند اگر کسی کمی از برنامهنویسی سر دربیاورد، میتواند یک چتبات مشاور یا درمانگر هوش مصنوعی بسازد و از آن کسب درآمد کند. این اتفاق هماکنون در حال وقوع است. سال گذشته، پیتر لِوِلز، کارآفرین مستقل و مشهور، یک سرویس درمانی مبتنی بر هوش مصنوعی به نام TherapistAI راهاندازی کرد.
برخلاف درمانگران انسانی که به گفتهی لولز، ممکن است برای هر جلسه تا ۱۵۰ دلار دریافت کنند و دسترسی به آنها محدود باشد، TherapistAI با هزینهی ماهانه تنها ۹٫۹۹ دلار، پشتیبانی فوری ارائه میداد. سرویس رواندرمانی TherapistAI واکنشهای شدید را برانگیخت؛ بهطوری که بسیاری از ۶۰۰هزار دنبالکنندهی او انتقادات شدیدی را مطرح کردند و از مردم خواستند به جای آن به دنبال رواندرمانگر «واقعی» باشند.
لولز که پیشتر از تجربهی شخصی خود در زمینهی رواندرمانی صحبت کرده بود، باور داشت که بسیاری از افراد به خدمات درمانی دسترسی ندارند؛ زیرا این خدمات بسیار گران هستند و حتی در صورت قرارداشتن تحت پوشش بیمه، معمولاً لیستهای انتظار طولانی دارند.
بیشتر بخوانید
بااینحال، لولز سرویس TherapistAI را که از آن بهعنوان جنجالیترین محصولش یاد میکرد، تنها چند ماه پس از راهاندازی تعطیل کرد. علت این تصمیم، انتقادها نبود، بلکه لولز نتوانست ثابت کند که بازار مناسبی برای این سرویس وجود دارد و رشد چندانی نداشت. او در نهایت اشاره کرد که مردم در عمل از ابزارهایی مانند ChatGPT یا Claude برای دریافت مشاوره زندگی استفاده میکنند و همین برایشان کافی است.
بااینحال، لولز پیشبینی کرد که شاید در آینده بازار اینگونه محصولات شکل بگیرد. با توجه به نتایج پژوهش مربوط به زوجدرمانی، به نظر میرسد که لولز از همان ابتدا درست فکر میکرده است.
ChatGPT در حال حاضر فراتر از رواندرمانگر است
این اولین بار نیست که هوش مصنوعی در حرفههای پزشکی بهتر از انسان ها عملمیکند. مطالعهای در سال ۲۰۲۴ نشان داد که چتجیپیتی در ارزیابی سوابق پزشکی از پزشکان پیشی گرفته است.
محققان نشان دادند که چتجیپیتی بیماران را با نرخ موفقیت ۹۰ درصد بهطور دقیق تشخیص میدهد؛ درحالیکه میزان موفقیت پزشکانی که از چتباتهای هوش مصنوعی برای تشخیص استفاده کرده بودند، ۷۶ درصد و پزشکانی که بهطور کامل بدون هوش مصنوعی کار کرده بودند، ۷۴ درصد بود.
همچنین، برخی از متخصصان پزشکی اذعان کردهاند که هوش مصنوعی در برخورد با بیماران محترمانهتر و دلسوزانهتر از آنها رفتار میکند و حتی برخی پزشکان برای مشاوره به ChatGPT متوسل میشوند.
همراه با افزایش هزینههای مراقبتهای بهداشتی، جای تعجب نیست که مردم اکنون پزشکان واقعی را کنار گذاشتهاند و برای دریافت مراقبتهای بهداشتی از چتباتهای هوش مصنوعی استفاده میکنند. شاید این وضعیت کمی نگرانکننده و دیستوپیایی به نظر برسد، اما برای بسیاری از مردم، چتجیپیتی هماکنون هم پزشک عمومی و هم درمانگرشان است.
منبع : زومیت