zoomit

وقتی چت‌جی‌پی‌تی درمانگر بهتری است؛ آینده سلامت روان در دستان هوش مصنوعی؟

وقتی چت‌جی‌پی‌تی درمانگر بهتری است؛ آینده سلامت روان در دستان هوش مصنوعی؟

مطالعه‌ی جدید محققان، پتانسیل ChatGPT را در زمینه‌ی زوج‌درمانی بررسی کرده و نشان می‌دهد که شاید برای بهبود روابط، روی‌آوردن به هوش مصنوعی گزینه‌ای بهتر از مراجعه به روان‌درمانگر انسانی باشد.

آزمایش جدید که نتایج آن در ژورنال PLOS Mental Health منتشر شده، ۸۳۰ شرکت‌کننده را در سناریوهای زوج‌درمانی قرار داد تا مشخص شود آیا هوش مصنوعی در مقایسه با روان‌درمانگر انسانی امتیازات بالاتری دریافت می‌کند یا خیر. سپس به زوج‌ها به‌طور تصادفی یکی از دو مشاور اختصاص داده شد: یک متخصص انسانی آموزش‌دیده یا چت‌بات ChatGPT.

به‌گزارش فوربز، محققان از شرکت‌کنندگان خواستند کیفیت مشاوره‌ای را که دریافت کردند براساس پنج معیار ارزیابی کنند: میزان درک گوینده، میزان همدلی، تناسب توصیه‌ها برای یک فضای درمانی، میزان حساسیت فرهنگی و اینکه آیا پیشنهادهای ارائه‌شده شبیه چیزی است که یک «درمانگر خوب» می‌گوید یا نه.

چت‌جی‌پی‌تی در آزمایش به عنوان درمانگر امتیاز بهتری گرفت

براساس پژوهش‌های پیشین، از جمله تحقیقات چند دهه قبل، دانشمندان حدس می‌زدند که تشخیص پاسخ‌های انسان از پاسخ‌های تولیدشده توسط هوش مصنوعی برای شرکت‌کنندگان دشوار خواهد بود. این فرضیه نیز تأیید شد؛ زیرا شرکت‌کنندگان تنها در ۵۶٫۱ درصد موارد توانستند پاسخ انسان را درست تشخیص دهند و این میزان برای ChatGPT برابر با ۵۱٫۲ درصد بود. این نتایج نشان می‌دهد که منبع پاسخ‌ها (انسان یا هوش مصنوعی) تأثیر معنادار و قابل‌توجهی بر ارزیابی شرکت‌کنندگان و نتایج مطالعه نداشته است.

نکته‌ی جالب این بود که پژوهشگران متوجه شدند شرکت‌کنندگانی که اعتقاد داشتند پاسخ‌ها را درمانگر انسانی نوشته، امتیازاتی بالاتر نسبت به زمانی دادند که گمان می‌کردند پاسخ از چت‌جی‌پی‌تی آمده است. وقتی دانشمندان این سوگیری را در نظر گرفتند و پاسخ‌ها را براساس آن تنظیم کردند، دریافتند که پاسخ‌های تولیدشده توسط هوش مصنوعی که به‌اشتباه تصور می‌شد از سوی درمانگر انسانی آمده، بالاترین امتیازات را دریافت کرده است. پایین‌ترین امتیازات به پاسخ‌های انسانی داده شد که به‌اشتباه تصور شده بود از ChatGPT هستند. پاسخ‌هایی که درست شناسایی شده بودند، در میانه‌ی این طیف قرار داشتند.

نکته‌ی قابل‌توجه این است که ChatGPT در کل رتبه‌های مطلوب‌تری نسبت به انسان‌ها دریافت کرد. پاسخ‌های تولید‌شده توسط هوش مصنوعی بیشتر از سوی شرکت‌کنندگان به‌عنوان «ارتباط‌گیرنده» و «دارای حساسیت فرهنگی» طبقه‌بندی شدند.

چت‌جی‌پی‌تی پاسخ‌های مفصل‌تری می‌داد و بیشتر از اسامی و صفت‌ها استفاده می‌کرد

اما چرا چت‌جی‌پی‌تی درمانگر بهتری است؟ یکی‌ دیگر از کشفیات جالب مطالعه، تفاوت‌های آشکار در الگوهای گفتاری بین چت‌جی‌پی‌تی و روان‌درمانگران انسانی بود. درمانگران انسانی مختصرتر صحبت می‌کردند؛ درحالی‌که ChatGPT مفصل‌تر پاسخ می‌داد. پژوهشگران گمان می‌کنند که همین ویژگی ممکن است دلیل اصلی برتری این هوش مصنوعی مولد باشد. مدل OpenAI در پاسخ‌های خود بیشتر از اسامی و صفت‌ها استفاده می‌کرد.

دانشمندان می‌گویند: «اینکه می‌توان از اسم‌ها می‌توان برای توصیف افراد، مکان‌ها و چیزها و از صفت‌ها برای ارائه‌ی زمینه‌ی بیشتر استفاده کرد، می‌تواند به این معنا باشد که چت‌جی‌پی‌تی بهتر از درمانگران زمینه‌سازی می‌کند.» زمینه‌سازی بهتر ممکن است باعث شده باشد که شرکت‌کنندگان به پاسخ‌های ChatGPT در شاخص‌های متداول درمان، امتیاز بالاتری داده باشند.

آیا درمانگر آینده شما می‌تواند ChatGPT باشد؟

با وجود عملکرد بهتر ChatGPT نسبت به انسان در محیط کنترل‌شده، محققان خاطرنشان می‌کنند که دریافت مشاوره از مدل‌های هوش مصنوعی در شرایط واقعی ممکن است خطرآفرین باشد.

چندی پیش OpenAI تغییراتی در دستورالعمل‌های خود ایجاد کرد تا مشخص کند چت‌جی‌پی‌تی در مواجهه با موضوعات بحث‌برانگیز یا شرایط حساس چگونه رفتار می‌کند. این مجموعه قوانین جدید، به نحوه‌ی برخورد این مدل با پرسش‌هایی درباره‌ی خودآسیبی و موضوعات بالقوه‌ی خطرناک نیز پرداخته است؛ موضوعی که پس از حادثه‌ی خودکشی یک نوجوان در اثر تعامل با چت‌باتی به نام Character.AI به بحث داغ تبدیل شد.

تغییرات اخیر در دستورالعمل‌های OpenAI، فضایی برای گفتگوهای متنوع‌تر، پیچیده‌تر و گاهی دشوارتر ایجاد می‌کند. با‌این‌حال، همین غیرقابل‌پیش‌بینی‌بودن پاسخ‌ها، پژوهشگران را نسبت به استفاده از هوش مصنوعی در جلسات درمانی بدون نظارت نگران کرده است. با توجه به دسترسی آسان و گسترده به این فناوری، محققان هشدار می‌دهند که مراجعه‌ی مردم به هوش مصنوعی برای دریافت مشاوره اجتناب‌ناپذیر به نظر می‌رسد و در واقع، این روند همین حالا هم آغاز شده است.

دریافت مشاوره از مدل‌های هوش مصنوعی ممکن است خطرآفرین باشد

برخی افراد برای دریافت دیدگاهی بی‌طرفانه در مسائل زندگی‌شان به چت‌جی‌پی‌تی مراجعه کرده‌اند و به مرور برای هر اتفاقی از آن کمک گرفته‌اند. این ارتباط صرفاً کاربردی نبوده، بلکه در مواردی به یک پیوند عاطفی هم تبدیل شده است. علاوه بر این، پژوهشگران معتقدند که تجاری‌سازی هوش مصنوعی برای مقاصد درمانی قابل پیشگیری نیست و بالاخره اتفاق می‌افتد.

محققان می‌گویند اگر کسی کمی از برنامه‌نویسی سر دربیاورد، می‌تواند یک چت‌بات مشاور یا درمانگر هوش مصنوعی بسازد و از آن کسب درآمد کند. این اتفاق هم‌اکنون در حال وقوع است. سال گذشته، پیتر لِوِلز، کارآفرین مستقل و مشهور، یک سرویس درمانی مبتنی بر هوش مصنوعی به نام TherapistAI راه‌اندازی کرد.

برخلاف درمانگران انسانی که به گفته‌ی لولز، ممکن است برای هر جلسه تا ۱۵۰ دلار دریافت کنند و دسترسی به آن‌ها محدود باشد، TherapistAI با هزینه‌ی ماهانه تنها ۹٫۹۹ دلار، پشتیبانی فوری ارائه می‌داد. سرویس روان‌درمانی TherapistAI واکنش‌های شدید را برانگیخت؛ به‌طوری که بسیاری از ۶۰۰هزار دنبال‌کننده‌ی او انتقادات شدیدی را مطرح کردند و از مردم خواستند به جای آن به دنبال روان‌درمانگر «واقعی» باشند.

لولز که پیش‌تر از تجربه‌ی شخصی خود در زمینه‌ی روان‌درمانی صحبت کرده بود، باور داشت که بسیاری از افراد به خدمات درمانی دسترسی ندارند؛ زیرا این خدمات بسیار گران هستند و حتی در صورت قرارداشتن تحت پوشش بیمه، معمولاً لیست‌های انتظار طولانی دارند.

بیشتر بخوانید

با‌این‌حال، لولز سرویس TherapistAI را که از آن به‌عنوان جنجالی‌ترین محصولش یاد می‌کرد، تنها چند ماه پس از راه‌اندازی تعطیل کرد. علت این تصمیم، انتقادها نبود، بلکه لولز نتوانست ثابت کند که بازار مناسبی برای این سرویس وجود دارد و رشد چندانی نداشت. او در نهایت اشاره کرد که مردم در عمل از ابزارهایی مانند ChatGPT یا Claude برای دریافت مشاوره زندگی استفاده می‌کنند و همین برایشان کافی است.

با‌این‌حال، لولز پیش‌بینی کرد که شاید در آینده بازار این‌گونه محصولات شکل بگیرد. با توجه به نتایج پژوهش مربوط به زوج‌درمانی، به نظر می‌رسد که لولز از همان ابتدا درست فکر می‌کرده است.

ChatGPT در حال حاضر فراتر از روان‌درمانگر است

این اولین بار نیست که هوش مصنوعی در حرفه‌های پزشکی بهتر از انسان ها عمل‌می‌کند. مطالعه‌ای در سال ۲۰۲۴ نشان داد که چت‌جی‌پی‌تی در ارزیابی سوابق پزشکی از پزشکان پیشی گرفته است.

محققان نشان دادند که چت‌جی‌پی‌تی بیماران را با نرخ موفقیت ۹۰ درصد به‌طور دقیق تشخیص می‌دهد؛ درحالی‌که میزان موفقیت پزشکانی که از چت‌بات‌های هوش مصنوعی برای تشخیص استفاده کرده بودند، ۷۶ درصد و پزشکانی که به‌طور کامل بدون هوش مصنوعی کار کرده بودند، ۷۴ درصد بود.

همچنین، برخی از متخصصان پزشکی اذعان کرده‌اند که هوش مصنوعی در برخورد با بیماران محترمانه‌تر و دلسوزانه‌تر از آن‌ها رفتار می‌کند و حتی برخی پزشکان برای مشاوره به ChatGPT متوسل می‌شوند.

همراه با افزایش هزینه‌های مراقبت‌های بهداشتی، جای تعجب نیست که مردم اکنون پزشکان واقعی را کنار گذاشته‌اند و برای دریافت مراقبت‌های بهداشتی از چت‌بات‌های هوش مصنوعی استفاده می‌کنند. شاید این وضعیت کمی نگران‌کننده و دیستوپیایی به نظر برسد، اما برای بسیاری از مردم، چت‌جی‌پی‌تی هم‌اکنون هم پزشک عمومی‌ و هم درمانگرشان است.

منبع : زومیت

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا