ChatGPT جایگزین روانشناسها میشود؟
ChatGPT جایگزین روانشناسها میشود؟
یکی از کارمندان ارشد OpenAI ادعا کرد جدیدترین نسخهی ChatGPT که اکنون از قابلیت تشخیص صدا نیز بهره میبرد، دقیقاً میتواند شبیه درمانگران انسانی رفتار کند. البته او اعتراف کرد خودش تاکنون با چتبات هوش مصنوعی مذکور اقدام به درمان با روش روانشناسی نکرده است.
لیلیان ونگ، رئیس سیستمهای امنیتی OpenAI در شبکهی اجتماعی ایکس (توییتر سابق) اعلام کرد:
ونگ دربخش دیگری از توضیحاتش گفت:
البته یکی از کاربران ایکس در پاسخ به پست ونگ گفت: «این درمان نیست و گفتنش خطرناک است.» کاربر دیگری نوشت: «تصور شخصی شما برای کسی که در چنین موقعیتی قرار دارد، برداشت درستی نیست.»
اگرچه اشاره به ظرفیت ChatGPT برای درمان ازطریق روانشانسی آن هم از طرف کارمند ارشد ایمنی OpenAI عجیب بهنظر میرسد، مفهوم درمانگرهای هوش مصنوعی درواقع به دههی ۱۹۶۰ میلادی برمیگردد؛ زمانی که دانشمندی پیشگام، کامپیوتر چتبات سادهای توسعه داد. این رایانه که Eliza نامیده میشود اساساً از روشی مشابه درمانگران انسانی استفاده میکرد.
جوزف وایزنبام، دانشمند MIT سال ۱۹۹۶، کامپیوتر Eliza را ارائه داد و قصد داشت سطحی بودن هوش مصنوعی را به نمایش بگذارد اما به منبع ناخواستهی اثر الیزا (ELIZA effect) معرف شد؛ جاییکه مردم خواص انسانی را به ماشینهایی نسبت میدهند که قادر به تعامل با آنها هستند.
مارگارت میچل، دانشمند ارشد اخلاق در شرکت هوش مصنوعی Hugging Face اوایل سال جاری در گفتوگو با وبسایت Build in اعلام کرد:
Eliza از زمان خود جلوتر بود، درمانگران هوش مصنوعی در دههی گذشته چیزی شبیه رنسانس را تجربه کردند. سال ۲۰۱۵ محققان دانشگاه کالیفرنیانی جنوبی چتباتی به نام Ellie را منتشر کردند که از آواتار انساننما بهره میبرد و برای تشخیص حالات چهره و ظاهراً بیان احساسات انسانی که با آنها در تعامل است، آموزش دیده بود.
در سالهای بعد، چند تلاش دیگر برای راهاندازی درمانگران هوش مصنوعی صورت گرفت اما بهنظر میرسد ChatGPT آمادگی ایجاد تغییری بزرگ در درمان با روانشناسی را دارد که این مورد باعث ناراحتی بسیاری از متخصصان سلامت روان شده است.
ونگ اولین کسی نیست که احساس میکند ChatGPT مزایای درمانی دارد و بیشک آخرین نفر هم نخواهد بود.
منبع : زومیت