فناوری

چت‌بات‌ها و پدیده «تأیید بیش از حد»؛ وقتی هوش مصنوعی اشتباه شما را می‌پذیرد

چت‌بات‌ها و پدیده «تأیید بیش از حد»؛ وقتی هوش مصنوعی اشتباه شما را می‌پذیرد

نتایج یک پژوهش تازه نشان می‌دهد که چت‌بات‌های پیشرفته مبتنی بر هوش مصنوعی، حتی در صورت بروز اشتباه از سوی کاربران، تمایل دارند با آنها موافقت کنند. این یافته نگرانی‌هایی را درباره پیامدهای روانی و اجتماعی تعامل انسان با هوش مصنوعی برانگیخته است.

در این مطالعه، عملکرد یازده مدل گفت‌وگومحور مطرح از جمله ChatGPT محصول OpenAI، مدل Claude از Anthropic، Gemini از Google و همچنین مدل DeepSeek مورد بررسی قرار گرفت.
 
پدیده «تأیید بیش از حد»

پژوهش مذکور بر پدیده‌ای با عنوان «تأیید بیش از حد» تمرکز داشت؛ حالتی که در آن مدل هوش مصنوعی بدون بررسی یا تردید، دیدگاه یا پاسخ کاربر را می‌پذیرد و تأیید می‌کند، حتی اگر در آن خطا یا نقصی وجود داشته باشد.
به گفته پژوهشگران، این رفتار می‌تواند به تحریف درک فرد از خود و واقعیت پیرامونش منجر شود و او را از مسیر اصلاح یا بازنگری بازدارد.

نتایج همچنین نشان داد که مدل‌هایی که تمایل بیشتری به تأیید کاربران دارند، معمولاً امتیاز بالاتری از سوی آنها دریافت می‌کنند. این مسئله می‌تواند توسعه‌دهندگان را به تداوم چنین الگویی ترغیب کند، چراکه رضایت کاربران به‌صورت مستقیم با عملکرد مدل پیوند دارد.

 

 

جزئیات آزمون رفتاری

در جریان این تحقیق، پژوهشگران ۵۰۴ مسئله ریاضی اصلاح‌شده را طراحی کردند و در هر مسئله، خطاهایی ظریف و عمدی گنجاندند. سپس از مدل‌های هوش مصنوعی خواسته شد تا برای این مسائل توضیح یا اثباتی ارائه دهند تا مشخص شود آیا مدل‌ها قادر به تشخیص اشتباهات هستند یا صرفاً به دلیل فرض درستی از سوی کاربر، آنها را تأیید می‌کنند.

بر اساس نتایج، مدل GPT-5 از شرکت OpenAI کمترین میزان «تأیید بیش از حد» را داشت و تنها در حدود ۲۹ درصد موارد دچار این رفتار شد. در مقابل، مدل DeepSeek با ثبت حدود ۷۰ درصد، بیشترین میزان تأیید بیش از حد را از خود نشان داد.

به گفته محققان، مدل‌ها در بسیاری از موارد متوجه خطا می‌شدند، اما به جای اصلاح آن، ترجیح می‌دادند دیدگاه کاربر را تأیید کنند؛ رفتاری که نشان‌دهنده تمایل الگوریتم‌ها به اتکا بر ورودی انسانی است.
 
پیامدها و چالش‌های پیش‌ِ‌رو

نتایج این پژوهش نشان می‌دهد استفاده از چت‌بات‌ها برای دریافت مشاوره‌های شخصی یا اجتماعی ممکن است خطراتی پیش‌بینی‌نشده در پی داشته باشد. این ابزارها ممکن است به‌طور ناخواسته باورهای کاربران را تقویت کنند یا آنها را به سمت تصمیم‌های نادرست سوق دهند، چراکه در بسیاری از موارد، بازخورد انتقادی یا اصلاحی ارائه نمی‌دهند. چنین روندی می‌تواند در بلندمدت، توانایی فرد در ارزیابی واقع‌بینانه خود و محیط اطرافش را تضعیف کند.

 

در سوی دیگر، شرکت‌های توسعه‌دهنده این فناوری‌ها ممکن است با فشار روزافزون برای اصلاح الگوریتم‌ها و تشویق به گفت‌وگوی انتقادی به‌جای پاسخ‌های صرفاً تأییدکننده مواجه شوند.

پژوهشگران تأکید می‌کنند که برای بررسی اثرات بلندمدت «تأیید بیش از حد» بر رفتار انسان و نحوه شکل‌گیری رابطه میان انسان و هوش مصنوعی، مطالعات گسترده‌تری ضروری است.
آنها پیشنهاد می‌کنند توسعه‌دهندگان در طراحی نسل‌های آینده مدل‌های زبانی، بر قابلیت‌هایی تمرکز کنند که تفکر انتقادی، گفت‌وگوی سازنده و شکل‌گیری دیدگاه‌های مستقل را تقویت کند، نه صرفاً تأیید خودکار و بی‌چون‌وچرا.

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا