تفکر انسانی در دل هوش مصنوعی؛ وقتی چتجیپیتی دچار خطاهای شناختی میشود

تفکر انسانی در دل هوش مصنوعی؛ وقتی چتجیپیتی دچار خطاهای شناختی میشود
پژوهشی نوآورانه نشان میدهد که هوش مصنوعی صرفاً دادهها را تحلیل نمیکند، بلکه در مواقعی همان اشتباهاتی را مرتکب میشود که انسانها نیز به آنها دچار میشوند.
به گزارش نیوزلن و به نقل از سایتکدیلی، پرسش کلیدی این است: آیا میتوان به هوش مصنوعی بیش از انسان اعتماد کرد؟ یافتههای یک تحقیق جدید نشان میدهد که پاسخ همیشه مثبت نیست.
پژوهشگران دریافتهاند که ChatGPT، یکی از پیشرفتهترین مدلهای هوش مصنوعی حال حاضر، در تصمیمگیری گاهی همان اشتباهاتی را تکرار میکند که انسانها نیز مرتکب میشوند.
در برخی موقعیتها، این مدل به خطاهای شناختی شناختهشدهای مانند اعتماد به نفس بیشازحد یا خطای داغدست (Hot Hand Fallacy) دچار میشود. هرچند در دیگر موقعیتها، رفتارش کاملاً متفاوت از انسان است؛ بهعنوان مثال، در برابر خطای نادیدهگرفتن نرخ پایه یا مغلطهٔ هزینهٔ ازدسترفته مقاومت نشان میدهد.
هوش مصنوعی؛ دستیاری هوشمند با ایرادهای انسانی
در این تحقیق، ChatGPT در معرض ۱۸ آزمون مربوط به انواع سوگیریهای شناختی قرار گرفت. نتایج بهدستآمده قابلتأملاند:
– هوش مصنوعی در دام تصمیمگیریهای انسانی میافتد – چتجیپیتی در حدود نیمی از آزمونها به سوگیریهایی نظیر اعتماد به نفس بیشازحد، پرهیز از ابهام و خطای همنشینی (یا همان «مسئلهٔ لیندا») دچار شد.
– در ریاضی عالی عمل میکند؛ اما در قضاوت ذهنی ضعف دارد – این مدل در حل مسائل منطقی و مبتنی بر احتمال عملکرد خوبی دارد، اما زمانی که تصمیمگیریها جنبهٔ ذهنی پیدا میکنند، دچار تردید میشود.
– سوگیری همچنان پابرجاست – گرچه نسخهٔ جدیدتر GPT-4 از نظر تحلیلی دقیقتر از نسخههای قبلی است، اما گاهی در وظایف قضاوتمحور سوگیریهای شدیدتری از خود نشان داده است.
چرا این مسئله مهم است؟
از استخدام گرفته تا تأیید وامها، هوش مصنوعی اکنون در قلب تصمیمگیریهای کلان در کسبوکار و دولتها جای دارد. اما اگر این فناوری خطاهای شناختی انسان را تقلید کند، آیا بهجای اصلاح تصمیمات نادرست، آنها را تشدید نخواهد کرد؟
یانگ چن (استادیار دانشگاه وسترن و نویسندهٔ اصلی مقاله) اظهار میدارد: «وقتی هوش مصنوعی از دادههای انسانی میآموزد، ممکن است مثل انسان هم فکر کند – با همان سوگیریها. تحقیق ما نشان میدهد زمانی که از هوش مصنوعی برای قضاوت استفاده میشود، گاهی همان میانبرهای ذهنی انسان را بهکار میبرد.»
این تحقیق مشخص کرد که ChatGPT گرایش دارد به:
– محافظهکاری – در تصمیمگیریها از ریسکپذیری اجتناب میکند، حتی اگر انتخاب پرریسکتر احتمال موفقیت بیشتری داشته باشد.
– اعتماد به نفس بیشازحد – دقت خود را بیش از واقعیت برآورد میکند.
– تأییدگرایی – اطلاعاتی را ترجیح میدهد که با پیشفرضهای موجود همخوانی داشته باشد و اطلاعات مخالف را نادیده میگیرد.
– اجتناب از ابهام – گزینههایی را انتخاب میکند که اطلاعاتشان شفافتر و کمتر مبهم است.
آنتون اوچینیکوف (استاد دانشگاه کوئینز) میافزاید: «وقتی مسئلهای پاسخ صحیح مشخصی داشته باشد، عملکرد هوش مصنوعی بینقص است – حتی از بیشتر انسانها هم بهتر. اما وقتی پای قضاوت به میان میآید، ممکن است در همان دامهایی بیفتد که انسانها گرفتارشان میشوند.»
پس آیا میتوانیم در تصمیمات بزرگ به هوش مصنوعی اعتماد کنیم؟
در شرایطی که دولتهای سراسر جهان به دنبال قانونگذاری در حوزهٔ هوش مصنوعی هستند، این تحقیق سؤالی حیاتی را مطرح میکند: آیا باید اختیار تصمیمهای مهم را به سیستمی سپرد که میتواند همانند انسان دچار سوگیری شود؟
ساموئل کیرشنر (استاد دانشکدهٔ کسبوکار UNSW) میگوید: «هوش مصنوعی داوری بیطرف نیست. اگر بدون نظارت باقی بماند، نهتنها ممکن است مشکلات تصمیمگیری را حل نکند، بلکه حتی آنها را تشدید کند.»
مینا اندیاپان (استاد دانشگاه مکمستر) نیز اظهار میدارد: «هوش مصنوعی باید همانند کارمندی در نظر گرفته شود که تصمیمات مهم میگیرد – به نظارت و چارچوبهای اخلاقی نیاز دارد. در غیر این صورت، خطر آن وجود دارد که تفکر ناقص را خودکارسازی کنیم، نه اینکه بهبود ببخشیم.»