فناوری

هوش مصنوعی صدای همه را «یکسان» نمی‌شنود

هوش مصنوعی صدای همه را «یکسان» نمی‌شنود

فناوری‌های تشخیص گفتار مبتنی بر هوش مصنوعی همچنان در درک لهجه‌های غیراستاندارد و گویش‌های متنوع انگلیسی با مشکل مواجهند، مسئله‌ای که می‌تواند پیامدهای جدی در استخدام، آموزش و حتی ثبت سوابق پزشکی ایجاد کند. پژوهش‌ها نشان می‌دهد که این سیستم‌ها در تبدیل گفتار به متن، خطاهای بسیار بیشتری برای سیاه‌پوستان نسبت به سفیدپوستان مرتکب می‌شوند.
 
خطاهای تشخیص گفتار و بازتولید تبعیض سیستمی

سیستم‌های ASR با تحلیل میلیون‌ها نمونه صوتی آموزش می‌بینند، اما عملکرد آنها در برابر طیف گسترده لهجه‌ها و تنوع زبانی یکسان نیست. برخی شرکت‌ها از هوش مصنوعی برای تحلیل مصاحبه‌های شغلی استفاده می‌کنند و مدارس نیز برای آزمون‌های شفاهی یا زیرنویس‌های آموزشی به آن تکیه دارند. حتی بیمارستان‌ها از ابزارهای هوش مصنوعی «محیطی» استفاده می‌کنند که مکالمات پزشک و بیمار را رونویسی می‌کند.
طبق تحقیقات، این مدل‌ها اغلب گفتار کسانی را که انگلیسی «استاندارد» صحبت نمی‌کنند، اشتباه تفسیر می‌کنند. سارا مایرز وست، مدیر اجرایی موسسه AI Now، هشدار می‌دهد که چنین خطاهایی می‌تواند به تشخیص‌های اشتباه، ثبت ناقص سوابق یا حتی نتایج ناعادلانه در عدالت کیفری منجر شود. او می‌گوید: «اگر این سیستم‌ها بدون نظارت دقیق در تصمیم‌گیری‌های مهم به کار گرفته شوند، می‌توانند شکاف‌های موجود را تشدید کنند.»

به گزارش نیوزلن آلیسون کوئنک، استاد علوم اطلاعات دانشگاه کرنل تک، نیز تأکید می‌کند که مدل‌های گفتاری هوش مصنوعی به‌طور گسترده در حوزه‌های حساسی مانند بهداشت و عدالت کیفری به کار گرفته می‌شوند، اما نظارت کافی بر آنها وجود ندارد.
او توضیح می‌دهد: «استفاده از یک مدل ثابت برای همه افراد منصفانه به نظر می‌رسد، اما اگر مدل با سوگیری طراحی شده باشد، نتایج برای همه افراد یکسان نخواهد بود.»
 
تلاش شرکت‌ها برای بهبود و چالش‌های باقی‌مانده

مطابق گزارش Axios شرکت‌هایی مانند OpenAI، گوگل و آمازون پروژه‌هایی را برای جمع‌آوری داده‌های صوتی متنوع‌تر آغاز کرده‌اند. مدل Whisper از OpenAI با ۶۸۰ هزار ساعت داده چندزبانه آموزش دیده تا عملکرد بهتری در برابر لهجه‌های مختلف و نویز پس‌زمینه داشته باشد. برخی بیمارستان‌ها نیز از بازبین‌های انسانی برای کنترل دوباره خروجی مدل‌های نویسنده پزشکی استفاده می‌کنند.

با این حال، کوئنک معتقد است که افزایش داده‌ها کافی نیست. او می‌گوید: «تنوع داده باید یک فرآیند مستمر باشد، نه یک اقدام کوتاه‌مدت.» در همین حال، وست پیشنهاد می‌دهد که کشورها باید از سیاست «اعتماد صفر به هوش مصنوعی» پیروی کنند تا شرکت‌ها مجبور باشند دائماً سیستم‌های خود را ارزیابی، مستندسازی و اصلاح کنند.

در نهایت، کارشناسان هشدار می‌دهند که «شکاف شنیداری» هوش مصنوعی نوع جدیدی از تبعیض را ایجاد می‌کند؛ جایی که حتی شیوه صحبت کردن می‌تواند به مانعی برای فرصت‌های تحصیلی، شغلی و درمانی تبدیل شود. بدون حسابرسی و نظارت مستمر، فناوری‌هایی که قرار است دسترسی و عدالت را گسترش دهند، ممکن است ناخواسته صداهای بسیاری را حذف کنند.

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا