فناوری

مایکروسافت هشدار می‌دهد: مدل‌های زبانی بزرگ اطلاعات کاربران را فاش می‌کنند

مایکروسافت هشدار می‌دهد: مدل‌های زبانی بزرگ اطلاعات کاربران را فاش می‌کنند

مایکروسافت در گزارشی جدید از وجود شکافی جدی در مدل‌های زبانی بزرگی که سرویس‌های هوش مصنوعی را پشتیبانی می‌کنند، خبر داده است؛ شکافی که احتمالاً می‌تواند موضوع گفت‌وگوی کاربران را فاش کند.

پژوهشگران این شکاف را «Whisper Leak» نامیده‌اند و دریافته‌اند که تقریباً تمام مدل‌های مورد آزمایش تحت تأثیر آن قرار گرفته‌اند. هنگامی که کاربر با یک دستیار صوتی در موتورهای جستجو یا اپلیکیشن‌ها چت می‌کند، اطلاعات از طریق قابلیت TLS (امنیت لایه انتقال) محافظت می‌شود؛ روشی که در بانکداری آنلاین نیز کاربرد دارد. این ارتباط ایمن به طور معمول اجازه نمی‌دهد افراد سودجو محتوای تایپ‌شده توسط کاربران را بخوانند.

اما اکنون مایکروسافت کشف کرده است که متادیتا‌ (شیوه انتقال پیام‌ها در سراسر اینترنت) همچنان قابل مشاهده است. این شکاف، رمزگذاری را نقض نمی‌کند، اما از بخش‌هایی که در این فرآیند پنهان نمی‌شوند سوءاستفاده می‌کند.

پژوهشگران مایکروسافت در تحقیق خود، شیوه‌ی آزمایش ۲۸ مدل زبانی بزرگ را برای شناسایی این شکاف توضیح داده‌اند. آن‌ها ابتدا دو مجموعه سؤال تهیه کردند: یکی شامل پرسش‌هایی درباره موضوعات حساس مانند پول‌شویی و دیگری شامل هزاران جست‌وجوی تصادفی و روزمره. در مرحله‌ی بعد، آن‌ها الگوی ریتم داده‌ها را به‌طور مخفیانه ثبت کردند.

سپس، برنامه‌ای هوش مصنوعی را آموزش دادند تا بر اساس ریتم داده‌ها، بین موضوعات حساس و روزمره تمایز قائل شود. اگر این هوش مصنوعی می‌توانست بدون خواندن متن رمزگذاری‌شده، موضوع گفت‌وگو را به درستی تشخیص دهد، وجود یک تهدید حریم خصوصی تأیید می‌شد.

نتایج نشان داد که هوش مصنوعی در بیشتر مدل‌ها توانست موضوع گفت‌وگو را با دقت بیش از ۹۸ درصد حدس بزند. این نوع حمله می‌تواند حتی گفت‌وگوهای حساس را در ۱۰۰ درصد مواقع شناسایی کند، حتی اگر چنین گفت‌وگوهایی تنها در یک مورد از هر ۱۰ هزار محاوره رخ دهند. پژوهشگران سه روش مختلف را برای مقابله با این حملات آزمایش کردند، اما هیچ‌یک از آن‌ها نتوانستند حمله را به‌طور کامل متوقف کنند.

منبع:‌ مهر

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا