zoomit

ضعف امنیتی پنهان در هوش مصنوعی جمنای؛ اطلاعات کاربران در خطر است

ضعف امنیتی پنهان در هوش مصنوعی جمنای؛ اطلاعات کاربران در خطر است

گوگل همیشه بر امنیت کاربرانش تأکید دارد و معمولاً با اعمال سیاست‌های سختگیرانه ازجمله محدود کردن نصب برنامه‌های خارج از پلی استور تلاش می‌کند محصولات خود را ایمن نگه دارد. بااین حال به‌نظر می‌رسد این شرکت فعلاً قصد ندارد یکی از مشکلات امنیتی جدی در هوش مصنوعی جمنای را برطرف کند؛ ضعفی که می‌تواند راه را برای نوع خاصی از حملات سایبری باز کند.

بر اساس گزارش وب‌سایت Bleeping Computer، پژوهشگر امنیتی ویکتور مارکوپولوس چند مدل هوش مصنوعی محبوب را در برابر نوعی حمله موسوم به ASCII Smuggling آزمایش کرده است. نتایج نشان می‌دهد جمنای گوگل، دیپ‌سیک و گراک در برابر این نوع حمله آسیب‌پذیر هستند، درحالی که ChatGPT ،Claude و کوپایلت در برابر آن ایمنی دارند.

در روش ASCII Smuggling، مهاجم می‌تواند دستوری مخفی را درون متنی پنهان کند؛ مثلاً در ایمیلی با فونت بسیار کوچک. سپس اگر کاربر از ابزار هوش مصنوعی بخواهد متن ایمیل را خلاصه کند، مدل به‌طور ناخودآگاه دستور پنهان را نیز اجرا می‌کند. این موضوع می‌تواند منجر به اقدامات خطرناک ازجمله جست‌وجوی اطلاعات حساس در صندوق ورودی یا ارسال داده‌های شخصی بدون اطلاع کاربر شود.

مقاله‌های مرتبط:

باتوجه به اینکه جمنای اکنون در مجموعه‌ی Google Workspace ادغام شده است، آسیب‌پذیری موردبحث می‌تواند امنیت داده‌های سازمانی و حساب‌های کاری را نیز تهدید کند. مارکوپولوس با ارائه‌ی آزمایش واقعی نشان داده که جمنای چگونه با یک دستور نامرئی فریب خورده و لینک مخرب پیشنهاد داده است.

بااین حال، گوگل این مورد را نه نقص امنیتی، بلکه نوعی مهندسی اجتماعی می‌داند و می‌گوید مسئولیت محافظت از داده‌ها بر عهده‌ی کاربر است. این موضع نشان می‌دهد که فعلاً نباید انتظار رفع این نقص امنیتی در جمنای را داشته باشیم.

منبع : زومیت

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا