ضعف امنیتی پنهان در هوش مصنوعی جمنای؛ اطلاعات کاربران در خطر است
ضعف امنیتی پنهان در هوش مصنوعی جمنای؛ اطلاعات کاربران در خطر است
گوگل همیشه بر امنیت کاربرانش تأکید دارد و معمولاً با اعمال سیاستهای سختگیرانه ازجمله محدود کردن نصب برنامههای خارج از پلی استور تلاش میکند محصولات خود را ایمن نگه دارد. بااین حال بهنظر میرسد این شرکت فعلاً قصد ندارد یکی از مشکلات امنیتی جدی در هوش مصنوعی جمنای را برطرف کند؛ ضعفی که میتواند راه را برای نوع خاصی از حملات سایبری باز کند.
بر اساس گزارش وبسایت Bleeping Computer، پژوهشگر امنیتی ویکتور مارکوپولوس چند مدل هوش مصنوعی محبوب را در برابر نوعی حمله موسوم به ASCII Smuggling آزمایش کرده است. نتایج نشان میدهد جمنای گوگل، دیپسیک و گراک در برابر این نوع حمله آسیبپذیر هستند، درحالی که ChatGPT ،Claude و کوپایلت در برابر آن ایمنی دارند.
در روش ASCII Smuggling، مهاجم میتواند دستوری مخفی را درون متنی پنهان کند؛ مثلاً در ایمیلی با فونت بسیار کوچک. سپس اگر کاربر از ابزار هوش مصنوعی بخواهد متن ایمیل را خلاصه کند، مدل بهطور ناخودآگاه دستور پنهان را نیز اجرا میکند. این موضوع میتواند منجر به اقدامات خطرناک ازجمله جستوجوی اطلاعات حساس در صندوق ورودی یا ارسال دادههای شخصی بدون اطلاع کاربر شود.
مقالههای مرتبط:
باتوجه به اینکه جمنای اکنون در مجموعهی Google Workspace ادغام شده است، آسیبپذیری موردبحث میتواند امنیت دادههای سازمانی و حسابهای کاری را نیز تهدید کند. مارکوپولوس با ارائهی آزمایش واقعی نشان داده که جمنای چگونه با یک دستور نامرئی فریب خورده و لینک مخرب پیشنهاد داده است.
بااین حال، گوگل این مورد را نه نقص امنیتی، بلکه نوعی مهندسی اجتماعی میداند و میگوید مسئولیت محافظت از دادهها بر عهدهی کاربر است. این موضع نشان میدهد که فعلاً نباید انتظار رفع این نقص امنیتی در جمنای را داشته باشیم.
منبع : زومیت