zoomit

وقتی ChatGPT فریب می‌خورد؛ سرقت اطلاعات جیمیل زنگ خطر را به صدا درآورد

وقتی ChatGPT فریب می‌خورد؛ سرقت اطلاعات جیمیل زنگ خطر را به صدا درآورد

پژوهشگران امنیتی نشان دادند که چگونه می‌توان از ChatGPT به‌عنوان همدست در سرقت داده‌های حساس استفاده کرد. آن‌ها موفق شدند بدون آگاه‌شدن کاربر، اطلاعات شخصی را از جیمیل استخراج کنند.

آسیب‌پذیری ChatGPT را شرکت Radware با نام Shadow Leak معرفی کرد و اکنون برطرف شده؛ اما نمونه‌ای روشن از ریسک‌های نوظهور در هوش مصنوعی ایجنت‌محور به‌شمار می‌رود.

در این حمله از ضعف ایجنت هوش مصنوعی بهره گرفته شد؛ دستیارهایی که قادرند بدون نظارت مداوم کاربر، در وب جست‌وجو کنند یا به اسناد و ایمیل‌ها دسترسی یابند. پژوهشگران با استفاده از Prompt Injection، دستورهای مخفی را در ایمیلی کاشتند که به صندوق جیمیل متصل به ابزار Deep Research (بخشی از ChatGPT) ارسال شده بود.

دستورها پس از فعال‌شدن ایجنت هوش مصنوعی، آن را وادار می‌کردند ایمیل‌های منابع انسانی و داده‌های شخصی را پیدا و به هکرها منتقل کند؛ بدون آن‌که کاربر متوجه چیزی شود.

مقاله‌ی مرتبط

ردویر توضیح می‌دهد که برخلاف بیشتر حملات مشابه، در Shadow Leak داده‌ها مستقیماً از زیرساخت ابری OpenAI به بیرون نشت می‌کردند؛ موضوعی که باعث می‌شود روش‌های معمول دفاع سایبری نتوانند آن را شناسایی کنند.

همین تکنیک می‌تواند در دیگر سرویس‌های متصل به Deep Research مانند اوت‌لوک، گیت‌هاب، گوگل درایو و دراپ‌باکس نیز برای دسترسی به قراردادها، یادداشت‌های جلسات یا اطلاعات مشتریان به کار گرفته شود.

منبع : زومیت

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا