فناوری

گزارش Anthropic نشان می‌دهد ۹۰ درصد عملیات حمله توسط هوش مصنوعی انجام شده است

گزارش Anthropic نشان می‌دهد ۹۰ درصد عملیات حمله توسط هوش مصنوعی انجام شده است

شرکت Anthropic به‌تازگی اعلام کرده که ظی یک عملیات جاسوسی سایبری پیشرفته، از مدل هوش مصنوعی این شرکت یعنی Claude برای اجرای بخش عمده‌ای از حمله استفاده شده است.
این حادثه که توسط کارشناسان امنیتی «بی‌سابقه» توصیف شده، نشان‌دهنده آغاز دوره‌ای تازه در تهدیدات سایبری مبتنی بر هوش مصنوعی است.
 
گزارش جدید Anthropic از حمله‌ای خودگردان با اتکای گسترده به AI

به گزارش نیوزلن براساس اطلاعات منتشرشده به‌وسیله Anthropic و گزارش اختصاصی Axios، گروهی هکری که منشأ آن به یک دولت خارجی نسبت داده شده، توانسته است با بهره‌گیری از قابلیت‌های مدل Claude، بخش عمده فرآیندهای حمله را بدون دخالت انسانی انجام دهد.
گفته شده که این گروه پیش‌تر نیز در عملیات‌ مرتبط با جاسوسی سایبری مشاهده شده بود، اما این نخستین بار است که یک مدل زبانی پیشرفته تا این میزان در میانه چرخه حمله نقش‌آفرینی می‌کند.

طبق این گزارش، مهاجمان از این مدل هوشمند برای اجرای وظایفی مانند تحلیل اهداف، تولید اسکریپت‌های مخرب، بهینه‌سازی مسیر نفوذ، نگارش ایمیل‌های فیشینگ بسیار طبیعی و حتی خودکارسازی تصمیم‌گیری‌های عملیاتی استفاده کرده‌اند. Anthropic اعلام کرده است که حدود ۹۰ درصد از مراحل حمله توسط هوش مصنوعی انجام شده است.
 
نقش کم‌رنگ انسان و افزایش نگرانی‌های امنیتی

بررسی‌های امنیتی نشان می‌دهد که انسان‌ها صرفاً نقش نظارتی و هماهنگی نهایی را بر عهده داشته‌اند و مدل هوش مصنوعی توانسته است بسیاری از وظایف پیچیده را به‌صورت مستقل انجام دهد. این موضوع، به‌ویژه برای سازمان‌های امنیتی و کارشناسان حوزه سایبری، زنگ خطری جدی به شمار می‌رود.
پیش‌تر نیز شرکت‌های امنیت سایبری درباره خطر «خودکار شدن کامل چرخه حملات» هشدار داده بودند، اما این حادثه نخستین نمونه‌ی عملی ثبت‌شده در ابعاد دولتی است که نشان می‌دهد مهاجمان می‌توانند یک مدل هوش مصنوعی عمومی را برای انجام عملیات جاسوسی مورد سوءاستفاده قرار دهند.
 
واکنش‌ها و پیامدهای احتمالی

در پی انتشار این گزارش، کارشناسان امنیتی نسبت به گسترش «سلاح‌های سایبری مبتنی بر AI» ابراز نگرانی کرده‌اند. آنها می‌گویند اگر مدل‌های هوش مصنوعی بتوانند بدون نظارت سختگیرانه، چنین نقش‌هایی ایفا کنند، در آینده نزدیک ممکن است شاهد موجی از حملات پیچیده‌تر، سریع‌تر و گسترده‌تر باشیم.

مدیران Anthropic تأکید کرده‌اند که برای جلوگیری از تکرار چنین سوءاستفاده‌هایی، در حال توسعه سیستم‌های شناسایی رفتارهای خطرناک و محدودکننده‌های جدید برای استفاده از مدل‌های زبانی است. شرکت‌های امنیتی نیز خواستار استانداردهای سختگیرانه‌تر برای کنترل استفاده از هوش مصنوعی در فضای سایبری شده‌اند.
در زمان انتشار این گزارش، نه دولت مورد اشاره و نه شرکت Anthropic جزئیات بیشتری درباره مقیاس حمله یا اهداف دقیق آن ارائه نکرده‌اند.

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا