zoomit

نتیجه یک آزمایش: هوش مصنوعی جدید گوگل امنیت پایینی دارد

نتیجه یک آزمایش: هوش مصنوعی جدید گوگل امنیت پایینی دارد

گوگل در گزارش فنی خود اعلام کرد مدل هوش مصنوعی جمینای ۲٫۵ فلش در دو شاخص ایمنی «متن به متن» و «تصویر به متن»، عملکرد ضعیف‌تری نسبت به نسخه‌ی قبلی خود داشته است. طبق داده‌های داخلی، این مدل به ترتیب ۴٫۱ درصد و ۹٫۶ درصد بیشتر از جمینای ۲ فلش محتوای مغایر دستورالعمل‌های ایمنی گوگل تولید می‌کند.

آزمون‌های گوگل به‌صورت خودکار و بدون دخالت انسان انجام می‌شوند و نشان می‌دهند که مدل جدید این شرکت با وجود دقت بالاتر در پیروی از دستورالعمل‌ها، گاهی دستوراتی را اجرا می‌کند که امکان دارد خلاف سیاست‌های ایمنی باشد.

انتشار نتایج بررسی‌های انجام‌شده روی مدل‌های جمینای در شرایطی صورت گرفت که شرکت‌های بزرگ هوش مصنوعی از جمله OpenAI و متا، می‌کوشند مدل‌های خود را در برابر موضوعات حساس، بازتر و پاسخ‌گوتر کنند. این رویکرد اگرچه آزادی تعامل بیشتری به کاربران می‌دهد، اما در مواردی منجر به رفتارهای ناایمن شده است.

برای مثال، بررسی‌ها نشان می‌دهد Gemini 2.5 Flash به‌راحتی درباره موضوعات بحث‌برانگیزی مانند جایگزینی قاضی‌های انسانی با هوش مصنوعی یا نظارت بدون حکم توسط دولت، محتوای حمایت‌آمیز تولید می‌کند. چنین رفتارهایی باعث نگرانی درباره‌ی کاهش سطح ایمنی و اخلاق در نسل‌های جدید مدل‌های زبانی شده است.

منتقدانی مانند توماس وودساید خواستار شفافیت بیشتر در گزارش‌های ایمنی گوگل شده‌اند. به‌گفته‌ی او، پیروی بیشتر از دستورات می‌تواند به قیمت نقض سیاست‌های ایمنی تمام شود؛ موضوعی که ارزیابی آن بدون دسترسی به جزئیات دقیق برای تحلیل‌گران مستقل دشوار است.

منبع : زومیت

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا