نتیجه یک آزمایش: هوش مصنوعی جدید گوگل امنیت پایینی دارد

نتیجه یک آزمایش: هوش مصنوعی جدید گوگل امنیت پایینی دارد
گوگل در گزارش فنی خود اعلام کرد مدل هوش مصنوعی جمینای ۲٫۵ فلش در دو شاخص ایمنی «متن به متن» و «تصویر به متن»، عملکرد ضعیفتری نسبت به نسخهی قبلی خود داشته است. طبق دادههای داخلی، این مدل به ترتیب ۴٫۱ درصد و ۹٫۶ درصد بیشتر از جمینای ۲ فلش محتوای مغایر دستورالعملهای ایمنی گوگل تولید میکند.
آزمونهای گوگل بهصورت خودکار و بدون دخالت انسان انجام میشوند و نشان میدهند که مدل جدید این شرکت با وجود دقت بالاتر در پیروی از دستورالعملها، گاهی دستوراتی را اجرا میکند که امکان دارد خلاف سیاستهای ایمنی باشد.
انتشار نتایج بررسیهای انجامشده روی مدلهای جمینای در شرایطی صورت گرفت که شرکتهای بزرگ هوش مصنوعی از جمله OpenAI و متا، میکوشند مدلهای خود را در برابر موضوعات حساس، بازتر و پاسخگوتر کنند. این رویکرد اگرچه آزادی تعامل بیشتری به کاربران میدهد، اما در مواردی منجر به رفتارهای ناایمن شده است.
برای مثال، بررسیها نشان میدهد Gemini 2.5 Flash بهراحتی درباره موضوعات بحثبرانگیزی مانند جایگزینی قاضیهای انسانی با هوش مصنوعی یا نظارت بدون حکم توسط دولت، محتوای حمایتآمیز تولید میکند. چنین رفتارهایی باعث نگرانی دربارهی کاهش سطح ایمنی و اخلاق در نسلهای جدید مدلهای زبانی شده است.
منتقدانی مانند توماس وودساید خواستار شفافیت بیشتر در گزارشهای ایمنی گوگل شدهاند. بهگفتهی او، پیروی بیشتر از دستورات میتواند به قیمت نقض سیاستهای ایمنی تمام شود؛ موضوعی که ارزیابی آن بدون دسترسی به جزئیات دقیق برای تحلیلگران مستقل دشوار است.
منبع : زومیت