zoomit

معرفی هیولای جدید گوگل؛‌ چرا Deep Think خطرناک‌ترین هوش مصنوعی دنیا است؟

معرفی هیولای جدید گوگل؛‌ چرا Deep Think خطرناک‌ترین هوش مصنوعی دنیا است؟

علاوه‌براین، Deep Think توانسته یک حدس ریاضی را که سال‌ها ذهن ریاضی‌دانان را به خود مشغول کرده بود، به سرعت اثبات کند. به گفته‌ی پژوهشگران، درحالی‌که انسان ممکن است چند رویکرد محدود را برای حل یک مسئله امتحان کند، Deep Think قادر است صدها رویکرد مختلف را به صورت موازی بررسی کند و به نتیجه برسد.

بااین‌حال، این قدرت استدلال با یک تناقض بزرگ همراه است. تحقیقات نشان داده که این مدل‌ها، با وجود توانایی ساخت زنجیره‌های استدلال بسیار پیچیده و استادانه، همچنان در محاسبات و منطق بنیادین دچار خطاهای ساده می‌شوند و توانایی محدودی در تشخیص اشتباهات خود دارند. در دنیای هوش مصنوعی، پیچیدگی لزوما به معنای درستی نیست و نباید فریب استدلال‌های به ظاهر بی‌نقص آن را خورد.

در کنار این ضعف، باید به یک محدودیت عملی و ناامیدکننده برای کاربران هم اشاره کرد. هر کاربر در هر ۲۴ ساعت تنها مجاز به ارسال پنج درخواست (prompt) به این مدل است. این یعنی پس از پنج بار چت، دسترسی شما تا روز بعد قطع می‌شود.

این وضعیت شبیه به داستان غول چراغ جادو با تعداد آرزوهای محدود است؛ اگر در درخواست‌های خود دقیق و شفاف نباشید، ممکن است یکی از فرصت‌های ارزشمند را با دریافت یک پاسخ بی‌ربط یا ناقص هدر دهید. برای مثال، یک کاربر ممکن است برای ساخت یک شبیه‌سازی سه‌بعدی از ترافیک شهری، به جای یک مدل متحرک، تنها یک نمودار ساده دریافت کند و یکی از «اعتبارهای» روزانه خود را از دست بدهد.

این محدودیت شدید، آزمایش و ارزیابی جامع مدل را تقریباً غیرممکن می‌کند.

مهار هیولا؛‌ گوگل چطور جلوی خطرات هوش مصنوعی را می‌گیرد؟

همزمان با افزایش چشم‌گیر توانمندی‌های هوش مصنوعی، نگرانی‌ها در مورد خطرات این فناوری نیز افزایش یافته است. گوگل، به‌عنوان یکی از پیشگامان این عرصه، از این مخاطرات آگاه است و برای مدیریت آن‌ها، یک چارچوب حاکمیتی مدون با نام «چارچوب ایمنی پیشگام» (Frontier Safety Framework – FSF) را توسعه داده است. فلسفه‌ی اصلی این چارچوب، «پیشگیری فعالانه به جای واکنش انفعالی» است؛ رویکردی که می‌گوید نمی‌توان منتظر وقوع آسیب در دنیای واقعی ماند و سپس برای آن چاره‌اندیشی کرد.

تعریف خطر: سطوح قابلیت بحرانی (CCLs)

هسته‌ی اصلی این چارچوب، مفهومی به نام «سطوح قابلیت بحرانی» (Critical Capability Levels یا CCLs) است. هر CCL در واقع یک «خط قرمز» یا آستانه‌ی توانمندی است که عبور مدل از آن، می‌تواند ریسک آسیب‌های جدی را به شکل چشمگیری افزایش دهد. این سطوح برای حوزه‌های پرخطری مانند موارد زیر تعریف شده‌اند:

  • امنیت سایبری: توانایی مدل در تسهیل یا اجرای حملات سایبری پیشرفته.
  • امنیت زیستی (CBRN): قابلیت مدل در کمک به توسعه سلاح‌های شیمیایی، بیولوژیکی یا هسته‌ای.
  • هم‌راستایی فریبکارانه (Deceptive Alignment): ریسکی پیچیده‌تر که در آن، مدل ممکن است ضمن تظاهر به پیروی از دستورات انسان، اهداف پنهان خود را دنبال کند.

سیستم هشدار سریع گوگل

برای تشخیص نزدیک شدن به این خطوط قرمز، گوگل از سیستمی به نام «آستانه هشدار» (Alert Threshold) استفاده می‌کند که شبیه یک «سیم تله» یا «زنگ خطر» عمل می‌کند.

مدل Gemini 2.5 Deep Think یک شمشیر دولبه است

البته فعال شدن این هشدار به معنای عبور از خط قرمز نهایی نیست، بلکه یک سیگنال داخلی رسمی برای تیم‌های مهندسی با این پیام است: «سطح توانمندی‌های مدل در حال ورود به محدوده‌ی خطرناک است و نیازمند بررسی و اقدامات پیشگیرانه فوری است.»

زنگ خطر برای جمنای

گوگل در گزارش فنی خود رسماً اعلام کرد که مدل Gemini 2.5 Pro، با وجود قدرت بی‌سابقه‌اش، «به هیچ‌یک از سطوح قابلیت بحرانی (CCL) نرسیده است».

بااین‌حال، جزئیات گزارش حاوی نکته‌ای کلیدی بود: ارزیابی‌ها نشان داد که این مدل به «آستانه هشدار» برای کمک به حملات سایبری رسیده و «سیم تله» را فعال کرده است. این یعنی اگرچه مدل هنوز یک ابزار تهاجمی سایبری مستقل نیست، اما به سطحی از توانایی دست یافته که می‌تواند به یک کاربر در درک و اجرای تکنیک‌های پیچیده‌ی سایبری کمک کند.

تصمیم گوگل برای افشای عمومی این موضوع، اقدامی حساب‌شده برای نمایش کارآمدی سیستم ایمنی و شفافیت بود.

رویکرد ایمنی گوگل در برابر آنتروپیک

رویکرد گوگل تنها فلسفه موجود برای مدیریت ریسک هوش مصنوعی نیست. شرکت آنتروپیک، یکی دیگر از بازیگران کلیدی هوش مصنوعی، چارچوبی متفاوت و محتاطانه‌تر به نام «سیاست مقیاس‌پذیری مسئولانه» (RSP) را دنبال می‌کند که در صورت نبود اطمینان از ایمنی، توسعه را متوقف می‌کند. این تفاوت‌ها نشان می‌دهد که هنوز اجماعی بر سر بهترین راه برای مهار خطرات هوش مصنوعی وجود ندارد.

تفاوت اصلی فلسفی این دو رویکرد در این است:

  • گوگل (FSF): رویکردی مبتنی‌بر مهندسی و مدیریت ریسک برای فراهم کردن امکان ادامه‌ی نوآوری.
  • آنتروپیک (RSP): رویکردی ذاتاً محتاطانه که توسعه را به ایمنی گره می‌زند و در صورت نبود اطمینان از ایمنی، توسعه را متوقف می‌کند (مشابه یک ترمز اضطراری).

نگرانی از قابلیت‌های خطرناک Deep Think

مهم‌ترین هشدار درباره‌ی خطرات «Deep Think» از سوی خود پژوهشگران گوگل اعلام شده است که به توانایی بی‌سابقه‌ی آن در «ترکیب ایده‌ها» از منابع مختلف اشاره دارد. ساموئل آلبانی (Samuel Albanie)، یکی از دانشمندان تیم DeepMind، می‌گوید: «این مدل فقط مقالات تحقیقاتی را به خاطر نمی‌آورد، بلکه ایده‌ها را از مقالات مختلف به روشی بی‌سابقه با هم ترکیب می‌کند. این سطح از توانایی نیازمند ارزیابی دقیق و محتاطانه است.»

این قابلیت «ترکیب ایده‌ها» که در مدل‌های قدیمی‌تر ضعیف بود، زنگ خطر را در مورد ریسک‌های ایمنی به صدا درآورده است. نگرانی اصلی در حوزه‌ای است که گوگل آن را CBRN می‌نامد: ریسک‌های شیمیایی، بیولوژیکی، رادیولوژیکی و هسته‌ای (Chemical, Biological, Radiological, and Nuclear).

به زبان ساده، آیا کسی می‌تواند از این مدل برای دستیابی به دانش فنی دقیق برای ساخت سلاح‌های بیولوژیکی یا شیمیایی استفاده کند؟

طبق گزارش ایمنی گوگل، «Deep Think» در بنچمارک‌های درک مفاهیم زیست‌شناسی و شیمی، عملکردی به مراتب بهتر از تمام مدل‌های قبلی دارد. گوگل اعلام کرده که این مدل به «سطح توانایی بحرانی» نزدیک شده است؛ نقطه‌ای که در آن باید اقدامات پیشگیرانه‌ی جدی برای جلوگیری از آسیب‌های شدید احتمالی صورت گیرد.

این نگرانی جهانی است. شرکت OpenAI، خالق ChatGPT، در آوریل ۲۰۲۵ هشدار داد که مدل‌های با ریسک بالای تولید سلاح‌های بیولوژیکی «قریب‌الوقوع» هستند. سم آلتمن، مدیرعامل این شرکت، اخیراً گفته است: «چراغ‌های خطر چشمک می‌زنند… فکر می‌کنم دنیا ما را جدی نمی‌گیرد.»

سم آلتمن:‌ «چراغ‌های خطر چشمک می‌زنند… فکر می‌کنم دنیا ما را جدی نمی‌گیرد.»

شرکت هوش مصنوعی ایلان ماسک‌ (xAI) نیز در گزارش‌های ایمنی خود بر روی ریسک‌های مرتبط با زیست‌شناسی و امنیت سایبری تمرکز ویژه‌ای داشته است.

در کنار این خطرات، بزرگترین چالش، خودِ «علم ایمنی هوش مصنوعی» است. آزمایشگاه‌های پیشرو اعتراف می‌کنند روش‌های ارزیابی قابلیت‌ها هنوز نابالغ هستند. این بدان معناست که کل ساختار ایمنی هوش مصنوعی بر پایه‌هایی بنا شده که از نظر علمی هنوز در حال تکامل هستند.

هرچند برخی این هشدارها را تاکتیک‌های بازاریابی برای جذب سرمایه و نشان دادن قدرت مدل‌ها می‌دانند، اما وقتی پژوهشگران ارشد خود این شرکت‌ها به طور مستقیم ابراز نگرانی می‌کنند، نمی‌توان به سادگی از کنار آن گذشت.

مدل Gemini 2.5 Deep Think یک شمشیر دولبه است: از یک سو، یک ابزار پژوهشی و خلاقیت بی‌نظیر با توانایی حل مسائل پیچیده علمی و ریاضی است و از سوی دیگر، پتانسیل‌هایی نگران‌کننده دارد که نیازمند نظارت و کنترل جدی است.

فعال شدن «آستانه هشدار» در آزمایشگاه‌های گوگل یک یادآوری به‌موقع است: ما در حال ورود به قلمرویی ناشناخته هستیم و باید با هر قدم، نهایت احتیاط را به خرج دهیم.

منبع : زومیت

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا