فناوری

هوش مصنوعی می‌تواند به تولید ویروس‌های مصنوعی و ایجاد همه‌گیری کمک کند

هوش مصنوعی می‌تواند به تولید ویروس‌های مصنوعی و ایجاد همه‌گیری کمک کند

مصطفی سلیمان، یکی از بنیان‌گذاران دیپ‌مایند گوگل (Google Deepmind) (شرکت هوش مصنوعی گوگل) ابراز نگرانی کرد که بهره‌گیری از هوش مصنوعی به منظور مهندسی پاتوژن‌ها برای آسیب‌زایی بیشتر به سناریویی مانند همه‌گیری می‌رسد.

او در قسمت جدیدی از یک پادکست گفت: «بدترین سناریو این است که مردم پاتوژن‌ها را آزمایش کنند؛ پاتوژن‌های مصنوعی مهندسی‌شده که ممکن است به طور تصادفی یا عمدی سرایت‌پذیر‌تر یا مرگبارتر شوند.»

به گزارش نیوزلن و به نقل از ایندیپندنت، از نظر سلیمان، لازم است مشابه محدودیت‌هایی که برای جلوگیری از دسترسی آسان مردم به میکروب‌های بیماری‌زا مانند سیاه‌زخم وجود دارد، ابزارهایی نیز برای محدود کردن دسترسی به فناوری پیشرفته هوش مصنوعی و نرم‌افزاری که چنین مدل‌هایی را اجرا می‌کند، ایجاد شود.

او در پادکست روزنگار یک مدیرعامل (The Diary of a CEO) گفت: «این همانجایی است که باید کنترل شود. باید دسترسی به ابزار و دانش را برای آن نوع آزمایش محدود کنیم.»

او که از بنیان‌گذاران دیپ‌مایند گوگل است، گفت: «نمی‌توانیم اجازه دهیم هرکسی به آن‌ها دسترسی داشته باشد. باید دسترسی افراد به استفاده از نرم‌افزار هوش مصنوعی، سیستم‌های ابری و حتی برخی مواد بیولوژیکی را محدود کنیم.»

 

هوش مصنوعی می‌تواند به تولید ویروس‌های مصنوعی و ایجاد همه‌گیری کمک کند

او گفت: «و البته این کار از جنبه زیست‌شناسی به معنای محدود کردن دسترسی به برخی مواد است.» و افزود که توسعه هوش مصنوعی باید با رعایت «اصل احتیاط» انجام شود.

سخنان سلیمان تکرار نگرانی‌های مطرح‌شده در مطالعه‌ای جدید است که می‌گوید حتی دانشجویان کارشناسی که بدون پیشینه مرتبط در حوزه زیست‌شناسی هم با استفاده از سیستم‌های هوش مصنوعی می‌توانند در مورد سلاح‌های زیستی پیشنهادهای مفصلی ارائه دهند.

پژوهشگران از جمله از موسسه فناوری ماساچوست دریافتند ربات‌های چت می‌توانند «چهار پاتوژن احتمالا همه‌گیر» را ظرف یک ساعت پیشنهاد و توضیح دهند که چگونه می‌توان آن را از دی‌ان‌ای مصنوعی تولید کرد.  

این پژوهش نشان داد ربات‌های چت «اسامی شرکت‌های تولید دی‌ان‌ای را که احتمالا سفارش‌ها را غربال نمی‌کنند، در اختیار گذاشتند، پروتکل‌های دقیق و نحوه عیب‌یابی آن‌ها را شناسایی و توصیه کردند هرکس مهارت انجام دادن ژنتیک معکوس ندارد، با یک واحد مرکزی همکاری یا با یک سازمان پژوهشی قراردادی کار کند.»

او گفت که براساس این مطالعه، چنین مدل‌های زبانی بزرگی (LLMs) مانند چت جی‌پی‌تی «به محض شناسایی مطمئن، عوامل همه‌گیری را به صورت گسترده در دسترس قرار می‌دهند؛ حتی برای افرادی که برای کارهای آزمایشگاهی آموزش کمی دیده‌اند یا هیچ آموزشی ندیده‌اند».

کوین اسولت، یکی از نویسندگان این مطالعه و کارشناس خطر زیستی موسسه فناوری ماساچوست (ام‌آی‌تی)، خواستار «اقدام منع گسترش سلاح‌های هسته‌ای» شد.

چنین اقدام‌هایی می‌تواند عبارت باشد از «ارزیابی پیش از انتشار مدل‌های زبانی بزرگ از طریق شخص ثالث، مدیریت مجموعه داده‌های آموزشی برای حذف مفاهیم زیان‌بار و غربالگری تایید‌شده تمام دی‌ان‌ای تولیدی ارائه‌دهندگان سنتر یا آن‌هایی که در سازمان‌های پژوهشی قراردادی و آزمایشگاه‌های ابری رباتیک برای مهندسی موجودات زنده یا ویروس‌ها» مصرف شده باشد.

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا