دیدن یعنی باور کردن؛ تبعات جدی اشتباهات پزشکی هوش مصنوعی

دیدن یعنی باور کردن؛ تبعات جدی اشتباهات پزشکی هوش مصنوعی
متخصصان تجسمسازی زیستپزشکی هنوز نتوانستهاند به توافقی درباره استفاده درست یا نادرست از ابزارهای تولید تصویر مبتنی بر هوش مصنوعی در زمینه سلامت و علوم برسند.
به گزارش نیوزلن و به نقل از The Register، پژوهشگران دانشگاه برگن نروژ، دانشگاه تورنتو کانادا و دانشگاه هاروارد آمریکا در که قرار است در کنفرانس IEEE Vis 2025 ارائه شود، به این موضوع پرداختهاند که تصاویر ساختهشده توسط مدلهای هوش مصنوعی نظیر GPT-4o و DALL-E 3 اغلب ظاهر جذابی دارند اما در جزئیات علمی و آناتومی اشتباهات قابل توجهی دارند.
برای مثال، تصویری مشهور از یک موش با جنسی بسیار بزرگ به طور نادرست در مقالهای منتشر و بعدها پرونده آن پس گرفته شد، نمونهای از چنین خطاهایی است که به سختی میتوان آن را جدی گرفت. تصاویر تولیدی توسط هوش مصنوعی ممکن است آنقدر حرفهای به نظر برسند که افراد عادی یا حتی متخصصین با تجربه را به اشتباه بیندازند.
روکسان زیمن، پژوهشگر ارشد این تحقیق، میگوید که هرچند هنوز مورد مستندی از آسیب مستقیم پزشکی ناشی از تصاویر اشتباه هوش مصنوعی وجود ندارد، اما استفاده از این تصاویر نادرست در مقالات و تحقیقات علمی میتواند مشکلات بلندمدت ایجاد کند. او به موردی در هلند اشاره میکند که سیستمی مبتنی بر هوش مصنوعی برای شناسایی تقلب در کمکهای دولتی به اشتباه والدینی به خصوص با زمینه مهاجرت را متهم کرده است.
مطالعه همچنین نگرانیهایی درباره تأثیر این تصاویر نادرست بر اعتماد عمومی به تحقیقات علمی و سلامتی مطرح کرده است، به طوری که میتواند به افزایش بیاعتمادی مردم به اطلاعات رسمی سلامت منجر شود.
نکته جالب این است که در مصاحبهها، افراد فعال در حوزه تجسمسازی زیستی، دیدگاههای متفاوتی درباره استفاده از هوش مصنوعی دارند؛ برخی از تصاویر عجیب و غریب تولید شده توسط هوش مصنوعی استقبال کردهاند و معتقدند این تصاویر روند گفتگو با مشتریان را پیش میبرد، اما تعداد قابل توجهی نیز نگران دقت پایین و مشکلات نحوه استفاده از این ابزارها هستند.
یکی از مصاحبهشوندگان اشاره میکند که هوش مصنوعی هنوز نمیتواند تفاوت بین اجزای دقیق آناتومی مانند عصب سیاتیک و عصب اولنار را تشخیص دهد و بیشتر تصاویر حاصل شده شبیه مجموعهای از سیمهاست تا اندام واقعی.
محققان هشدار میدهند که هرچه تکنولوژی هوش مصنوعی پیشرفتهتر و محبوبتر شود، خطاهای آن نیز سختتر تشخیص داده خواهند شد و ابهام در نحوه عملکرد مدلهای سیاهباکس (black-box) چالشی جدی برای پاسخگویی و مسئولیتپذیری ایجاد میکند.
یکی از پژوهشگران دانشگاه تورنتو، شهریار سهران، تأکید میکند که باید ضمن بهرهگیری از مزایای هوش مصنوعی، به صورت انتقادی و دقیق درباره نقش آن در حوزه تجسمسازی زیستی فکر کنیم و نگرانیها و سوالات خود را آزادانه مطرح کنیم تا جلوی استفاده نادرست و آسیب رساندن به روند علمی گرفته شود.
این مطالعه یک زنگ هشدار مهم است برای پزشکان، پژوهشگران و سیاستگذاران به منظور تدوین دستورالعملهای دقیق و اصول اخلاقی برای استفاده از ابزارهای هوش مصنوعی در محیطهای حساس پزشکی و زیستی، پیش از آنکه «تصاویر جذاب اما اشتباه» تبدیل به تهدیدی جدی برای سلامت انسان شوند.