zoomit

زنگ خطر در جامعه علمی؛ شمار مقالات علمی تولیدشده با هوش مصنوعی تکان‌دهنده است

زنگ خطر در جامعه علمی؛ شمار مقالات علمی تولیدشده با هوش مصنوعی تکان‌دهنده است

مثل بسیاری از نویسنده‌های ضعیف انسانی، چت‌بات‌های هوش مصنوعی هم تمایل دارند برخی واژه‌ها را بیش از حد تکرار کنند. حالا دانشمندان از همین ویژگی برای شناسایی همکارانی استفاده می‌کنند که به‌طور پنهانی از این ابزارها در کارهای خود بهره می‌برند.

طبق گزارش نیویورک تایمز، دانشمندان بر اساس تحلیل واژه‌های پرتکرار تخمین زده‌اند که صدها هزار مقاله‌ی علمی ممکن است با کمک هوش مصنوعی نوشته شده باشند.

محققانی از دانشگاه توبینگن آلمان در پژوهشی جدید که در مجله‌ی Science Advances منتشر شده، ۴۵۴ واژه را شناسایی کرده‌اند که مدل‌های زبانی بزرگ (LLM-ها) بیش از حد از آن‌ها استفاده می‌کنند؛ مانند «کسب‌شده» (garnered)، «شامل» (encompassing) و «رو به رشد» (burgeoning). آن‌ها دریافتند که بین ۱۳٫۵ تا ۴۰ درصد از چکیده‌ی مقالات زیست‌پزشکی یا کاملاً با هوش مصنوعی نوشته یا حداقل با کمک آن تدوین شده‌اند.

با توجه به اینکه سالانه حدود ۱٫۵ میلیون مقاله در پایگاه داده‌ی علمی «پاب‌مد» فهرست می‌شود، یافته‌ها بدین معنی است که احتمالاً دست‌کم ۲۰۰ هزار مقاله با کمک مدل‌های زبانی بزرگ نوشته شده‌اند. این تخمین شاید محافظه‌کارانه‌ باشد؛ زیرا بسیاری از متن‌های تولیدشده توسط هوش مصنوعی ممکن است به‌طور هدفمند ویرایش شده باشند تا ردپاها پنهان بماند.

برخی نویسندگان متقلب مقالات تلاش می‌کنند استفاده‌شان از هوش مصنوعی را پنهان کنند، اما برخی دیگر اصلاً اهمیتی نمی‌دهند. مثلاً در نمونه‌ای که «ساببارائو کمبهامپاتی»، دانشمند علوم رایانه از دانشگاه ایالتی آریزونا، در پلتفرم ایکس به اشتراک گذاشت، نویسندگان مقاله‌ای بی‌کیفیت در حوزه‌ی رادیولوژی حتی یک پیام عذرخواهی واضح از زبان چت‌بات را در متن مقاله رها کرده بودند: «بسیار متاسفم، اما من به اطلاعات لحظه‌ای یا داده‌های خاص بیماران دسترسی ندارم؛ چون یک مدل زبانی هوش مصنوعی هستم.»

استفاده از گزینه‌های بازنویسی پاسخ در ربات‌های هوش مصنوعی، تشخیص متن‌های نوشته شده توسط آن‌ها را سخت‌تر می‌کند

البته آن‌طور که وبلاگ ناظر مقالات سلب اعتبارشده (Retraction Watch) در سال ۲۰۲۳ گزارش داد، همه‌ی اشتباهات به این اندازه واضح نیستند. اگر با قابلیتی مثل «بازسازی پاسخ» (گزینه‌ای در چت‌جی‌پی‌تی که پاسخ‌های بی‌کیفیت را بازنویسی می‌کند) آشنا نباشید، ممکن است متوجه استفاده‌ی آن در مقالات ظاهراً معتبر نشوید.

وبلاگ Retraction Watch همچنین یک رسوایی ناامیدکننده مربوط به مقاله‌ای درباره هزارپاها با ارجاعات کاملاً ساختگی را گزارش کرده بود که ابتدا از یکی از پایگاه‌های داده پیش‌انتشار حذف شد، اما بعداً با همان منابع خیالی در پایگاهی دیگر دوباره منتشر شد. علاوه‌براین، یک ژورنال علمی به دلیل درج تصویری ساختگی از یک موش با اندام تناسلی غیرواقعی و بزرگ‌شده توسط هوش مصنوعی، مجبور به سلب اعتبار یک مقاله شد.

بیشتر بخوانید

ماجرا زمانی پیچیده‌تر می‌شود که دانشمندان عمداً شروع به تغییر سبک نگارش خود می‌کنند تا مقالاتشان به متن‌های هوش مصنوعی شبیه به نظر نرسد. همان‌طور که کمبهامپاتی گفته است، برخی از پژوهشگران درحال‌حاضر حتی واژه‌هایی مانند «کاوش‌کردن» (delve) را از متن‌هایشان حذف می‌کنند؛ زیرا زیاد توسط مدل‌های زبانی استفاده می‌شوند.

محققان دانشگاه توبینگن در مقاله‌ی خود هشدار داده‌اند که اگر استفاده‌ی گسترده از هوش مصنوعی در مقالات علمی تأیید شود، این پدیده ممکن است تأثیری بی‌سابقه بر نوشتار علمی در تحقیقات زیست‌پزشکی بگذارد؛ تأثیری حتی فراتر از رویدادهای بزرگی مثل دنیاگیری کرونا.

بااین‌حال، «دیمیتری کوباک»، یکی از نویسندگان مقاله، کل وضعیت را غیرمنطقی می‌داند و می‌گوید: «به باور من، نباید چیزی به مهمی نوشتن چکیده‌ی مقاله‌تان را به هوش مصنوعی بسپارید.»

منبع : زومیت

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا