zoomit

OpenAI تأیید کرد متن تولیدشده با هوش مصنوعی تشخیص‌دادنی نیست

OpenAI تأیید کرد متن تولیدشده با هوش مصنوعی تشخیص‌دادنی نیست

هفته‌ی گذشته، OpenAI با انتشار پستی وبلاگی به نکات مهمی اشاره کرد که نشان می‌دهد چطور برخی از معلمان از ChatGPT به‌عنوان ابزار کمک‌آموزشی استفاده می‌کنند. همچنین، این شرکت رسماً اعتراف می‌کند که برنامه‌های تشخیص متن‌های تولیدشده با هوش مصنوعی عملکرد درستی ندارند.

در بخشی از سؤالات متداول OpenAI با‌ عنوان «آیا آشکارسازهای هوش مصنوعی کار می‌کنند؟» آمده است:

ابزارهای تشخیص محتوای تولیدشده با هوش مصنوعی به‌دلیل استفاده از معیارهای اثبات‌نشده نتایج مثبت کاذب ارائه می‌دهند. درنهایت، نشانه‌ی خاصی در متن نوشته‌شده با هوش مصنوعی وجود ندارد که بتوان آن را همیشه از متن انسان‌ها تشخیص داد. درواقع، با بازنویسی ساده می‌توان چنین ابزارهایی را به‌راحتی فریب داد. OpenAI نیز پیش‌از‌این ابزار آزمایشی خود که برای همین‌ کار ساخته شده بود، متوقف کرد؛ زیرا میزان دقتش در سطح نامطلوب ۲۶ درصد قرار داشت.

پرسش‌های متداول OpenAI به تصور اشتباه بزرگ دیگری نیز اشاره می‌کند که نشان می‌دهد ChatGPT می‌تواند متن‌های ساخته‌شده با هوش مصنوعی را تشخیص دهد. این شرکت می‌گوید:

افزون‌براین، OpenAI به تمایل مدل هوش مصنوعی خود به ترکیب اطلاعات نادرست اشاره می‌کند و می‌گوید:

اگرچه ابزارهای تشخیص محتوای تولید‌شده با هوش مصنوعی عملکرد رضایت‌بخشی ندارند، این بدان‌معنا نیست که انسان‌ها نمی‌توانند چنین کاری انجام دهند. به‌عنوان مثال، معلمی که با سبک نوشتاری معمول دانش‌آموزانش آشنایی دارد، با‌توجه‌به تغییر سبک ناگهانی نوشته‌های آن‌ها می‌تواند محتوای ساخته‌شده با هوش مصنوعی را تشخیص دهد.

نشانه‌های گویایی مثل عبارت «به‌عنوان مدل زبان هوش مصنوعی» در متن‌ها، یعنی شخص مدنظر متن تولیدشده با ابزارهای هوش مصنوعی را حتی بازنویسی نکرده است و به‌راحتی می‌توان آن را تشخیص داد.

اتان مولیک، تحلیلگر هوش مصنوعی، درباره‌ی ابزارهای تشخیص محتوای هوش مصنوعی گفت:

منبع : زومیت

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا