OpenAI تأیید کرد متن تولیدشده با هوش مصنوعی تشخیصدادنی نیست
OpenAI تأیید کرد متن تولیدشده با هوش مصنوعی تشخیصدادنی نیست
هفتهی گذشته، OpenAI با انتشار پستی وبلاگی به نکات مهمی اشاره کرد که نشان میدهد چطور برخی از معلمان از ChatGPT بهعنوان ابزار کمکآموزشی استفاده میکنند. همچنین، این شرکت رسماً اعتراف میکند که برنامههای تشخیص متنهای تولیدشده با هوش مصنوعی عملکرد درستی ندارند.
در بخشی از سؤالات متداول OpenAI با عنوان «آیا آشکارسازهای هوش مصنوعی کار میکنند؟» آمده است:
ابزارهای تشخیص محتوای تولیدشده با هوش مصنوعی بهدلیل استفاده از معیارهای اثباتنشده نتایج مثبت کاذب ارائه میدهند. درنهایت، نشانهی خاصی در متن نوشتهشده با هوش مصنوعی وجود ندارد که بتوان آن را همیشه از متن انسانها تشخیص داد. درواقع، با بازنویسی ساده میتوان چنین ابزارهایی را بهراحتی فریب داد. OpenAI نیز پیشازاین ابزار آزمایشی خود که برای همین کار ساخته شده بود، متوقف کرد؛ زیرا میزان دقتش در سطح نامطلوب ۲۶ درصد قرار داشت.
پرسشهای متداول OpenAI به تصور اشتباه بزرگ دیگری نیز اشاره میکند که نشان میدهد ChatGPT میتواند متنهای ساختهشده با هوش مصنوعی را تشخیص دهد. این شرکت میگوید:
افزونبراین، OpenAI به تمایل مدل هوش مصنوعی خود به ترکیب اطلاعات نادرست اشاره میکند و میگوید:
اگرچه ابزارهای تشخیص محتوای تولیدشده با هوش مصنوعی عملکرد رضایتبخشی ندارند، این بدانمعنا نیست که انسانها نمیتوانند چنین کاری انجام دهند. بهعنوان مثال، معلمی که با سبک نوشتاری معمول دانشآموزانش آشنایی دارد، باتوجهبه تغییر سبک ناگهانی نوشتههای آنها میتواند محتوای ساختهشده با هوش مصنوعی را تشخیص دهد.
نشانههای گویایی مثل عبارت «بهعنوان مدل زبان هوش مصنوعی» در متنها، یعنی شخص مدنظر متن تولیدشده با ابزارهای هوش مصنوعی را حتی بازنویسی نکرده است و بهراحتی میتوان آن را تشخیص داد.
اتان مولیک، تحلیلگر هوش مصنوعی، دربارهی ابزارهای تشخیص محتوای هوش مصنوعی گفت:
منبع : زومیت