هشدار سم آلتمن: ChatGPT درمانگر شما نیست!

هشدار سم آلتمن: ChatGPT درمانگر شما نیست!
کاربران ChatGPT باید پیش از بهکارگیری این سامانه هوش مصنوعی برای مشاورههای درمانی یا حمایتهای عاطفی، با احتیاط عمل کنند. سم آلتمن، مدیرعامل OpenAI، تأکید کرده است که صنعت هوش مصنوعی هنوز نتوانسته است راهکاری برای حفظ حریم خصوصی کاربران در گفتوگوهای حساس ارائه دهد. به بیان دیگر، زمانی که یک هوش مصنوعی نقش درمانگر را ایفا میکند، هیچگونه محرمانگی پزشک-بیمار یا حقوقی وجود ندارد.
آلتمن در پاسخ به پرسشی درباره تعامل هوش مصنوعی با نظام حقوقی فعلی، اظهار داشت که یکی از چالشهای اصلی، فقدان چارچوب قانونی یا سیاستگذاری مشخص در این حوزه است.
وی افزود: «افراد درباره خصوصیترین مسائل زندگی خود با ChatGPT گفتوگو میکنند. بسیاری از کاربران (بهویژه جوانان) از این فناوری بهعنوان درمانگر، مربی زندگی یا حتی برای حل مشکلات ارتباطی خود استفاده میکنند. در حالی که گفتوگو با یک درمانگر، وکیل یا پزشک واقعی از حمایتهای قانونی مانند محرمانگی پزشک-بیمار برخوردار است، چنین امتیازی برای مکالمات با هوش مصنوعی تعریف نشده است.»
وی همچنین هشدار داد که این مسئله در صورت بروز دعاوی قضایی میتواند تهدیدی برای حریم خصوصی کاربران محسوب شود، زیرا OpenAI بهصورت قانونی موظف است در صورت درخواست مراجع ذیصلاح، محتوای این گفتوگوها را افشا کند.
آلتمن خاطرنشان کرد: «این وضعیت نامطلوب است. بهنظر من، باید همان سطح از حریم خصوصی که در گفتوگو با یک درمانگر انسانی وجود دارد، برای تعامل با هوش مصنوعی نیز تضمین شود. حتی تا یک سال پیش، کسی به این موضوع فکر نمیکرد.»
چالشهای حقوقی و نگرانیهای کاربران
شرکت OpenAI اذعان دارد که نبود حریم خصوصی میتواند مانعی برای استقبال گستردهتر از این فناوری باشد. علاوه بر نیاز هوش مصنوعی به حجم عظیمی از دادههای آموزشی، این شرکت در برخی پروندههای قضایی ملزم به ارائه تاریخچه گفتوگوهای کاربران شده است. در همین راستا، OpenAI در حال مقابله با حکمی قضایی است که آن را موظف میکند مکالمات صدها میلیون کاربر ChatGPT (بهجز مشتریان نسخه Enterprise) را ذخیره کند.
این شرکت در بیانیهای رسمی، این حکم را «فراتر از حدود قانونی» خوانده و به آن اعتراض کرده است. در صورت ابطال سیاستهای حریم خصوصی OpenAI توسط دادگاه، این شرکت ممکن است با درخواستهای بیشتری برای افشای دادهها در تحقیقات قضایی یا اجرای قانون مواجه شود.
افزایش نگرانیها درباره دادههای دیجیتال
در سالهای اخیر، نگرانیها پیرامون حفاظت از دادههای کاربران افزایش یافته است، بهویژه پس از تصویب قوانینی که آزادیهای فردی (مانند حق سقط جنین) را محدود کردهاند. برای مثال، پس از لغو حکم «رو در برابر وید» (Roe v. Wade) توسط دیوان عالی ایالات متحده، بسیاری از کاربران به اپلیکیشنهای ردیابی قاعدگی با رمزگذاری پیشرفته (مانند اپل هِلث – Apple Health) روی آوردند.
موضع شخصی آلتمن درباره استفاده از ChatGPT
در بخشی دیگر از این گفتوگو، آلتمن درباره استفاده شخصی خود از ChatGPT نیز توضیح داد. او با اشاره به نگرانیهای حریم خصوصی، اظهار داشت: «بهنظر من منطقی است که پیش از استفاده گسترده از این فناوری، شفافیت قانونی در مورد حریم خصوصی دادهها وجود داشته باشد.»
این اظهارات نشاندهنده ضرورت تدوین قوانین شفاف برای محافظت از حریم خصوصی کاربران در عصر هوش مصنوعی است.