اپل توسعه سیستم تشخیص سوءاستفاده جنسی از کودکان را متوقف کرد
اپل توسعه سیستم تشخیص سوءاستفاده جنسی از کودکان را متوقف کرد
بهگزارش والاستریتژورنال، اپل به توسعهی فناوری شناسایی سوء استفاده جنسی احتمالی از کودکان (CSAM) که در دستگاههای کاربر ذخیره میشود، پایان داده است.
این طرح در پاییز گذشته با هدف توسعهی iOS 15 رونمایی شد؛ اما واکنشهای شدیدی بهدنبال داشت؛ زیرا کارشناسان رمزگذاری و حفظ حریم خصوصی مصرفکنندگان دربارهی خطر ایجاد سیستمهای نظارتی که مستقیماً گوشی، لپتاپ یا تبلت شما را کنترل میکنند هشدار دادند.
در دسامبر گذشته، اپل اعلام کرد که برنامههایش در این زمینه تغییر نکرده است؛ اما اکنون کریگ فدریگی، معاون نرمافزار اپل میگوید: سواستفاده جنسی را میتوان پیش از رخ دادن آن متوقف کرد.
فدریگی در پاسخ به این سؤال که تأثیر گسترش رمزگذاری بر کار مأموران اجرای قانون در بررسی جرایم چیست، گفت: «در نهایت، ایمن نگهداشتن دادههای مشتری پیامدهای بزرگی بر ایمنی ما بهطور گستردهتر دارد.»
اکنون اپل درحال گسترش رمزگذاری سرتاسری شامل پشتیبانگیری از گوشی و افزودن ویژگیهای جدید دیگر با هدف حفظ حریم خصوصی و امنیت در هنگام استفاده از iMessage و دادههای ذخیرهشده در iCloud است.
اپل در سال جاری میلادی، قسمتی از فناوری را که پاییز گذشته با نام «ایمنی ارتباط در iMessage» معرفی کرده بود، در ایالات متحده بهعنوان بخشی از بهروزرسانی iOS 15.2 و در کشورهای دیگر نیز با تغییراتی در برنامه اولیه منتشر کرد. این یک ویژگی انتخابی برای برنامهی پیامرسان است که به تنظیمات Family Sharing متصل بوده و تصاویر دریافتی و ارسالی را برای یافتن محتوای غیراخلاقی در حسابهای کودکان اسکن میکند.
- چرا شکایت علیه ایرتگهای اپل ممکن است مهمتر از حد انتظارات باشد؟
در این فناوری اگر چیز ممنوعی تشخیص داده شود، تصویر تار میشود و پیامی برای راهنمایی و جهت دریافت کمک یا مسدودکردن فرستنده نمایش میدهد. در طرح اولیه به نظر میرسید که این فناوری بهطور خودکار والدین را از هر گونه شناسایی سوءاستفاده جنسی مطلع میکند؛ اما همانطور که گفته شد، تنها بهعنوان یک گزینه برای کاربر دردسترس است.