شرکت اپل روز جمعه اعلام کرد طرح خود را برای جستوجوی تصاویر سوء استفاده جنسی از کودکان به تاخیر میاندازد و دلیل آن را نیاز به زمان بیشتر برای بهینهسازی سیستم پیش از انتشار عنوان کرد.
این شرکت ماه گذشته فاش کرد که بر روی ابزاری جهت شناسایی تصاویر شناختهشده از سوء استفاده جنسی از کودکان کار میکند که میتواند پیش از ذخیره تصاویر در آیکلاد آنها را اسکن و شناسایی کند.
این غول فناوری آمریکایی همچنین در حال برنامهریزی برای معرفی یک ابزار جداگانه برای اسکن تصاویر کدگذاری شده با محتوای فاحش جنسی است.
Read More
This section contains relevant reference points, placed in (Inner related node field)
اپل در آخرین مطلب به روزرسانی شده در وبسایت خود نوشت، «بر اساس بازخورد دریافتی از کاربران، گروههای فعال، پژوهشگران و دیگران، ما تصمیم گرفتیم برای گردآوری دادههای ورودی و بهینهسازی پیش از انتشار این امکان مهم محافظتی از کودکان، زمان بیشتری را در ماههای آینده صرف کنیم.»
این شرکت در اعلام قبلی خود گفته بود که آخرین تغییرات در این زمینه را در سال جاری میلادی به عنوان بخشی از بروزرسانیهای سیستم عامل گوشی آیفون، ساعت و کامپیوتر اپل اعمال خواهد کرد.
متیو گرین، پژوهشگر ارشد رمزنگاری در دانشگاه جانز هاپکینز، در ماه اوت هشدار داده بود که این سیستم میتواند برای پاپوش درست کردن برای افراد بیگناه با ارسال تصاویر خاص به آنها استفاده شود.
این طرح اپل همچنین با انتقادهایی از سوی گروههای مدافع حریم خصوصی اشخاص روبرو شده است.