Source : Les Observateurs

Le géant de la technologie Apple a récemment annoncé une nouvelle fonctionnalité qui lui permettra de numériser les photos de l’iPhone et de l’iPad pour détecter si elles contiennent des images sexuellement explicites impliquant des enfants, qu’Apple signalera aux autorités. Cependant, de nombreux experts en confidentialité s’inquiètent des implications de l’espionnage d’Apple sur les contenus des utilisateurs. Un expert souligne que la décision d’Apple est bien intentionnée, mais qu’ils devraient réfléchir à une question importante : « Qu’est-ce que la Chine voudra qu’ils bloquent ? »

Forbes  rapporte  que cette semaine, Apple a annoncé un nouvel ajout à ses prochains firmwares iOS 15 et iPadOS 15 pour iPhones et iPads. La nouvelle fonctionnalité permettra à Apple de numériser les photos des utilisateurs stockées dans le service iCloud d’Apple et de déterminer si elles contiennent des activités sexuellement explicites impliquant des enfants.

Dans un communiqué publié sur son site Web, Apple a déclaré: « Cela permettra à Apple de signaler ces cas au National Center for Missing and Exploited Children (NCMEC). » Le NCMEC fonctionne comme un centre de signalement de matériel pédopornographique (CSAM) et collabore avec plusieurs organismes d’application de la loi aux États-Unis.

Apple affirme que la façon dont il détecte le CSAM est « conçue en tenant compte de la confidentialité des utilisateurs » et qu’il n’accède pas directement aux photos des utilisateurs d’iCloud, mais utilise plutôt un système de recherche et de correspondance basé sur le hachage et sur l’appareil pour croiser les hachages de photos d’utilisateurs avec les hachages de CSAM connus. S’il existe une correspondance entre les photos d’un utilisateur et la base de données CSAM, Apple examine manuellement le problème et désactive ensuite le compte de l’utilisateur avant d’envoyer un rapport au NCMEC.

🔗 Lire l’article complet

Source image : Les Observateurs