Apple va détecter les images pédopornographiques dans les photos de ses utilisateurs aux Etats-Unis
- Avec AFP
Le géant du numérique se servira d'iMessage, de Siri et d'iCloud afin de lutter contre les prédateurs sexuels et la pédopornographie. Les outils utilisés font craindre des dérives potentielles concernant la protection des données personnelles.
Le 5 août, Apple a dévoilé de nouveaux outils destinés à mieux repérer les images à caractère sexuel impliquant des enfants sur ses iPhone, iPad, iWatch et iMac et son serveur iCloud aux Etats-Unis, suscitant les inquiétudes de défenseurs de la vie privée sur internet. «Nous voulons aider à protéger les enfants contre les prédateurs qui utilisent des outils de communication pour les recruter et les exploiter, et limiter la diffusion de contenus pédopornographiques», a expliqué le groupe sur son site.
Des outils de cryptographie puis une vérification manuelle
Pour ce faire, Apple prévoit d'utiliser des outils de cryptographie pour comparer les photos téléchargées sur son serveur iCloud avec celles entreposées dans un fichier géré par le Centre national des enfants disparus et exploités (NCMEC) des Etats-Unis.
Le groupe assure qu'il n'a ainsi pas directement accès à l'image : quand une photo semble similaire à celle du fichier, Apple ira manuellement vérifier, désactivera le cas échéant le compte de l'utilisateur et enverra un rapport au Centre.
Le groupe prévoit par ailleurs de scanner les images envoyées ou reçues via le service de messagerie iMessage sur les comptes d'enfants liés à un abonnement familial. Quand des photos explicites sont repérées, elles seront alors floutées et l'enfant sera renvoyé vers des messages de prévention avant de pouvoir éventuellement les ouvrir ou les envoyer. Les parents pourront, s'ils le décident, choisir de recevoir un message quand leur enfant reçoit ou envoie de telles photos.
L'assistant vocal Siri sera aussi formé à «intervenir» quand des utilisateurs font des recherches d'images pédopornographiques en les prévenant que ces contenus sont problématiques. Ces outils seront disponibles progressivement aux Etats-Unis avec les prochaines mises à jour des systèmes d'exploitation sur les iPhone, iPad, iWatch et iMac.
Un potentiel danger pour la confidentialité des données
Ces changements «marquent une rupture significative par rapport aux protocoles de confidentialité et de sécurité établis de longue date», a estimé le Centre pour la démocratie et la technologie (CDT).
«Apple remplace son système de messagerie crypté de bout en bout par une infrastructure de surveillance et de censure, qui sera vulnérable aux abus et aux dérives non seulement aux Etats-Unis, mais dans le monde entier», a affirmé Greg Nojeim du CDT, dans un message transmis à l'AFP. Le groupe devrait selon lui «abandonner ces changements et restaurer la confiance de ses utilisateurs dans la sécurité et l'intégrité de leurs données conservées sur les appareils et services d'Apple».
«L'exploitation des enfants est un problème sérieux, et Apple n'est pas la première entreprise technologique à modifier sa position sur la protection de la vie privée pour tenter de la combattre», ont souligné de leur côté India McKinney et Erica Portnoy de l'ONG de protection des libertés sur internet Electronic frontier foundation (EEF). Cependant, même développé avec les meilleures intentions, un système destiné à détecter des images pédopornographiques «ouvre la porte à d'autres abus», craignent-elles dans un message de blog. Il suffit qu'Apple modifie un peu les paramètres pour chercher d'autres types de contenus ou pour scanner les comptes non seulement d'enfants mais aussi de tout le monde, expliquent-elles.