L’iPhone va détecter les photos d’abus sexuels sur des enfants

Apple a dévoilé son projet de scanner les iPhone américains à la recherche d’images d’abus sexuels sur des enfants. S’il en trouve stockées sur iCloud ou l’application Message, il les signalera aux forces de l’ordre.

Dans le courant de l’année, Apple déploiera une technologie qui lui permettra de détecter et de signaler aux forces de l’ordre les contenus connus relatifs à des abus sexuels sur des enfants, d’une manière qui, selon elle, préservera la vie privée des utilisateurs.

Un iPhone prenant une photo - Reinhart Julian / Unsplash
Un iPhone prenant une photo – Crédit : Reinhart Julian / Unsplash

Dans le cadre de cette initiative, Apple va analyser le contenu de l’application Messages et d’iCloud en utilisant “l’apprentissage automatique sur l’appareil”. Une fois mise à jour, la nouvelle application Messages mettra en garde les enfants contre l’envoi et la réception de photos explicites. Cette nouvelle fonctionnalité sera déployée dans le courant de l’année sur les iPhone, iPad et Mac.

Le logiciel s’appellerait NeuralHash. Si le logiciel détecte des abus sexuels sur des enfants dans une photo, il transmettra le matériel à des examinateurs humains du National Center for Missing & Exploited Children. Après vérifications, ceux-ci alerteront ou non les forces de l’ordre s’ils pensent que les images sont illégales.

Le logiciel d’Apple pourrait poser des problèmes de sécurité

Ce nouveau projet d’Apple a suscité les applaudissements des groupes de protection de l’enfance. Cependant, il fait craindre à certains chercheurs en sécurité que le système puisse être utilisé à mauvais escient. En effet, des gouvernements pourraient chercher à surveiller leurs citoyens.

Cependant, cette mesure permettrait à Apple de s’aligner sur d’autres services en nuage qui analysent déjà les fichiers des utilisateurs. Ceux-ci utilisent souvent des systèmes de hachage, à la recherche de contenus qui violent leurs conditions d’utilisation, notamment les images d’exploitation d’enfants.

Apple tente d’apaiser les craintes en garantissant le respect de la vie privée grâce à de multiples couches de cryptage. Elles sont conçues de telle sorte qu’elles nécessitent plusieurs étapes avant d’être soumises à l’examen manuel final d’Apple. NeuralHash sera intégré à iOS 15 et macOS Monterey. Leur sortie est prévue d’ici un mois ou deux, et pourrait coïncider avec le lancement du futur iPhone 13 d’Apple. On sait également qu’iOS 15 supprimera les points lumineux indésirés lors de la prise de photo.

Source : ArsTechnica

👉 Vous utilisez Google News ? Ajoutez Tom's Guide sur Google News et sur Whatsapp pour ne rater aucune actualité importante de notre site.

Votre Newsletter Tom's Guide

📣 Souscrivez à notre newsletter pour recevoir par email nos dernières actualités !