fbpx
Kapt Media
Technology World

États-Unis : Apple envisage de rechercher dans les iPhones des images d’abus sexuels impliquant des enfants

Des chercheurs en sécurité craignent que le système NeuralMatch ne soit utilisé à mauvais escient pour espionner les citoyens.

Apple entend analyser les photothèques stockées sur les iPhones aux États-Unis à la recherche d’images connues d’abus sexuels sur des enfants, annonce la société, s’attirant ainsi les louanges des groupes de protection de l’enfance, mais franchissant une limite qui, selon les défenseurs de la vie privée, pourrait avoir des ramifications dangereuses. La société examinera également, pour la première fois, le contenu de messages cryptés de bout en bout.

L’outil d’Apple, appelé neuralMatch, analysera les images avant qu’elles ne soient téléchargées sur le système de stockage en ligne iCloud Photos de la société, en les comparant à une base de données d’images d’abus d’enfants connus. Si une correspondance suffisamment forte est signalée, le personnel d’Apple pourra examiner manuellement les images signalées et, si l’abus d’enfant est confirmé, le compte de l’utilisateur sera désactivé et le National Center for Missing and Exploited Children (NCMEC) en sera informé.

Étant donné que l’outil ne recherche que les images qui figurent déjà dans la base de données du NCMEC, les parents qui prennent des photos d’un enfant dans son bain, par exemple, n’ont apparemment pas à s’inquiéter. Mais les chercheurs craignent que l’outil de comparaison – qui ne « voit » pas les images, mais se contente de relever les empreintes mathématiques qui les représentent – ne soit utilisé à d’autres fins.

Matthew Green, chercheur en cryptographie à l’université Johns Hopkins, a averti que le système pourrait théoriquement être utilisé pour piéger des personnes innocentes en leur envoyant des images apparemment inoffensives conçues pour déclencher des correspondances avec des images d’abus d’enfants. « Des chercheurs ont été capables de le faire assez facilement », a-t-il déclaré à propos de la possibilité de tromper ces systèmes.

D’autres abus pourraient inclure la surveillance gouvernementale des dissidents ou des manifestants. Que se passe-t-il lorsque le gouvernement chinois dit : « Voici une liste de fichiers que nous voulons que vous recherchiez », a demandé M. Green. « Est-ce qu’Apple dit non ? J’espère qu’ils diront non, mais leur technologie ne dira pas non. »

Les entreprises technologiques, dont Microsoft, Google et Facebook, partagent depuis des années les empreintes numériques d’images connues d’abus sexuels d’enfants. Apple les a utilisées pour analyser les fichiers des utilisateurs stockés dans son service iCloud à la recherche d’images d’abus pédosexuels. Mais la décision de transférer ce type d’analyse sur les appareils est sans précédent parmi les grandes entreprises technologiques.

Parallèlement à la technologie NeuralMatch, Apple prévoit d’analyser les messages cryptés des utilisateurs lorsqu’ils sont envoyés et reçus via iMessage. Un outil basé sur l’IA tentera d’identifier automatiquement les images sexuellement explicites, permettant aux parents d’activer des filtres automatiques pour les boîtes de réception de leurs enfants. Ce système, qui vise uniquement à fournir des outils pour « avertir les enfants et leurs parents lorsqu’ils reçoivent ou envoient des photos sexuellement explicites », n’entraînera pas l’envoi d’images sexuellement explicites à Apple ou leur signalement aux autorités. Mais les parents pourront être avertis si leur enfant décide d’envoyer ou de recevoir des photos sexuellement explicites.

Apple subit depuis des années des pressions gouvernementales pour permettre une surveillance accrue des données cryptées. Pour mettre en place ces nouvelles mesures de sécurité, Apple a dû trouver un équilibre délicat entre la répression de l’exploitation des enfants et le respect de son engagement très médiatisé à protéger la vie privée de ses utilisateurs.

Mais l’Electronic Frontier Foundation, un pionnier des libertés civiles en ligne, a qualifié le compromis d’Apple sur la protection de la vie privée de « volte-face choquante pour les utilisateurs qui comptaient sur le leadership de l’entreprise en matière de confidentialité et de sécurité ».

L’informaticien qui, il y a plus de dix ans, a inventé PhotoDNA, la technologie utilisée par les forces de l’ordre pour identifier les images d’abus d’enfants en ligne, a reconnu le potentiel d’abus du système d’Apple, mais a déclaré qu’il était largement compensé par l’impératif de lutter contre les abus sexuels sur les enfants.

« Est-ce possible ? Bien sûr. Mais est-ce quelque chose qui m’inquiète ? Non », a déclaré Hany Farid, chercheur à l’Université de Californie, Berkeley, qui a fait valoir que de nombreux autres programmes conçus pour sécuriser les appareils contre diverses menaces n’ont pas été affectés par « ce type de dérive ». Par exemple, WhatsApp fournit aux utilisateurs un cryptage de bout en bout pour protéger leur vie privée, mais utilise également un système de détection des logiciels malveillants et avertit les utilisateurs de ne pas cliquer sur des liens dangereux.

Apple a été l’une des premières grandes entreprises à adopter le chiffrement de bout en bout, qui consiste à brouiller les messages afin que seuls leurs expéditeurs et leurs destinataires puissent les lire. Les forces de l’ordre font depuis longtemps pression sur la société pour avoir accès à ces informations. Apple a déclaré que les derniers changements seraient mis en œuvre cette année dans le cadre des mises à jour de son logiciel d’exploitation pour les iPhones, les Macs et les Apple Watches.

« L’élargissement de la protection des enfants par Apple change la donne. Avec un si grand nombre de personnes utilisant des produits Apple, ces nouvelles mesures de sécurité ont le potentiel de sauver des vies pour les enfants. »

John Clark, président et directeur général du NCMEC

Apple a nié que ces changements équivalaient à une porte dérobée qui dégradait son cryptage. Elle a déclaré qu’il s’agissait d’innovations mûrement réfléchies qui ne perturbaient pas la vie privée des utilisateurs, mais la protégeaient.

« Chez Apple, notre objectif est de créer des technologies qui donnent du pouvoir aux gens et enrichissent leur vie – tout en les aidant à rester en sécurité », a déclaré l’entreprise dans un post annonçant les nouvelles fonctionnalités. « Nous voulons contribuer à protéger les enfants des prédateurs qui utilisent les outils de communication pour les recruter et les exploiter, et limiter la diffusion de matériel pédopornographique (CSAM) ».

« Ce programme est ambitieux, et la protection des enfants est une responsabilité importante. Ces efforts évolueront et s’étendront au fil du temps. »

Related posts

Elim CDM 2022 : L’Argentine dévoile sa liste de joueurs

marie Lisette Zogo

Football : Aurélien Tchouaméni, première sélection en équipe de France

marie Lisette Zogo

Thaïlande : Une femme coupe une corde retenant des peintres à 26 étages de hauteur

Franklin NIMPA

ONU : Antonio Guterres brigue un second mandat

marie Lisette Zogo

Tennis – Indian Wells : Le sud-africain Lloyd Harris, crée la surprise dans ce tournoi

marie Lisette Zogo

Italie : l’AC Milan s’offre son 19e titre de champion d’Italie

marie Lisette Zogo

Leave a Comment