Le Royaume-Uni accuse encore Apple de ne pas assez protéger les enfants
- Nadim Lefebvre
- Il y a 3 mois
- 💬 2 coms
- 🔈 Écouter
Protéger la vie privée de ses utilisateurs tout en assurant la sécurité des plus vulnérables, telle est l'équation complexe qu'Apple tente de résoudre. Alors que les géants de la tech renforcent leurs efforts contre la prolifération du contenu d'abus sexuel sur mineurs (CSAM), la firme de Cupertino est accusée au Royaume-Uni de prendre du retard sur ce front crucial.
Des chiffres alarmants
Selon une enquête menée par la National Society for the Prevention of Cruelty to Children (NSPCC), Apple serait en retard par rapport à ses pairs dans la lutte contre la diffusion de CSAM. En 2023, Apple n'aurait rapporté que 267 cas suspects au National Center for Missing & Exploited Children (NCMEC) pour l'ensemble de ses plateformes dans le monde. Un chiffre dérisoire comparé aux 1,47 million de cas signalés par Google et 30,6 millions par Meta la même année.
Pourtant, d'après les données de police obtenues par la NSPCC, rien qu'en Angleterre et au Pays de Galles, Apple a été impliquée dans 337 infractions liées au CSAM entre avril 2022 et mars 2023. Un nombre supérieur aux signalements mondiaux de l'entreprise. En clair, il y aurait plus d'atteintes au CSAM au Royaume-Uni que le nombre de cas signalés par Apple au niveau mondial. Le régulateur britannique dénonce :
Il y a un décalage inquiétant entre les crimes liés au CSAM commis sur les services d'Apple au Royaume-Uni et le nombre presque nul de signalements globaux qu'ils font aux autorités
La difficile équation entre confidentialité et sécurité
Bien que chiffrés comme WhatsApp, les services iMessage et FaceTime d'Apple peinent à détecter le CSAM. Apple avait envisagé un outil de scan des photos iCloud, abandonné sous la pression des défenseurs de la vie privée. L'entreprise affirme désormais privilégier "la sécurité et la confidentialité" de ses utilisateurs.
L'arrivée de l'IA dans tous les systèmes fait aussi craindre une recrudescence d'images générées par l'IA. Si Apple ne devrait pas produire d'images photoréalistes dans Apple Intelligence, les experts redoutent que l'entreprise ne soit pas outillée pour cette menace émergente.
Entre confidentialité et protection de l'enfance, Apple cherche un équilibre délicat. Si les chiffres divergent, la lutte contre le CSAM reste une priorité que l'entreprise devra relever, notamment face aux défis de l'IA.
Une bataille de longue haleine
Ce n'est pas la première fois qu'Apple est accusée de ne pas assez protéger les mineurs au sein de ses plateformes. Pour cause, l'UE a récemment tenté d'obliger les entreprises tech à suivre les contenus potentiellement pédopornographiques au sein des messageries, avant de se rétracter face à la violation de la vie privée. iMessage étant chiffré de bout en bout, il est impensable qu'Apple crée volontairement une brèche pour consulter les messages de ses utilisateurs.
De fait, les régulateurs britanniques ont aussi abandonné l'idée d'imposer au géants de la technologie de contrôler leurs messageries chiffrées. Dans ce cas, il est très difficile pour Apple de faire quoi que ce soit puisque l'entreprise n'a même pas accès aux données de ses clients. Le Royaume-Uni compare la situation d'Apple avec celles de Meta et Google alors que ces-dernières ont accès à bien plus de données de leurs utilisateurs. Le problème semble insoluble.