Des experts jugent la sécurité enfant d'Apple invasive, inefficace et dangereuse
- Alban Martin
- Il y a 3 ans
- 💬 2 coms
- 🔈 Écouter
Plus d'une douzaine d'éminents experts en cybersécurité s'en sont pris à Apple pour s'être appuyé sur une "technologie dangereuse" dans son plan controversé de détection des images d'abus pédosexuels sur iPhone. C'est ce que nous rapporte le New York Times.
Une fonctionnalité plus que controversée
Les critiques accablantes sont venues dans une nouvelle étude de 46 pages de chercheurs qui ont examiné les plans d'Apple et de l'Union européenne pour surveiller les téléphones des gens à la recherche de contenu illicite, et a qualifié les efforts de stratégies inefficaces et dangereuses qui encourageraient la surveillance gouvernementale.
Annoncées en août, les fonctionnalités prévues comprennent la numérisation côté client des bibliothèques de photos iCloud des utilisateurs pour le matériel d'abus pédosexuels (CSAM), la sécurité des communications pour avertir les enfants et leurs parents lorsqu'ils reçoivent ou envoient des photos sexuellement explicites, et des directives CSAM élargie.
Selon les chercheurs, des documents publiés par l'Union européenne suggèrent que l'organe directeur du bloc cherche un programme similaire qui analyserait les téléphones cryptés à la recherche d'abus sexuels d'enfants ainsi que de signes de criminalité organisée et d'images liées au terrorisme.
"Il devrait être prioritaire pour la sécurité nationale de résister aux tentatives d'espionner et d'influencer les citoyens respectueux des lois", ont déclaré les chercheurs.
"L'expansion des pouvoirs de surveillance de l'État franchit vraiment une ligne rouge", a déclaré Ross Anderson, professeur d'ingénierie de la sécurité à l'Université de Cambridge et membre du groupe.
Outre les préoccupations en matière de surveillance, ont déclaré les chercheurs, leurs conclusions indiquent que la technologie n'était pas efficace pour identifier les images d'abus pédosexuels. Quelques jours après l'annonce d'Apple, ont-ils déclaré, les gens avaient indiqué des moyens d'éviter la détection en modifiant légèrement les images.
"Cela permet de scanner un appareil privé personnel sans qu'aucune cause probable d'illégitime ne soit fait", a ajouté une autre membre du groupe, Susan Landau, professeure de cybersécurité et de politique à l'Université Tufts. "C'est extraordinairement dangereux. C'est dangereux pour les affaires, la sécurité nationale, la sécurité publique et la vie privée."
Les chercheurs en cybersécurité ont déclaré qu'ils avaient commencé leur étude avant l'annonce d'Apple et qu'ils publiaient leurs conclusions maintenant pour informer l'Union européenne des dangers de son plan.
Apple a fait l'objet de critiques importantes de la part des défenseurs de la vie privée, des chercheurs en sécurité, des experts en cryptographie, des universitaires, des politiciens et même des employés de l'entreprise pour sa décision de déployer la technologie dans une future mise à jour d'iOS 15 et d'iPadOS 15.
Apple s'est d'abord attelé à dissiper les malentendus et à rassurer les utilisateurs en publiant des informations détaillées, en partageant des FAQ, divers nouveaux documents, des entretiens avec des dirigeants d'entreprise, et plus encore afin d'apaiser les préoccupations.
Cependant, lorsqu'il est devenu clair que cela n'avait pas l'effet escompté, Apple a par la suite reconnu les commentaires négatifs et a annoncé en septembre un retard dans le déploiement des fonctionnalités pour donner à l'entreprise le temps d'apporter des "améliorations" au système CSAM.
Apple a également déclaré qu'elle refuserait les demandes des gouvernements autoritaires d'étendre le système de détection d'images au-delà des images d'enfants signalées par des bases de données reconnues de matériel pédopornographique. Tout cela reste assez flou et devrait inquiéter plus d'un client.