Apple retire les mentions liées à la fonction décriée CSAM qui scanne les photos (màj)
- Alban Martin
- Il y a 3 ans (Màj il y a 3 ans)
- 💬 1 com
- 🔈 Écouter
Apple a discrètement supprimé toute mention de CSAM sur sa page web consacrée à la sécurité des enfants, ce qui laisse penser que son projet controversé de détection des images d'abus pédosexuels sur les iPhones et les iPads pourrait être remis en cause à la suite des nombreuses critiques formulées à son encontre.
Un projet mort-né chez Apple ?
En août, Apple a annoncé le lancement d'une série de nouvelles fonctions de sécurité pour les enfants, dont la recherche de matériel pédopornographique dans les photos iCloud des utilisateurs, la sécurité de la communication pour avertir les enfants et leurs parents de la réception ou de l'envoi de photos sexuellement explicites, et des conseils étendus sur le matériel pédopornographique dans Siri et dans la recherche.
Après leur annonce, ces fonctionnalités ont été critiquées par un large éventail de personnes et d'organisations, notamment des chercheurs en sécurité, le lanceur d'alerte Edward Snowden, l'Electronic Frontier Foundation (EFF), l'ancien responsable de la sécurité de Facebook, des politiciens, des groupes politiques, des chercheurs universitaires et même certains employés d'Apple.
La majorité des objections a porté sur le système de détection prévu par Apple sur l'appareil, qui a été critiqué par les chercheurs pour s'être appuyé sur une technologie dangereuse à la limite de la surveillance, et raillé pour son inefficacité à identifier les images d'abus sexuels sur des enfants.
Apple a d'abord tenté de dissiper certains malentendus et de rassurer les utilisateurs en publiant des informations détaillées, en partageant des FAQ, divers nouveaux documents, des entretiens avec des cadres de l'entreprise, et plus encore, afin d'apaiser les inquiétudes. En vain.
Apple a finalement procédé au déploiement des fonctions de sécurité de communication pour iMessages, qui ont été mises en ligne en début de semaine avec la sortie d'iOS 15.2, mais Apple a décidé de retarder le déploiement de CSAM suite au torrent de critiques qu'elle n'avait manifestement pas anticipé.
Apple a déclaré que sa décision de retarder le déploiement était "fondée sur les commentaires des clients, des groupes de défense, des chercheurs et d'autres personnes... nous avons décidé de prendre du temps supplémentaire au cours des prochains mois pour recueillir des commentaires et apporter des améliorations avant de publier ces fonctions de sécurité pour enfants d'une importance cruciale."
La déclaration ci-dessus a été ajoutée à la page sécurité enfant d'Apple, mais elle a maintenant disparu, ainsi que toutes les mentions de CSAM, ce qui entrouvre la porte d'un abandon pur et simple du projet par Apple.
Mise à jour :
Apple a répondu que la fonction n’était pas annulée mais simplement retardée.