Apple explique pourquoi le projet de détection CSAM sur les photos iCloud a été abandonné
- 👨 Julien Russo
- Il y a 1 an (Màj il y a 1 an)
- 💬 3 coms
Apple s’explique plus en détail sur cette marche arrière
Apple a récemment fourni une explication détaillée sur l’abandon de son plan de détection de matériel d’abus sexuel sur les enfants (CSAM) dans iCloud Photos. En août 2021, la société avait annoncé trois nouvelles fonctionnalités de sécurité pour les enfants : un système de détection des images CSAM dans iCloud Photos, une option de sécurité pour brouiller les photos explicites dans l’application Messages, et des ressources d’exploitation des enfants pour Siri.
La fonctionnalité de sécurité de communication a été lancée aux États-Unis, au Royaume-Uni, au Canada, en Australie et en Nouvelle-Zélande avec iOS 15.2 en décembre 2021 et les ressources pour Siri sont également disponibles. Cependant, la détection de CSAM n’a jamais été lancée.
Erik Neuenschwander, directeur de la vie privée des utilisateurs et de la sécurité des enfants chez Apple, a souligné que l’analyse des données iCloud privées de chaque utilisateur créerait de nouveaux risques d’exploitation par les voleurs de données et pourrait avoir des conséquences imprévues, notamment en ouvrant la porte à la surveillance de masse et à la recherche d’autres systèmes de messagerie cryptée.
La décision d’Apple de ne pas aller de l’avant avec la détection CSAM dans iCloud Photos reflète les préoccupations croissantes concernant la protection de la vie privée et la sécurité des données des utilisateurs. Il est clair qu’Apple prend ces préoccupations très au sérieux et a décidé que les risques potentiels associés à cette fonctionnalité étaient trop élevés pour être mis en œuvre.
Source