Apple repousse le lancement du système d'analyse des photos iCloud
- Julien Russo
- Il y a 3 ans (Màj il y a 3 ans)
- 💬 4 coms
- 🔈 Écouter
Ça faisait plusieurs années qu'Apple n'avait pas lancé une polémique d'une telle ampleur. En juillet, la firme de Cupertino a annoncé son intention de lancer plusieurs fonctionnalités de sécurité pour protéger les enfants. L'une d'entre elle consistait à analyser les millions de photos qui circulent sur les serveurs iCloud. Le but ? Trouver des photos pouvant révéler un trafic d'enfant, de la pédopornographie ou encore des actes de violence envers des mineurs.
Apple a décalé le lancement du système d'analyse des photos iCloud
Avec l'analyse de vos photos iCloud, Apple a créé un bad buzz mondial, les réseaux sociaux ne parlent que de ça, mais aussi les médias qui y voient pour la plupart un acte très grave pour la confidentialité et le respect de la vie privée des clients Apple.
En effet, tout le monde est d'accord pour dire qu'une intelligence artificielle qui analyse les photos iCloud pour détecter un trafic d'enfant est une bonne chose qui pourrait sauver des vies, mais cela a un impact trop important sur la confidentialité.
Ce qui fait peur, c’est la porte qu'ouvre Apple, qu'est-ce qui prouve que l'entreprise ne cherchera pas à aller plus loin dans l'analyse de vos photos pour trouver d'autres délits ? Après tout, la technologie sera présente et il suffira juste de la "former" pour trouver d'autres contenus, une chose qui n'est pas compliquée en s'entourant des bonnes personnes !
Toujours à l'écoute des préoccupations de ses clients, un porte-parole a annoncé aujourd'hui à 9to5mac que la firme de Cupertino a pris la décision de repousser le lancement du système d'analyse de vos photos iCloud (détection CSAM).
Rien n'est abandonné, mais l'objectif est d'affiner les fonctionnalités avant le lancement.
Le mois dernier, nous avons annoncé des plans pour des fonctionnalités destinées à aider à protéger les enfants contre les prédateurs qui utilisent les outils de communication pour les recruter et les exploiter, et à limiter la propagation des documents relatifs aux abus sexuels sur les enfants. Sur la base des commentaires des clients, des groupes de défense, des chercheurs et d'autres personnes, nous avons décidé de prendre du temps supplémentaire au cours des prochains mois pour recueillir des commentaires et apporter des améliorations avant de publier ces fonctionnalités de sécurité des enfants d'une importance cruciale.
Initialement prévu pour être lancé en simultanée qu'iOS 15, iPadOS 15 et macOS Monterey dès la rentrée, l'analyse de vos photos iCloud est repoussée à plus tard dans l'année. Apple préfère ne pas communiquer de date pour le moment, l'entreprise estime qu'il est trop tôt pour dire quand les modifications seront terminées.