Apple explique pourquoi le projet de détection CSAM sur les photos iCloud a été abandonné

apple black iconeIl y a plus d’un an, Apple dévoilait son intention d’analyser les photos hébergés sur iCloud pour détecter les photos contenant des scènes d’abus d’enfant. À l’époque, Apple voulait détecter, signaler et supprimer, mais l’entreprise a vite abandonné son projet face à la polémique que cela a provoqué !

Apple s’explique plus en détail sur cette marche arrière

Apple a récemment fourni une explication détaillée sur l’abandon de son plan de détection de matériel d’abus sexuel sur les enfants (CSAM) dans iCloud Photos. En août 2021, la société avait annoncé trois nouvelles fonctionnalités de sécurité pour les enfants : un système de détection des images CSAM dans iCloud Photos, une option de sécurité pour brouiller les photos explicites dans l’application Messages, et des ressources d’exploitation des enfants pour Siri.

La fonctionnalité de sécurité de communication a été lancée aux États-Unis, au Royaume-Uni, au Canada, en Australie et en Nouvelle-Zélande avec iOS 15.2 en décembre 2021 et les ressources pour Siri sont également disponibles. Cependant, la détection de CSAM n’a jamais été lancée.

apple confidentialite

Erik Neuenschwander, directeur de la vie privée des utilisateurs et de la sécurité des enfants chez Apple, a souligné que l’analyse des données iCloud privées de chaque utilisateur créerait de nouveaux risques d’exploitation par les voleurs de données et pourrait avoir des conséquences imprévues, notamment en ouvrant la porte à la surveillance de masse et à la recherche d’autres systèmes de messagerie cryptée.

La décision d’Apple de ne pas aller de l’avant avec la détection CSAM dans iCloud Photos reflète les préoccupations croissantes concernant la protection de la vie privée et la sécurité des données des utilisateurs. Il est clair qu’Apple prend ces préoccupations très au sérieux et a décidé que les risques potentiels associés à cette fonctionnalité étaient trop élevés pour être mis en œuvre.

Source

Vous aimerez peut-être

Nos derniers articles

Suivez-nous avec notre app iSoft
Articles populaires
Donner votre avis

 





Les réactions

3 Baldou - iPad

01/09/2023 à 16h05 :

Comme quoi Apple a essayé de faire pour le mieux avec ses propres moyens mais que le problème est tellement complexe , sans parler de l’énorme influence des pédophiles qui sévissent aux plus hauts niveaux (gouvernements/politiques /médias…) et qu’ils (Apple) ont au moins le courage et l’honnêteté d’avouer que cela les dépasse et ils n’ont pas encore trouvé les bonnes solutions pour combattre ce fléau.

2 zaz95 - iPhone

01/09/2023 à 15h36 :

@Gaspard Mathon - iPhone
Exactement 🤡 pedoland

1 Gaspard Mathon - iPhone

01/09/2023 à 13h56 :

Bah oui, pcq tous les gros pedophiles du gouvernement français ne voulait pas qu’on puisse supprimer leur précieuses photos sur le cloud 🤡