Apple détaille la sécurité de ses outils CSAM

Apple a partagé un document qui fournit un aperçu plus détaillé des fonctionnalités de sécurité des enfants qu'elle a annoncées pour la première fois la semaine dernière, y compris les principes de conception, les exigences de sécurité et de confidentialité et les considérations relatives aux menaces traitées.

 

Un seuil de déclenchement à 30 images sensibles

L'intention d'Apple de détecter les images connues de matériel d'abus pédosexuel (CSAM) stockées dans les photos iCloud a été particulièrement controversé et a suscité des préoccupations de la part de certains chercheurs en sécurité, de l'organisation à but non lucratif Electronic Frontier Foundation et d'autres grands noms de l’industrie. Pour eux, ce système peut potentiellement être détourné par les gouvernements pour la surveillance de masse.

Le document vise à répondre à ces préoccupations et réitère certains détails qui ont fait surface un peu plus tôt dans une interview avec Craig Federighi, chef du génie logiciel d'Apple, notamment que la firme a prévu de fixer un seuil de correspondance initial de 30 images CSAM connues avant qu'un compte iCloud ne soit signalé pour examen manuel par l'entreprise.

Apple a également déclaré que la base de données sur l'appareil d'images CSAM connues ne contient que des entrées qui ont été soumises indépendamment par deux ou plusieurs organisations de sécurité des enfants opérant dans des juridictions souveraines distinctes et non sous le contrôle du gouvernement.

Le système est conçu de sorte qu'un utilisateur n'ait pas besoin de faire confiance à Apple, à une autre entité unique ou même à tout un ensemble d'entités pouvant entraîner une collusion de la même juridiction souveraine (c'est-à-dire sous le contrôle du gouvernement) pour être sûr que le système fonctionne comme annoncé. Cela est réalisé grâce à plusieurs mécanismes imbriqués, y compris la vérifiabilité intrinsèque d'une seule image logicielle distribuée dans le monde entier pour exécution sur l'appareil, une exigence selon laquelle tout hachage d'image perceptuelle inclus dans la base de données CSAM cryptée sur l'appareil soit fourni indépendamment par deux organisations de sécurité des enfants ou plus de juridictions souveraines distinctes, et enfin, un processus d'examen humain pour empêcher tout signalement erroné.

Apple a ajouté qu'elle publiera sur son site Web un document d'assistance contenant un hachage racine de la base de données CSAM cryptée incluse avec chaque version du système d'exploitation Apple qui prend en charge la fonctionnalité. On parle d’iOS 15, iPadOS 15 et MacOS 12. En outre, Apple a déclaré que les utilisateurs seront en mesure d'inspecter le hachage racine de la base de données cryptée présente sur leur appareil et de le comparer au hachage racine attendu dans le document d'assistance. Aucun délai n'a été prévu pour cela.

Les employés seront formés pour répondre sur les questions de photos d’abus sexuel

Dans une note de service obtenue par Mark Gurman de Bloomberg, Apple a déclaré qu'elle demanderait également à un auditeur indépendant d'examiner le système. La note de service indiquait que les employés des magasins Apple pouvaient recevoir des questions des clients sur les fonctionnalités de sécurité des enfants et était liée à une FAQ qu'Apple a partagée plus tôt cette semaine comme ressource que les employés peuvent utiliser pour répondre aux questions et fournir plus de clarté et de transparence aux clients.

Apple a d'abord déclaré que les nouvelles fonctionnalités de sécurité des enfants arriveraient sur l'iPhone, l'iPad et le Mac avec des mises à jour logicielles plus tard cette année, et la société a déclaré que les fonctionnalités ne seraient disponibles aux États-Unis qu'au lancement. Malgré les critiques, Apple a précisé qu'elle n'avait apporté aucun changement à ce calendrier…

Vous aimerez peut-être

Nos derniers articles

Suivez-nous avec notre app iSoft
Articles populaires
Donner votre avis
Les réactions

3 Wb Ler - iPhone

15/08/2021 à 18h02 :

Bon et bien je vais simplement vider tout mon contenu sur mon NASSE et en faire mon iCloud privé voila! il est hors de question que les photos de les enfants soit scanné. Plus on avance plus la vie privée disparaît.

Bientôt se système serait sur les pc et obligatoire demandé par l’état.

2 Steven Teurtrie - iPhone

14/08/2021 à 17h12 :

Ok donc si on arrête l’abonnement iCloud on se fait plus espionner… je me dis que maintenant que ca va être ouvert pour les photo, j’ai pas confiance pour le reste des autre info icloud.

1 Federline - iPhone premium

14/08/2021 à 13h28 :

iCloud est de toute façon trop cher comparé à d’autres services qui permettent une liberté d’action, bon vent