Apple renonce à analyser les photos iCloud pour trouver du contenu pédopornographique

icloud drive iconeC'est une nouvelle qui avait fait un gigantesque scandale il y a quelques mois. Apple annonçait au monde entier son intention d'analyser les photos via une intelligence artificielle pour trouver des contenus pédopornographique et dénoncer les utilisateurs concernés. Cette grave atteinte à la vie privée (qui aurait pu être bénéfique) a créé une grande polémique, aujourd'hui, Apple indique renoncer à continuer sur cette stratégie.

Le projet décrié est annulé

Apple a révélé ce soir avoir abandonné son projet CSAM qui consiste à analyser les photos hébergées sur iCloud pour détecter des contenus offensants pour les enfants. La firme de Cupertino avait été félicitée par les associations de protection de l'enfance qui espérait qu'Apple, Google ou un autre prennent ce type d'initiative. Cependant, les organismes qui militent pour la protection de la vie privée ont vu une grave atteinte sur les données personnelles de millions d'utilisateurs à travers le monde. Ce qui a fait peur, c’est la porte qu'était sur le point d'ouvrir Apple, l'entreprise commençait par des contenus de ce type puis aurait pu aller plus loin dans l'analyse de vos photos afin de trouver d'autres délits.

Avec ce nouveau système, Apple voulait se baser sur une intelligence artificielle capable d'analyser des milliers de photos par heure, celle-ci aurait été formée pour repérer et isoler des photos d'enfants dénudés afin qu'une équipe d'Apple puisse après vérifier et alerter les autorités.

tim cook

Apple s'est confié au média Wired sur l'abandon du projet :

Après des consultations approfondies avec des experts pour recueillir des commentaires sur les initiatives de protection de l'enfance que nous avons proposées l'année dernière, nous approfondissons notre investissement dans la fonctionnalité de sécurité de la communication que nous avons mise à disposition pour la première fois en décembre 2021.

Nous avons en outre décidé de ne pas aller de l'avant avec notre outil de détection CSAM proposé précédemment pour les photos iCloud. Les enfants peuvent être protégés sans que les entreprises ne passent au moyen de données personnelles, et nous continuerons à travailler avec les gouvernements, les défenseurs de l'enfance et d'autres entreprises pour aider à protéger les jeunes, à préserver leur droit à la vie privée et à faire d'Internet un endroit plus sûr pour les enfants et pour nous tous.

En septembre 2021, Apple avait annoncé vouloir repousser l'analyse des photos sur iCloud, l'entreprise souhaitait calmer les esprits et éviter que des clients partent chez la concurrence. Une longue période aura été nécessaire pour se rendre compte qu'une analyse de photos iCloud est tout de même une grave violation de la vie privée d'un utilisateur !

Pour le moment, Apple n'a pas indiqué de nouvelles mesures pour la protection des enfants, l'entreprise reste convaincue qu'elle peut agir et mieux faire dans ce domaine. Il n'est pas à exclure qu'Apple propose à l'avenir d'autres mesures moins contraignantes pour la vie privée des utilisateurs.

Vous aimerez peut-être


Nos derniers articles


Suivez-nous avec notre app iSoft
Articles populaires
Donner votre avis
Si vous avez besoin d'aide sur un autre sujet, rendez-vous sur notre Forum iPhone.

 





Les réactions

4 FANATiCK71 - iPhone

08/12/2022 à 22h51 :

Pas étonnant dans ce monde dirigé par des pédos lolll

3 wsunn - iPhone premium

08/12/2022 à 03h39 :

@Teddy Smith - iPhone
Comment ça dommage ? Je tiens à garder mes photos privé.

2 lumia - iPhone

07/12/2022 à 22h54 :

Norman il est content la

1 Teddy Smith - iPhone

07/12/2022 à 22h35 :

Dommage…

Bloqueur de publicité

iPhoneSoft finance la production de son contenu et ses serveurs grâce à une publicité modérée et non intrusive. Merci d'ajouter iPhoneSoft.fr en exception de votre bloqueur de publicité.