Apple utilise une technologie pour détecter les images pédophiles sur iCloud
- 👨 Julien Russo
- Il y a 5 ans
- 💬 13 coms
Apple a un système pour détecter ces images
Avant tout de chose, il faut savoir que la firme californienne ne surveille pas ce que déposent les clients Apple sur iCloud. Vous n'êtes pas espionné. Cependant, Apple laisse des technologies analyser les photos qui peuvent alerter sur quelque chose de grave. Pendant le débat, Jane Horvath a informé qu'Apple utilise un système capable de trouver des images pédophiles ou qui montre de la maltraitance sur des enfants. Bien évidemment, sur ces sujets, la protection de la vie privée ne se pose plus !
Lors du débat, la directrice principale de la protection de la vie privée a déclaré : "Nous employons certaines technologies pour aider à dépister des cas d'abus sexuel sur des enfants".
Le fonctionnement de cette technologie est simple. Il s'agit d'une sorte de filtre qui utilise des signatures électroniques pour détecter des photos qui posent problème. Une fois que la technologie a détecté la photo susceptible de représenter de la pédophilie ou de la maltraitance sur un enfant, la photo est immédiatement remontée à une équipe d'Apple qui se charge de vérifier manuellement si ce qu'a trouvé le système est vraiment problématique.
Comme une équipe de modération de réseaux sociaux, la personne va se charger de confirmer l'infraction des conditions d'utilisation d'iCloud et désactiver le compte.
D'après MacObserver, Apple utiliserait peut-être l'une des innovations de Microsoft qui s'appelle "PhotoDNA". Il s'agit d'un système capable de vérifier énormément de contenus en très peu de temps. Une fois qu'il trouve une photo suspecte, l'alerte est immédiatement déclenchée et quelqu'un d'humain peut reprendre la relève pour vérifier la nature de la photographie.
Source