Apple utilise une technologie pour détecter les images pédophiles sur iCloud

iCloud service AppleOn vous avait parlé de l'intervention de Jane Horvath (directrice principale de la protection de la vie privée) pour discuter de protection de la vie privée des utilisateurs au CES 2020. Dans ce débat qui a duré plusieurs heures, des points ont été abordés également sur la lutte contre les images à caractère pédophile qui sont postées sur iCloud. Malheureusement des clients Apple qui savent que ce genre de photos peuvent leur poser problème s’ils les laissent sur le disque dur de leur Mac ou PC, les mettent sur le cloud d'Apple, croyant que ça va passer en douce.

Apple a un système pour détecter ces images

Avant tout de chose, il faut savoir que la firme californienne ne surveille pas ce que déposent les clients Apple sur iCloud. Vous n'êtes pas espionné. Cependant, Apple laisse des technologies analyser les photos qui peuvent alerter sur quelque chose de grave. Pendant le débat, Jane Horvath a informé qu'Apple utilise un système capable de trouver des images pédophiles ou qui montre de la maltraitance sur des enfants. Bien évidemment, sur ces sujets, la protection de la vie privée ne se pose plus !

icloud 1

Lors du débat, la directrice principale de la protection de la vie privée a déclaré : "Nous employons certaines technologies pour aider à dépister des cas d'abus sexuel sur des enfants".
Le fonctionnement de cette technologie est simple. Il s'agit d'une sorte de filtre qui utilise des signatures électroniques pour détecter des photos qui posent problème. Une fois que la technologie a détecté la photo susceptible de représenter de la pédophilie ou de la maltraitance sur un enfant, la photo est immédiatement remontée à une équipe d'Apple qui se charge de vérifier manuellement si ce qu'a trouvé le système est vraiment problématique.

Comme une équipe de modération de réseaux sociaux, la personne va se charger de confirmer l'infraction des conditions d'utilisation d'iCloud et désactiver le compte.

D'après MacObserver, Apple utiliserait peut-être l'une des innovations de Microsoft qui s'appelle "PhotoDNA". Il s'agit d'un système capable de vérifier énormément de contenus en très peu de temps. Une fois qu'il trouve une photo suspecte, l'alerte est immédiatement déclenchée et quelqu'un d'humain peut reprendre la relève pour vérifier la nature de la photographie.

Source

Vous aimerez peut-être

Suivez-nous avec notre app iSoft
Réagir
Si vous avez besoin d'aide sur un autre, rendez-vous sur notre Forum iOS.

 





Les réactions

13. lumia - iPhone

10/01/2020 à 08h44 :

« Verifier manuellement » j’imagine même pas les personnes qui seront en charge de regarder ça manuellement, quelle horreur de regarder des choses comme ça !

12. Yivensky - iPhone

09/01/2020 à 22h36 :

@momo59800 - iPhone
Commence par un NAS Synology, c’est simple d’utilisation. C’est pas la solution la moins chère je l’admet, mais c’est hyper bien fait :)

11. momo59800 - iPhone

09/01/2020 à 22h34 :

@Yivensky - iPhone
Sa m’intéresse comment a tu fait pour avoir ton propre serveur et que conseille tu l’ami ?

10. Yivensky - iPhone

09/01/2020 à 21h24 :

Perso rien sur le cloud, tout sur mon serveur, chez moi. Etre son propre hebergeur, c’est le mieux

9. Nicolascha - iPhone

09/01/2020 à 12h30 :

@El Salonio - iPhone premium
+2

8. missappleaddict - iPhone premium

09/01/2020 à 12h10 :

@El Salonio - iPhone premium
👍🏻

7. missappleaddict - iPhone premium

09/01/2020 à 12h08 :

Mouais! Aujourd’hui c’est ça? Ok très bien!! Et demain?ils ne valent pas mieux que Google!!!!Apple nous fait miroité une vie privé sur nos engins? Mon œil!!!sans être parano nous sommes tous épiés.... ABE

6. 2frais - iPhone premium

09/01/2020 à 11h27 :

@El Salonio - iPhone premium

+1

5. El Salonio - iPhone premium

09/01/2020 à 09h41 :

Aujourd’hui la pedophilie, demain la pornographie et après demain ton style de vie...
Au départ c’est louable pour qu’au final ça soit exécrable...
Tout a un commencement, l’espionnage de masse aussi...

4. Noworries - iPhone

09/01/2020 à 08h11 :

@Brocherie - iPhone
👍

3. Teddy Smith - iPhone

09/01/2020 à 07h49 :

Seulement désactiver le compte? Ils ne préviennent pas la justice ?

2. Brocherie - iPhone

09/01/2020 à 07h12 :

« Vous n'êtes pas espionné. Cependant, Apple laisse des technologies analyser les photos qui peuvent alerter sur quelque chose de grave. »

Donc si, on est espionné en fait.

1. rophi69 - iPhone premium

09/01/2020 à 07h10 :

Donc au final Apple fonctionne exactement pareil que Facebook et Google... je suis super déçu.. car je ne pense pas que ça s’arrête à la pédophilie au final… :/

Bloqueur de publicité

iPhoneSoft finance la production de son contenu et ses serveurs grâce à une publicité modérée et non intrusive. Merci d'ajouter iPhoneSoft.fr en exception de votre bloqueur de publicité.

En poursuivant votre navigation, vous acceptez l'utilisation de cookies sur le site et nos partenaires tiers pour personnaliser le contenu, la publicité ainsi que pour les mesures d'audience. Merci de cliquer sur le bouton ci-dessous pour donner votre accord.

En savoir plus