Apple veut protéger les enfants des photos sensibles dans iOS (màj : officiel)

app photo ios 11 smartcam iphone 8Un expert en sécurité affirme qu'Apple est sur le point d'annoncer des outils de reconnaissance photo qui permettraient d'identifier les images de maltraitance d'enfants dans ses systèmes d'exploitation, iOS en tête. Après avoir intégré de nombreuses fonctionnalités basées sur le Machine Learning, la firme pourrait aller plus loin sur ce l'analyse.

Un outil puissant qui pourrait poser problème

Apple a précédemment supprimé des applications de l'App Store pour des raisons de prédo-pornographie, mais on dit maintenant qu'elle est sur le point d'introduire un tel système de détection à l'échelle du système. En utilisant le hachage de photos, les iPhones pourraient identifier les abus sexuel sur mineurs (CSAM) sur l'appareil.

ios 15 photo verification enfant csam

Apple ne l'a pas confirmé et jusqu'à présent, la seule source est Matthew Green, cryptographe et professeur agrégé au Johns Hopkins Information Security Institute.

Selon Green, le plan est initialement d'être côté client - c'est-à-dire de faire toute la détection sur l'iPhone d'un utilisateur. Il fait toutefois valoir qu'il est possible que ce soit le début d'un processus qui mène à la surveillance du trafic de données envoyé et reçu du téléphone.

Voici ce que dit l'expert :

À terme, cela pourrait être un ingrédient clé dans l'ajout de la surveillance aux systèmes de messagerie cryptée. La possibilité d'ajouter des systèmes de balayage comme celui-ci aux systèmes de messagerie E2E [cryptage de bout en bout] a été une "demande" majeure des forces de l'ordre du monde entier.

Ce genre d'outil peut être une aubaine pour trouver de la pornographie enfantine dans les téléphones des gens. Mais imaginez ce qu'il pourrait faire entre les mains d'un gouvernement autoritaire ?

Green qui, avec ses étudiants en cryptographie, a déjà fait rapport sur la façon dont les forces de l'ordre peuvent pénétrer dans les iPhones. Lui et l'Université Johns Hopkins ont également déjà travaillé avec Apple pour corriger un bug de sécurité dans Messages.

Mise à jour du soir : Apple a officialisé la nouveauté

Apple annonce aujourd'hui un trio de nouveaux efforts qu'elle entreprend pour apporter une nouvelle protection pour les enfants sur iPhone, iPad et Mac. Cela inclut de nouvelles fonctionnalités de sécurité des communications dans Messages, une détection améliorée du contenu de matériel pédopornographique (CSAM) dans iCloud et des informations de connaissances mises à jour pour Siri et Spotlight.

Avant qu'une image ne soit stockée dans iCloud Photos, un processus de correspondance sur l'appareil est effectué pour cette image par rapport à l'ensemble illisible de hachages CSAM connus.  Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d'ensembles privés, qui détermine s'il existe une correspondance sans révéler le résultat.  L'intersection d'ensembles privés (PSI) permet à Apple de savoir si un hachage d'image correspond aux hachages d'image CSAM connus, sans rien apprendre sur les hachages d'image qui ne correspondent pas.  PSI empêche également l'utilisateur d'apprendre s'il y a eu une correspondance.

A noter que le contrôle des photos se fera uniquement sur iCloud et pour le moment limité aux USA.

Vous aimerez peut-être

Nos derniers articles

Suivez-nous avec notre app iSoft
Articles populaires
Donner votre avis

 





Les réactions

9 morzyloeuil - iPhone

06/08/2021 à 23h08 :

Et qui surveillera le surveillant des photos ?
Un supérieur surveillant qu’il faudra aussi surveiller ?

8 headinstars - iPhone premium

06/08/2021 à 10h22 :

@Wb Ler - iPad
Tellement vrai !!

7 Wb Ler - iPad

06/08/2021 à 02h47 :

L’idée est bonne mais si un tel système fait ses preuves, il peut très facilement se retrouver sur d’autre systems et ça pose problème concernant la confidentialité, on est déjà assez surveilliez comme ça.

6 Francois Roche - iPhone

06/08/2021 à 00h23 :

@Federline - iPhone premium
😂 j’ai l’impression qu’on va finir par ne plus avoir de Liberté dans ce triste monde. Va bientôt falloir demander la permission pour bouger un pied. 😢

5 Federline - iPhone premium

05/08/2021 à 21h40 :

Qu’ils aillent se faire voir, on paye pas un service pour qu’un algorithme nous dise de quelle manière on doit l’utiliser…

4 gr8guy - iPhone

05/08/2021 à 15h37 :

Sans y voir une « judiciairisation » si ce genre de système pouvait déjà limiter la prise de clichés ce serait bien
Quelque chose du style un message d’avertissement qui apparaît si l’on souhaite partager le cliché.
Ou une disposition qui rend indélébiles les donnes exif si l’on partage quand même la photo malgré l’avertissement (si on est sûr de son coup, les IA n’étant pas fiables à 100%)
Ça limiterait déjà la diffusion des photos sur les forums de pedocriminels et le commerce qu’ils en font
Si on tarie ce marché ça dissuadera un peu déjà ceux qui en font le commerce.
Par contre pour ceux qui relèvent de la psychiatrie aucune IA ne les empêchera de maltraiter un enfant malheureusement.

3 Steven Teurtrie - iPhone

05/08/2021 à 15h33 :

Très dangereux comme outil, non mais tant l’idée semble bonne tant le fait d’avoir ce genre d’espion dans son téléphone me questionne sur le control que ces entreprise cherche a posséder. J’espère que les lois font faire bloquer tout ça…

2 Alexandre0491 - iPhone

05/08/2021 à 15h21 :

C’est sûr que l’on a pas non plus envie de donner des armes à nos ennemies et transformer en pays en politique coréenne, comme la Corée du Nord. Ils ont déjà tant de choses.. c’est une belle et superbe idée pour les abus et la pedopornographie, mais ça soulève aussi un problème juridique quand à la RGPD.

1 fujjioo - iPhone premium

05/08/2021 à 15h16 :

L’idée est bonne mais ça veut dire qu’on va être espionner encore plus