Apple détaille le scan des messages pour protéger les enfants

imessage macos 11 iconApple a annoncé hier soir une série de nouvelles sécurités pour les enfants qui s'ajoutent aux dernières mises à jour d'iOS 15, iPadOS 15 et macOS Monterey et qui visent à assurer la sécurité des enfants en ligne. Alors que seules les photos envoyées sur iCloud sont analysées, du côté des messages, c’est un peu plus complexe.

 

Comment fonctionne le système de vérification des photos sensibles

L'une des nouvelles fonctionnalités, Communication Safety - ou Sécurité des communications en français, a soulevé des préoccupations en matière de confidentialité car elle permet à Apple de numériser les images envoyées et reçues par l'application Messages à la recherche de contenu sexuellement explicite, mais Apple a confirmé qu'il s'agit d'une fonctionnalité d'adhésion limitée aux comptes des enfants et qu'elle doit être activée par les parents.

ios 15 photo verification enfant csam
 

Si un parent active la sécurité des communications pour le compte d'un enfant, Apple analysera les images envoyées et reçues dans l'application Messages pour détecter la nudité. Si la nudité est détectée, la photo sera automatiquement floue et l'enfant sera averti que la photo peut contenir des parties privées du corps.

Des photos et des vidéos sensibles montrent les parties du corps privées que vous couvrez de maillots de bain. Ce n'est pas de votre faute, mais des photos et des vidéos sensibles peuvent être utilisées pour vous blesser.

L'enfant peut tout de même choisir de voir la photo en question, et pour les enfants de moins de 13 ans, les parents peuvent choisir de recevoir une notification si leur enfant clique dessus pour voir une photo floue. "Si vous décidez de voir cela, vos parents recevront une notification pour s'assurer que vous allez bien", peut-on lire dans l'écran d'avertissement.

Ces notifications parentales sont facultatives et ne sont disponibles que lorsque l'enfant qui regarde la photo a moins de 13 ans. Les parents ne peuvent pas être informés lorsqu'un enfant âgé de 13 à 17 ans voit une photo floue.

Communication Safety ne peut pas être activé sur les comptes adultes et n'est disponible que pour les utilisateurs de moins de 18 ans, de sorte que les adultes n'ont pas à se soucier de la numérisation de leur contenu pour détecter la nudité.

Enfin, pour le mettre en place, les parents doivent expressément s'inscrire à Communication Safety lors de la configuration de l'appareil d'un enfant avec partage familial. La fonctionnalité utilise l'apprentissage automatique sur l'appareil pour analyser les pièces jointes d'images et, parce qu'il est sur l'appareil, le contenu d'un iMessage n'est pas lisible par Apple et reste protégé par un cryptage de bout en bout.

Qui pense l’activer pour ses enfants ? 

8 réactions

Steven Teurtrie - iPhone

Oui c’est encore un moyen de déresponsabiliser les gens. Après on s’étonne que les gens ne se responsabilise pas alors qu’on fait tout pour enlever very sois disant «  charge »

07/08/2021 à 18h17

SamSuffit - iPhone premium

@axecos - iPhone
Tout à fait d’accord

06/08/2021 à 19h50

axecos - iPhone

Un enfant n’a pas avoir un iphone de base toujours a créer des problème ou il y en a pas. Sa me degoute.

06/08/2021 à 15h22

Yit - iPhone premium

C’est déjà plus clair que l’article d’hier. En somme si ça peut donner un outil supplémentaire aux parents pour sensibiliser leurs enfants, pourquoi pas !

06/08/2021 à 14h02

widoo - iPhone

@Titank - iPhone
Oui depuis quelques années je crois, pour détecter les photos pedoporno. Si détecté ça part au gouvernement

06/08/2021 à 13h14

Franceiroca - iPhone

Lisez : à moins que vous ayez moins de 13 ans ça ne vous concerne pas

06/08/2021 à 11h45

jmarc91 - iPhone premium

@Titank - +1???

06/08/2021 à 10h38

Titank - iPhone

Nos photos sont analysées sur le cloud ?..

06/08/2021 à 09h05

Donnez votre avis
Cliquez pour commenter
Vous aimerez peut-être

Suivez-nous avec notre app iSoft
Articles populaires
Les derniers articles