iOS 18.2 permet aux enfants de signaler de la nudité et Apple s'occupe des sanctions
- 👨 Julien Russo
- Il y a 1 mois (Màj il y a 1 mois)
- 💬 3 coms
Les enfants en Australie pourront signaler les contenus de nudité
Dans la première bêta d'iOS 18.2 en Australie, Apple offre une nouvelle option aux enfants et adolescents : la possibilité de signaler un iMessage quand celui-ci contient une photo ou une vidéo pour adulte. Comme l'explique l'entreprise auprès de The Guardian, quand un signalement est fait, cela arrive directement dans un service géré par Apple. Plusieurs employés qui auront été formés au préalable auront pour mission de vérifier si le signalement est légitime et qu'il ne s'agit pas d'une erreur.
S'il s'agit d'un vrai signalement, Apple pourra actionner deux leviers :
- Désactiver définitivement le compte Apple de la personne qui a envoyé une photo/vidéo pour adulte à un enfant ou adolescent
- Transmettre le signalement aux forces de l'ordre afin que l'expéditeur soit convoqué au commissariat le plus proche de son domicile pour y être interrogé
Apple explique également au média que le signalement qui sera envoyé contiendra les précédents messages ainsi que les messages qui suivent dans le but de connaître un peu mieux le contexte. Par exemple, cela servira à savoir si l'expéditeur croyait parler à un majeur ou s'il s'agit d'une erreur de correspondant.
Pourquoi le signalement débarque en Australie et pas ailleurs ?
Cette fonctionnalité intégrée dans l'application Messages est absolument fantastique pour protéger les mineurs, cependant, pourquoi Apple la limite qu'à l'Australie avec iOS 18.2 ?
Normalement, ce type de signalement va se déployer dans le reste du monde dans les prochaines mises à jour d'Apple, mais si l'entreprise privilégie l'Australie au démarrage, c'est parce que Apple doit se conformer à une nouvelle loi qui oblige les grandes entreprises (qui détiennent des messageries instantanées) à mieux sécuriser l'expérience des enfants et adolescents.
Depuis iOS 16, Apple propose ce type de sécurité en France et dans d'autres pays, cela s'appelle le "Communication Safety", cependant, l'expérience n'est pas la même. Le Communication Safety se sert de l'intelligence artificielle pour analyser, masquer et avertir un enfant de la photo ou vidéo qu'il s'apprête à voir. Néanmoins, il n'y a aucun signalement possible et aucune suite sanction ne sera prononcée à l'encontre de l'expéditeur.