Un médecin se fait arrêter suite à 2000 photos et vidéos pédopornographiques sur iCloud

Alors qu'Apple veut mettre en place des outils permettant d'analyser et détecter les contenus pédopornographiques sur iCloud, une affaire qui vient d'éclater à San Francisco montre à quel point cela pourrait être utile. Découvrez le scandale qui fait énormément de bruit en Californie !

Un médecin réputé se fait arrêter

Depuis quelques semaines, Apple ne cesse de créer la polémique après avoir dévoilé son intention d'analyser vos photos et vidéos stockées sur iCloud. N'ayant aucune intention malveillante, la firme de Cupertino a expliqué vouloir facilement détecter les photos et vidéos pédopornographiques afin de dénoncer aux autorités les trafics d'enfants.
Alors que des associations, personnalités et gouvernements ont exprimé leur inquiétude quant à cette nouveauté qui pourrait s'avérer un danger pour la vie privée, une affaire en Californie montre à quel point un système comme ce qu'a imaginé Apple pourrait aider à lutter contre la pédopornographie.

En effet, un médecin de 58 ans spécialisé dans l'oncologie, résidant et exerçant son activité à San Francisco en Californie a été arrêté par les autorités fédérales. La police a réussi à accéder à son compte iCloud après une multitude d'essais d'authentification pour trouver le bon mot de passe, ce qu'ils ont aperçu fait froid dans le dos !
Dans la catégorie "Photos" de son compte, les autorités ont trouvé 2000 photos et vidéos pornographiques avec des enfants de tout âge.

Après cette découverte, le médecin a été arrêté à son cabinet dans les minutes qui ont suivi.
L'homme de 58 ans était quelqu'un de très apprécié dans le milieu, il avait une carrière impressionnante avec une affiliation à plusieurs établissements médicaux de la région de San Francisco, il était aussi professeur agrégé à l'UCSF School of Medecine. Personne dans son entourage n'aurait soupçonné qu'il était en possession de contenus pédopornographiques !

L'enquête révèle que l'accès au compte iCloud s'est fait sans l'aide d'Apple et sans le système CSAM qui n'a pas encore été mis en place par la firme de Cupertino.
Les autorités avaient de profondes suspicions quant à ce médecin, n'ayant pas de mandat pour effectuer une perquisition à son domicile et analyser le disque dur de son ordinateur, elles ont préféré trouver un moyen pour accéder à son compte iCloud. Finalement, cette décision aura été la bonne puisque les responsables de l'affaire ne s'attendaient pas à une découverte de cette ampleur !

Cette affaire absolument ignoble et très grave pour un médecin parfois en contact avec des adolescents montre à quel point un système d'analyse et de détection de contenus pédopornographiques pourrait aider les autorités dans leurs enquêtes.

Via

Vous aimerez peut-être

Nos derniers articles

Suivez-nous avec notre app iSoft
Articles populaires
Donner votre avis
Les réactions

8 morzyloeuil - iPhone

23/08/2021 à 20h52 :

La com 👍, apple toujours au top a ce niveau 😅

7 crazypixel - iPhone

23/08/2021 à 17h36 :

Domicile ou compte iCloud, en France cela relèverait de la perquisition, sans flagrance nécessite de l’assentiment sauf autorisation expresse du juge des libertés et de la détention..
ça ferait une belle décision Cass..

6 tonton Lolo - iPhone

23/08/2021 à 17h18 :

Oh mais le futur est déjà là ne serait-ce que la plupart des caméras qui ont déjà la reconnaissance faciale grâce a l’intelligence artificielle et ça ne se passe pas que dans les pays étrangers.. c’est juste qu’on évite de le dire

5 MasterMynd - iPhone premium

23/08/2021 à 17h05 :

Ha mais oui…comme par hasard au même moment du petit scandale sur la vie privée avec icloud! Bon bon bon apple ce ne serait pas plutôt pour mieux faire passer la pilule tout ça?

J’ai peur de se qui va se passer dans le futur ☹️ où est passé mon monde de licorne qui me manque tellement 😢

4 rahan2000 - iPhone

23/08/2021 à 16h50 :

@Redweek - iPhone
Bah on ne sait pas pourquoi penser ça ? Tu es sur un scénario de film?😂

3 Larbi - iPhone

23/08/2021 à 16h17 :

« Sans l’aide d’Apple » C’est la version officielle, comme pour les attentats de Boston. La vraie version on ne le saura pas.

2 Redweek - iPhone

23/08/2021 à 15h29 :

Et forcément c’est pas les flics qui auraient été payé
par une personne malhonnête pour nuire une personne qui aurait été gênante.

1 HedgeDee - iPhone

23/08/2021 à 13h52 :

Le débat n’est pas sur l’utilité mais sur la façon trop invasive de faire cette vérification. Certains pensent que ce sont aux états et nations de mettre en place des outils ou législations pour cette vérification et lutte contre la pédopornographie. Car avoir un outil capable de cette vérification sera utilisé de façon détournée dans différent états et nation. L’assurant d’une compagnie comme  ne vaut rien devant les lois d’un pays. La preuve en Chine, en Russie, sur de nombreux détails. Dans tout les cas les états ne font pas assez pour lutter contre la pédopornographie et c’est bien dommage.