Apple ne veut pas d'applications IA qui génèrent des images de nudité

app store logo icon ios 11Depuis que l'intelligence artificielle a intégré notre quotidien, elle a été globalement positive en nous rendant plus productifs au travail, en améliorant les petites tâches de tous les jours ou encore en participant à notre divertissement. Cependant, l'évolution d'une IA accessible à tous, ce sont aussi les dérives. L'un des problèmes qui préoccupe de plus en plus, ce sont les images de nudités générées par des IA. Vous pouvez générer d'un simple prompt une photo ou tout simplement prendre une photo sur un réseau social d'une femme habillée puis demander à l'IA de la déshabiller ! Apple est clair avec ce genre d'applications, c'est non sur l'App Store.

Apple supprime des applications IA de nudités

Apple a pris des mesures drastiques contre plusieurs applications utilisant l'intelligence artificielle pour générer des images de nudité. Cette décision intervient après la publication d'un rapport alarmant de 404 Media, qui a révélé la présence croissante de telles applications sur l'App Store. Ces apps offraient des fonctionnalités permettant, entre autres, l'échange de visages et la suppression virtuelle des vêtements sur les photos, laissant l'intelligence artificielle imaginer les parties intimes en prenant en compte la morphologie de la personne sur la photo habillée.

Face à ces technologies clairement invasives et dégradantes, Apple a réagi avec efficacité et rapidité, en éliminant la majorité de ces applications de l'App Store en seulement quelques jours après la mise en ligne du rapport.

ia nudite

En parallèle, Instagram, a également retiré les publicités relatives à ces applications, suite aux informations reçues. Il y avait de plus en plus d'annonceurs qui faisaient notamment des promesses de déshabiller les célébrités ou encore n'importe quelle photo que vous envoyez dans l'application. Toutes les publicités vantaient des applications gratuites, mais une forme d'achats intégrés était à chaque fois imposé à chaque appel de l'IA.

En 2022, Apple et Google ne semblaient pas prendre au sérieux ce problème

La situation actuelle est à l'opposé de celle de 2022, Apple et Google, avaient choisi de ne pas retirer ces applications, estimant qu'elles étaient conformes aux règles de l'App Store et du Play Store. À l'époque, les entreprises s'étaient limitées à demander l'arrêt des publicités sur des sites pour adultes, sans procéder à l'élimination des applications de leurs stores.

Cette décision d'Apple s'inscrit dans une continuité d'efforts pour maintenir des normes éthiques élevées en ce qui concerne les applications hébergées sur son App Store, particulièrement dans le contexte de l'utilisation de l'intelligence artificielle. Cet engagement de la firme de Cupertino en faveur de la protection de la vie privée et de la dignité des utilisateurs révèle les défis éthiques auxquels sont confrontées les grandes entreprises depuis que l'IA est omniprésente.

Source

Vous aimerez peut-être

Nos derniers articles

Suivez-nous avec notre app iSoft
Articles populaires
Donner votre avis

 





Les réactions

9 TinAD17tiin - iPhone

28/04/2024 à 10h52 :

Et comment je vais faire pour me fap sur ma voisine ? Honteux apple ke veux des augmentation de prix 50% mais ne touches pas a ca. Croyez moi

8 Insomnia - iPad

27/04/2024 à 20h26 :

Apple qui met prêt de 2 ans pour réagir 🫠 et après certains vont dire que le store est une sécurité pour tous et que Apple est très sélectif

7 Gurvan - iPhone premium

27/04/2024 à 16h54 :

👍🏼 Tout simplement.

6 TinAD17tin - iPhone

27/04/2024 à 13h53 :

@Uyjg - iPhone premium
Je voulais juste vous dire ça pour pas que vous soyez en mode « oh c’est honteux que Apple ai autorisé ça » car sur le web yen a plein, je voulais juste faire de la prévention

5 Uyjg - iPhone premium

27/04/2024 à 11h50 :

@TinAD17tin - iPhone
Tu veux prouver à qui ?

4 TinAD17tin - iPhone

27/04/2024 à 09h33 :

@GuiJacq - iPhone premium
T’inquiète pas, je suis quelqu’un d’intelligent et responsable, je vous dis juste qu’il n’y a malheureusement pas besoin de compétence en montage ni application pour le faire.

3 GuiJacq - iPhone premium

26/04/2024 à 23h35 :

@TinAD17tin - iPhone
Ah oui ? Je pense que c’est surtout pour lutter contre le revenge porn qu’ils réagissent ainsi. Si tu veux t’amuser à rendre des copines ou copains tous nus il y aura toujours des possibilités… Cependant les gens commencent à être au courant de ces pratiques de dalleux et vont finir par les ignorer.
Tous ces fakes existent depuis l’aube de Photoshop.

2 Morzyloeuil - iPhone

26/04/2024 à 21h17 :

Le titre est faux.
Apple ne veut plus de ces app.
Jusqu’a ce jour apple voulait bien de ces app sans que cela ne pose aucun problème a apple.

1 TinAD17tin - iPhone

26/04/2024 à 18h33 :

Je peux vous dire qu’il reste des IA qui même en indiquant quelles floute les image comme ça je les détectes pas toujours, et puis y’a pas besoin d’une app pour faire ce genre de choses croyez moi.