Apple ne veut pas d'applications IA qui génèrent des images de nudité

app store logo icon ios 11Depuis que l'intelligence artificielle a intégré notre quotidien, elle a été globalement positive en nous rendant plus productifs au travail, en améliorant les petites tâches de tous les jours ou encore en participant à notre divertissement. Cependant, l'évolution d'une IA accessible à tous, ce sont aussi les dérives. L'un des problèmes qui préoccupe de plus en plus, ce sont les images de nudités générées par des IA. Vous pouvez générer d'un simple prompt une photo ou tout simplement prendre une photo sur un réseau social d'une femme habillée puis demander à l'IA de la déshabiller ! Apple est clair avec ce genre d'applications, c'est non sur l'App Store.

Apple supprime des applications IA de nudités

Apple a pris des mesures drastiques contre plusieurs applications utilisant l'intelligence artificielle pour générer des images de nudité. Cette décision intervient après la publication d'un rapport alarmant de 404 Media, qui a révélé la présence croissante de telles applications sur l'App Store. Ces apps offraient des fonctionnalités permettant, entre autres, l'échange de visages et la suppression virtuelle des vêtements sur les photos, laissant l'intelligence artificielle imaginer les parties intimes en prenant en compte la morphologie de la personne sur la photo habillée.

Face à ces technologies clairement invasives et dégradantes, Apple a réagi avec efficacité et rapidité, en éliminant la majorité de ces applications de l'App Store en seulement quelques jours après la mise en ligne du rapport.

ia nudite

En parallèle, Instagram, a également retiré les publicités relatives à ces applications, suite aux informations reçues. Il y avait de plus en plus d'annonceurs qui faisaient notamment des promesses de déshabiller les célébrités ou encore n'importe quelle photo que vous envoyez dans l'application. Toutes les publicités vantaient des applications gratuites, mais une forme d'achats intégrés était à chaque fois imposé à chaque appel de l'IA.

En 2022, Apple et Google ne semblaient pas prendre au sérieux ce problème

La situation actuelle est à l'opposé de celle de 2022, Apple et Google, avaient choisi de ne pas retirer ces applications, estimant qu'elles étaient conformes aux règles de l'App Store et du Play Store. À l'époque, les entreprises s'étaient limitées à demander l'arrêt des publicités sur des sites pour adultes, sans procéder à l'élimination des applications de leurs stores.

Cette décision d'Apple s'inscrit dans une continuité d'efforts pour maintenir des normes éthiques élevées en ce qui concerne les applications hébergées sur son App Store, particulièrement dans le contexte de l'utilisation de l'intelligence artificielle. Cet engagement de la firme de Cupertino en faveur de la protection de la vie privée et de la dignité des utilisateurs révèle les défis éthiques auxquels sont confrontées les grandes entreprises depuis que l'IA est omniprésente.

Source

9 réactions

TinAD17tiin - iPhone

Et comment je vais faire pour me fap sur ma voisine ? Honteux apple ke veux des augmentation de prix 50% mais ne touches pas a ca. Croyez moi

28/04/2024 à 10h52

Insomnia - iPad

Apple qui met prêt de 2 ans pour réagir 🫠 et après certains vont dire que le store est une sécurité pour tous et que Apple est très sélectif

27/04/2024 à 20h26

Gurvan - iPhone premium

👍🏼 Tout simplement.

27/04/2024 à 16h54

TinAD17tin - iPhone

@Uyjg - iPhone premium
Je voulais juste vous dire ça pour pas que vous soyez en mode « oh c’est honteux que Apple ai autorisé ça » car sur le web yen a plein, je voulais juste faire de la prévention

27/04/2024 à 13h53

Uyjg - iPhone premium

@TinAD17tin - iPhone
Tu veux prouver à qui ?

27/04/2024 à 11h50

TinAD17tin - iPhone

@GuiJacq - iPhone premium
T’inquiète pas, je suis quelqu’un d’intelligent et responsable, je vous dis juste qu’il n’y a malheureusement pas besoin de compétence en montage ni application pour le faire.

27/04/2024 à 09h33

GuiJacq - iPhone premium

@TinAD17tin - iPhone
Ah oui ? Je pense que c’est surtout pour lutter contre le revenge porn qu’ils réagissent ainsi. Si tu veux t’amuser à rendre des copines ou copains tous nus il y aura toujours des possibilités… Cependant les gens commencent à être au courant de ces pratiques de dalleux et vont finir par les ignorer.
Tous ces fakes existent depuis l’aube de Photoshop.

26/04/2024 à 23h35

Morzyloeuil - iPhone

Le titre est faux.
Apple ne veut plus de ces app.
Jusqu’a ce jour apple voulait bien de ces app sans que cela ne pose aucun problème a apple.

26/04/2024 à 21h17

TinAD17tin - iPhone

Je peux vous dire qu’il reste des IA qui même en indiquant quelles floute les image comme ça je les détectes pas toujours, et puis y’a pas besoin d’une app pour faire ce genre de choses croyez moi.

26/04/2024 à 18h33

Donnez votre avis
Cliquez pour commenter
Vous aimerez peut-être

Suivez-nous avec notre app iSoft
Articles populaires
Les derniers articles