Les employés d’OpenAI recommandent la prudence avec les avancées de l’IA

chatgpt icone app ipa iphone ipadSi vous êtes un habitué des intelligences artificielles, vous avez probablement remarqué qu’il est devenu facile de créer des contenus trompeurs : fausses images, fausses vidéos, contenus audio qui imitent la voix d’une autre personne… Les employés d’OpenAI sont aux premières loges des évolutions de l’IA et beaucoup d’entre eux s’inquiètent et avertissent le public.

L’IA synonyme de danger ?

Des employés actuels et anciens d’OpenAI et de Google DeepMind ont publié une lettre ouverte pour informer le public des avancées de l’intelligence artificielle et des contraintes qu’elles pourraient générer à court et long terme. Dans cette lettre, ils mettent en avant les progrès extraordinaires réalisés chaque jour, qui peuvent parfois être inquiétants et mentionnent les dangers potentiels associés à ces avancées. Ils dénoncent également le manque de surveillance des entreprises travaillant sur l’IA, accusant nombre d’entre elles de ne pas prendre au sérieux les risques liées à ces technologies.

chatgpt logo rouge

Les risques identifiés

Les signataires de la lettre identifient plusieurs risques majeurs associés aux avancées de l’IA :

  • Renforcement des inégalités existantes : l’IA pourrait entraîner une augmentation des disparités sociales et économiques
  • Manipulation et diffusion de désinformation : l’IA peut être utilisée pour créer et propager de la fausse information à grande échelle. On a pu le voir dans une récente révélation d’OpenAI qui a déclaré qu’Israël, la Russie et d’autres pays ont utilisés ChatGPT pour créer de fausses campagnes afin de changer l’opinion des populations sur la guerre en Ukraine et Palestine.
  • Perte de contrôle des systèmes d’IA autonomes : il existe un danger que des systèmes d’IA deviennent ingérables. C’est digne d’un film de science-fiction pour certaines personnes, mais c’est un fait qui pourrait devenir réalité avec un relâchement des entreprises propriétaires.
  • Risque potentiel d’extinction de l’humanité : le développement incontrôlé de l’IA pourrait, dans des scénarios extrêmes, représenter une menace existentielle pour l’humanité.

Les entreprises d’IA sont souvent motivées par des incitations financières à continuer le développement de leurs technologies, sans partager leurs mesures de protection et les niveaux de risque associés. Les signataires expriment des doutes quant à la volonté de ces entreprises de divulguer volontairement ces informations cruciales.

Rôle des employés

Les employés jouent un rôle crucial dans la responsabilisation des entreprises. Cependant, ils sont limités par des accords de confidentialité stricts. Les protections ordinaires des lanceurs d’alerte s’avèrent insuffisantes face aux risques non encore réglementés posés par les avancées de l’IA.

Les auteurs de la lettre appellent les entreprises d’IA à :

  • Mettre en place de solides protections pour les dénonciateurs, afin d’éviter la peur de révéler au grand public des projets dangereux autour de l’intelligence artificielle
  • Éviter les accords qui empêchent les critiques sur les risques.
  • Créer un processus anonyme et vérifiable pour signaler les préoccupations liées aux risques.
  • Favoriser une culture de critique ouverte concernant les risques technologiques.
  • Ne pas punir les employés qui divulguent publiquement des informations confidentielles après l’échec d’autres processus.

La lettre ouverte des employés d’OpenAI et de Google DeepMind, nous rappelle les dangers potentiels des avancées de l’IA et appelle à une plus grande transparence et responsabilité de la part des entreprises technologiques. Les signataires précisent l’importance de mettre en place des mécanismes de protection pour les lanceurs d’alerte et de favoriser une culture de critique ouverte pour prévenir les dérives de l’IA.

Source

Vous aimerez peut-être

Nos derniers articles

Suivez-nous avec notre app iSoft
Articles populaires
Donner votre avis

 





Les réactions

3 Le Xam - iPhone premium

05/06/2024 à 16h51 :

@TinAD17tin
Un bazooka aussi c’est un outil. Et quand on voit ce que le monde arrive à faire avec autant de moyen, de douleur, et de haine. L’IA a de beaux jours devant elle.
Nous certainement moins, à moins de prévenir les risques drastiquement.

2 TinAD17tin - iPhone

05/06/2024 à 09h44 :

Et aussi, c’est de l’ia générative, ce qui veut dire qu’elle génère des choses grâce à ce qu’on fait les humains, ce n’est pas une IA créative, ce qui veut dire que jamais les artistes seront remplacé par lia puisque lia s’inspire des artistes, et elle ne pourra que copier, pas innover

1 TinAD17tin - iPhone

05/06/2024 à 09h42 :

L’IA, c’est un outils.
Le marteau, c’est un outils, et on a tous décidé que taper sur un clou, c’était bien et taper sur quelqu’un c’était mal. C’est un nous de décider de son utilisation.
C’est une belle anaphore signe Luc Julia, un des co-fondateurs de Siri, qui est français. Il l’avait sortie y’a pas longtemps sur BFMTV, et je la trouve incroyable ! Donc pas de panique, c’est les débuts de l´IA, faut juste qu’on décide des réglementations et elles vont arriver.