Les employés d’OpenAI recommandent la prudence avec les avancées de l’IA
- Julien Russo
- Il y a 5 mois
- 💬 3 coms
- 🔈 Écouter
Si vous êtes un habitué des intelligences artificielles, vous avez probablement remarqué qu’il est devenu facile de créer des contenus trompeurs : fausses images, fausses vidéos, contenus audio qui imitent la voix d’une autre personne… Les employés d’OpenAI sont aux premières loges des évolutions de l’IA et beaucoup d’entre eux s’inquiètent et avertissent le public.
L’IA synonyme de danger ?
Des employés actuels et anciens d’OpenAI et de Google DeepMind ont publié une lettre ouverte pour informer le public des avancées de l’intelligence artificielle et des contraintes qu’elles pourraient générer à court et long terme. Dans cette lettre, ils mettent en avant les progrès extraordinaires réalisés chaque jour, qui peuvent parfois être inquiétants et mentionnent les dangers potentiels associés à ces avancées. Ils dénoncent également le manque de surveillance des entreprises travaillant sur l’IA, accusant nombre d’entre elles de ne pas prendre au sérieux les risques liées à ces technologies.
Les risques identifiés
Les signataires de la lettre identifient plusieurs risques majeurs associés aux avancées de l’IA :
- Renforcement des inégalités existantes : l’IA pourrait entraîner une augmentation des disparités sociales et économiques
- Manipulation et diffusion de désinformation : l’IA peut être utilisée pour créer et propager de la fausse information à grande échelle. On a pu le voir dans une récente révélation d’OpenAI qui a déclaré qu’Israël, la Russie et d’autres pays ont utilisés ChatGPT pour créer de fausses campagnes afin de changer l’opinion des populations sur la guerre en Ukraine et Palestine.
- Perte de contrôle des systèmes d’IA autonomes : il existe un danger que des systèmes d’IA deviennent ingérables. C’est digne d’un film de science-fiction pour certaines personnes, mais c’est un fait qui pourrait devenir réalité avec un relâchement des entreprises propriétaires.
- Risque potentiel d’extinction de l’humanité : le développement incontrôlé de l’IA pourrait, dans des scénarios extrêmes, représenter une menace existentielle pour l’humanité.
Les entreprises d’IA sont souvent motivées par des incitations financières à continuer le développement de leurs technologies, sans partager leurs mesures de protection et les niveaux de risque associés. Les signataires expriment des doutes quant à la volonté de ces entreprises de divulguer volontairement ces informations cruciales.
Rôle des employés
Les employés jouent un rôle crucial dans la responsabilisation des entreprises. Cependant, ils sont limités par des accords de confidentialité stricts. Les protections ordinaires des lanceurs d’alerte s’avèrent insuffisantes face aux risques non encore réglementés posés par les avancées de l’IA.
Les auteurs de la lettre appellent les entreprises d’IA à :
- Mettre en place de solides protections pour les dénonciateurs, afin d’éviter la peur de révéler au grand public des projets dangereux autour de l’intelligence artificielle
- Éviter les accords qui empêchent les critiques sur les risques.
- Créer un processus anonyme et vérifiable pour signaler les préoccupations liées aux risques.
- Favoriser une culture de critique ouverte concernant les risques technologiques.
- Ne pas punir les employés qui divulguent publiquement des informations confidentielles après l’échec d’autres processus.
La lettre ouverte des employés d’OpenAI et de Google DeepMind, nous rappelle les dangers potentiels des avancées de l’IA et appelle à une plus grande transparence et responsabilité de la part des entreprises technologiques. Les signataires précisent l’importance de mettre en place des mécanismes de protection pour les lanceurs d’alerte et de favoriser une culture de critique ouverte pour prévenir les dérives de l’IA.
Source