L'IA pourrait entraîner l'extinction de l'homme selon OpenAI, Microsoft et Google
- Alban Martin
- Il y a 1 an
- 💬 11 coms
- 🔈 Écouter
Des experts et des chefs d'entreprise ont publié une tribune de mise en garde concernant les dangers potentiels de l'intelligence artificielle (IA) pour l'humanité. Certains vont même jusqu'à suggérer que l'IA pourrait conduire à l'extinction de l'homme. Ce point de vue est partagé par un nombre surprenant de spécialistes dans le domaine, y compris les PDG d'OpenAI et de Google DeepMind.
L'IA fait peur
Cette déclaration, qui pourrait sembler arriver tout droit d'un film de SF comme Matrix ou d'un livre comme 1984 d'Orwell, est en réalité soutenue par un groupe impressionnant de personnalités éminentes du monde de la technologie. Parmi les signataires figurent des noms reconnus comme Sam Altman, PDG d'OpenAI, Mira Murati, CTO d'OpenAI, Kevin Scott, CTO de Microsoft ou encore Demis Hassabis, PDG de Google DeepMind.
L'avertissement est clair : atténuer le risque d'extinction par l'IA doit être une priorité mondiale, au même titre que d'autres risques sociétaux tels que les pandémies et les guerres nucléaires.
Le préambule du texte précise qu'elle a pour but d'ouvrir le débat et de mettre en évidence le fait qu'un nombre croissant d'experts considèrent ces enjeux comme extrêmement importants, notamment depuis l'avènement de ChatGPT d'OpenAI ou Bard de Google.
Les risques liés à l'IA suscitent de plus en plus de discussions parmi les experts, les journalistes, les décideurs politiques et le grand public. Malgré cela, il est souvent difficile d'exprimer des inquiétudes concernant les dangers les plus graves de l'IA avancée, sans passer pour un complotiste, un conservateur ou même parfois un fasciste. Cette tribune vise à surmonter cet obstacle et à encourager le débat. Elle vise également à sensibiliser davantage de personnes au nombre croissant d'experts et de personnalités qui prennent au sérieux les risques les plus graves liés à l'IA avancée.
Il est intéressant de noter que Geoffrey Hinton et Yoshua Bengio, qui ont tous deux remporté le prix Turing pour leurs contributions pionnières aux réseaux neuronaux, ont également signé la déclaration. D'autres chercheurs éminents de ce domaine ont également apposé leur nom à la liste que vous pouvez consulter sur le site safe.ai.
Cette lettre fait suite à une précédente lettre ouverte appelant à une pause de six mois dans le développement des modèles d'IA générative avancée, signée entre autres par Steve Wozniak, cofondateur d'Apple et Elon Musk, ex co-fondateur d'OpenAi. Le document mettait en évidence le fait que le développement actuel de l'IA est hors de contrôle et peut présenter des risques profonds pour la société et l'humanité.
Cette lettre a été décrite comme un "coming out" pour les experts en IA qui ont jusqu'à présent exprimé leurs inquiétudes en privé, craignant d'être ridiculisés s'ils le faisaient publiquement. Cette nouvelle salve devrait les rassurer et permettre un réel débat sur l'intelligence artificielle qui est en passe de révolutionner notre relation au travail et au monde en général.