Après la France, USA, UK, Allemagne et Israël signent pour une IA plus sûre
- Alban Martin
- Il y a 1 an
- 💬 7 coms
- 🔈 Écouter
Les États-Unis, le Royaume-Uni, l'Allemagne, Israël et 14 autres pays ont signé un accord dans lequel les pays en question s'engagent à prendre des mesures pour rendre l'IA "sûre dès la conception". Bien qu'il ne s'agisse que d'un principe de base, l'Agence américaine pour la cybersécurité et la sécurité des infrastructures (CISA) a déclaré qu'il s'agissait d'une première étape importante.
L'avenir de l'IA
Comme le rapporte Reuters, les États-Unis, la Grande-Bretagne et d'autres pays (pas la France) ont dévoilé dimanche ce qu'un haut fonctionnaire américain a décrit comme le premier accord international détaillé sur la manière de protéger l'intelligence artificielle contre les acteurs malhonnêtes, incitant les entreprises à créer des systèmes d'intelligence artificielle "sécurisés dès la conception". Cela nous rappelle le cri d'alarme de Steve Wozniak, Elon Musk et autres à propos d'une IA hors contrôle.
Dans un document de 20 pages dévoilé dimanche, les 18 pays ont convenu que les entreprises qui conçoivent et utilisent l'intelligence artificielle doivent la développer et la déployer de manière à protéger leurs clients et le grand public contre toute utilisation abusive. Comprenez qu'elle n'induise pas en erreur des millions de personnes avec des propos erronés. La désinformation est l'enjeu de notre siècle, des sites importantes comme Wikipédia étant la cible d'activistes qui n'hésitent pas à réécrire l'histoire. Certains parlent même de Wokipédia et veulent éviter que cela ne se reproduise avec des outils comme ChatGPT, Bard, Wall-E et autre MidJourney.
Jen Easterly, directrice de la CISA, a encouragé tous les pays à prendre position :
C'est la première fois que l'on affirme que ces capacités ne devraient pas se limiter à des fonctionnalités géniales et à la rapidité avec laquelle nous pouvons les mettre sur le marché ou à la manière dont nous pouvons rivaliser pour réduire les coûts. [...] un accord sur le fait que la chose la plus importante qui doit être faite lors de la phase de conception est la sécurité.
Les autres pays signataires sont l'Allemagne, l'Italie, la République tchèque, l'Estonie, la Pologne, l'Australie, le Chili, Israël, le Nigeria et Singapour.
La France n'est pourtant pas en reste, puisque l'Europe a pris de l'avance dans ce domaine, en tentant de créer des lois spécifiques régissant le développement et la diffusion de nouveaux systèmes d'IA - ce qui inclurait une obligation légale pour les entreprises de procéder à des tests de sécurité réguliers afin d'identifier les vulnérabilités potentielles. La France, l'Allemagne et l'Italie ont ratifié, il y a dix jours à peine, leur propre accord provisoire.
De son côté, l'Amérique du Nord a, par le biais de son président Biden, signé un décret exigeant des entreprises d'IA qu'elles effectuent des tests de sécurité, principalement axés sur la protection des systèmes contre les pirates informatiques.
Comment contrôler l'IA ?
Reste que la nature même des systèmes d'intelligence artificielle, un terme utilisé à tord et à travers depuis des années, fait qu'il est difficile de cadrer légalement les usages. Avec l'auto-apprentissage, il est quasiment impossible de prévoir tous les cas et notamment les évolutions qui vont en découler.
Si l'accord de 20 pages est véritablement basique, il s'agit d'un point de départ raisonnable, notamment autour des failles de sécurité. La quantité de données ingurgitées et recrachées par ces outils donne le vertige.
En revanche, l'accord du jour n'aborde pas la question beaucoup plus large - et plus importante - de savoir comment les systèmes d'IA pourraient eux-mêmes constituer une menace pour l'homme en général. L'occasion de relire "Le soulèvement des robots" par exemple...
L'utilisation de l'IA chez Apple
Vous ne le savez peut-être pas, mais Apple intègre des fonctions d'IA dans ses produits depuis de nombreuses années, notamment dans le domaine de la photographie sur iPhone. L'entreprise a développé son propre chatbot - baptisé Apple GPT - mais ne l'utilise pour l'instant qu'au sein de l'entreprise, probablement parce qu'elle souhaite tirer parti des fonctions d'IA générative pour le développement de logiciels sans compromettre la sécurité de ses produits.
Apple n'aime pas arriver en premier sur un marché, mais se lancer quand elle sait qu'elle peut proposer une meilleure vision de la technologie. Pour l'IA, le coup d'envoi au niveau grand public serait la future mise à jour iOS 18 à venir avec les iPhone 16.