L'UE est parvenue à un accord historique sur l'IA
- 👨 Alban Martin
- Il y a 1 an
- 💬 3 coms
L'Europe devance les États-Unis
Dragoș Tudorache a déclaré :
Cette législation représentera une norme, un modèle, pour de nombreuses autres juridictions, ce qui signifie que nous devons avoir un devoir de diligence supplémentaire lorsque nous la rédigeons, car elle aura une influence sur beaucoup d'autres.
La réglementation proposée dicterait la manière dont les futurs modèles d'apprentissage automatique (LLM) pourraient être développés et distribués au sein du bloc commercial, ce qui aurait un impact sur leur utilisation dans des applications allant de l'éducation à l'emploi en passant par les soins de santé. Le développement de l'IA serait divisé en quatre catégories en fonction du risque sociétal potentiel qu'il représente : minimal, limité, élevé et interdit.
Les utilisations interdites comprennent tout ce qui contourne la volonté de l'utilisateur, cible des groupes sociaux protégés ou permet un suivi biométrique en temps réel (comme la reconnaissance faciale). Les utilisations à haut risque comprennent tout ce qui est "destiné à être utilisé comme composant de sécurité d'un produit" ou qui doit être utilisé dans des applications définies telles que les infrastructures critiques, l'éducation, les questions juridiques/judiciaires et l'embauche d'employés. Les chatbots tels que ChatGPT et Bard relèveraient de la catégorie "risque limité". L'une des mesures phares est que l'utilisateur doit absolument être averti qu'il dialogue avec un robot.
Deal!#AIAct pic.twitter.com/UwNoqmEHt5
— Thierry Breton (@ThierryBreton) December 8, 2023
Applications interdites
Reconnaissant la menace potentielle que représentent certaines applications de l'IA pour les droits des citoyens et la démocratie, les colégislateurs ont convenu d'interdire :
- les systèmes de catégorisation biométrique qui utilisent des caractéristiques sensibles (par exemple, les convictions politiques, religieuses ou philosophiques, l'orientation sexuelle, la race) ;
- l'extraction non ciblée d'images faciales sur l'internet ou de séquences de vidéosurveillance pour créer des bases de données de reconnaissance faciale ;
- la reconnaissance des émotions sur le lieu de travail et dans les établissements d'enseignement ;
- la notation sociale basée sur le comportement social ou les caractéristiques personnelles ;
- les systèmes d'IA qui manipulent le comportement humain pour contourner son libre arbitre ;
- l'IA utilisée pour exploiter les vulnérabilités des personnes (en raison de leur âge, de leur handicap, de leur situation sociale ou économique).
Pour Brandie Nonnecke, directeur du CITRIS Policy Lab à l'Université de Berkeley, "la Commission européenne a une fois de plus fait preuve d'audace en s'attaquant aux technologies émergentes, tout comme elle l'avait fait pour la confidentialité des données avec le GDPR".
La proposition de règlement est très intéressante en ce sens qu'elle aborde le problème selon une approche fondée sur le risque.
Les risques pour les contrevenants
Contrairement aux codes de conduite volontaires de certains pays, la législation européenne entend se doter de moyens de surveillance et de sanctions avec la création d'un office européen de l'IA, au sein de la Commission européenne. Ce bureau pourra infliger des amendes jusqu'à 7% du chiffre d'affaires, avec un plancher de 35 millions d'euros, pour les infractions les plus graves. D'autres sanctions sont à l'étude, mais les détails n'ont pas été divulgués.
Connaissant le penchant de l'UE pour le contrôle, cela ne surprendra personne. En ce moment, la Commission cherche à créer une identité numérique européenne et planche sur un super état, une sorte des États-Unis d'Europe qui lui octroierait de nouveaux pouvoirs.
Un travail de longue haleine
Les négociations en cours sur les règles proposées ont été interrompues ces dernières semaines par la France, l'Allemagne et l'Italie. Ces pays bloquaient les discussions sur les règles régissant la manière dont les États membres de l'UE pourraient développer des modèles fondateurs, des IA généralisées à partir desquelles des applications plus spécialisées peuvent être affinées. Le GPT-4 d'OpenAI est l'un de ces modèles fondamentaux, puisque ChatGPT, GPT et d'autres applications tierces sont toutes formées à partir de sa fonctionnalité de base. Le trio de pays s'est inquiété du fait que les réglementations strictes de l'UE sur les modèles d'IA générative pourraient entraver les efforts des États membres pour les développer de manière compétitive, face aux superpuissances américaines et chinoises.
La Commission avait déjà abordé les défis croissants de la gestion des technologies d'IA émergentes par le biais de divers efforts, publiant à la fois la première stratégie européenne sur l'IA et le plan coordonné sur l'IA en 2018, suivis par les lignes directrices pour une IA digne de confiance en 2019. L'année suivante, la Commission a publié un livre blanc sur l'IA et un rapport sur les implications de l'intelligence artificielle, de l'internet des objets et de la robotique en matière de sécurité et de responsabilité.
la Commission européenne résume l'intérêt de l'IA dans son projet :
L'intelligence artificielle ne devrait pas être une fin en soi, mais un outil qui doit servir les gens dans le but ultime d'accroître le bien-être humain.
Les règles relatives à l'intelligence artificielle disponible sur le marché de l'Union ou affectant d'une autre manière les citoyens de l'Union devraient donc placer les personnes au centre (être centrées sur l'humain), afin qu'elles puissent avoir confiance dans le fait que la technologie est utilisée d'une manière sûre et conforme à la loi, y compris le respect des droits fondamentaux.
Dans le même temps, ces règles relatives à l'intelligence artificielle devraient être équilibrées, proportionnées et ne pas contraindre ou entraver inutilement le développement technologique.
Ceci est particulièrement important car, bien que l'intelligence artificielle soit déjà présente dans de nombreux aspects de la vie quotidienne, il n'est pas possible d'anticiper toutes les utilisations ou applications possibles de l'intelligence artificielle qui pourraient se produire à l'avenir.
Avant de parvenir a cet accord préliminaire historique, la Commission européenne avait déjà collaboré avec des pointures de l'industrie pour élaborer des règles internes qui permettraient aux entreprises et aux régulateurs d'opérer selon les mêmes bases. Thierry Breton, chef de l'industrie de la Commission européenne (CE), expliquait en mai dernier :
[Sundar Pichai, PDG de Google] et moi-même avons convenu que nous ne pouvions pas nous permettre d'attendre que la réglementation sur l'IA devienne réellement applicable, et de collaborer avec tous les développeurs d'IA pour élaborer d'ores et déjà un pacte sur l'IA sur une base volontaire avant l'échéance légale.
La Commission européenne espère réunir tous les acteurs du marché, y compris les américains comme OpenAI et Google. Apple est censé se lancer à bras le corps sur l'AI générative avec iOS 18.
Qu'en pensez-vous ? C'est tout de même plus intéressant que l'ouverture de l'iPhone au sideloading.