La Californie a voté un projet de loi pour réglementer la formation des IA
- Julien Russo
- Il y a 3 mois (Màj il y a 3 mois)
- 💬 Réagir
- 🔈 Écouter
Avant l’arrivée de ChatGPT d’OpenAI, l’intelligence artificielle n’était qu’une fiction pour beaucoup de personnes. Aujourd’hui, l’IA est dans notre quotidien et elle évolue à très grande vitesse, il n’y a qu’à voir les récentes avancées de ChatGPT ou encore de Gemini pour s’en rendre compte. Les multiples avancées qu’il y a eu depuis 2022 inquiète la Californie, l’État a voté hier un projet de loi visant à réguler la formation des nouveaux modèles IA, l’objectif est clair : s’assurer que l’IA ne devient pas dangereuse.
La Silicon Valley va devoir respecter de nouvelles règles
La Californie, qui est souvent considérée comme un État pionnier dans l’innovation technologique grâce à la Silicon Valley, vient de franchir une étape majeure en matière de régulation de l’intelligence artificielle. L’Assemblée et le Sénat de Californie ont récemment approuvé un projet de loi intitulé “Safe and Secure Innovation for Frontier Artificial Intelligence Models Act” (SB 1047), destiné à encadrer le développement et l’utilisation des modèles d’IA dans l’État. Ce texte (s’il est définitivement approuvé) marquera l’une des premières grandes régulations sur l’IA aux États-Unis.
Avec l’adoption de cette loi, la Californie impose un cadre rigoureux à toutes les entreprises opérant dans le domaine de l’IA, y compris les géants tels qu’Apple et Google. Ces entreprises seront désormais tenues de respecter une série d’exigences avant de développer tout “modèle de fondation sophistiqué”. En d’autres termes, la loi vise à garantir que les innovations en matière d’IA se déroulent dans un environnement sécurisé, minimisant ainsi les risques potentiels pour les États-Unis comme pour les autres pays à travers le monde.
Des mesures de sécurité strictes pour les développeurs
Le projet de loi impose aux entreprises d’IA de prendre des précautions avant même le début du développement de leurs modèles. Les développeurs doivent être en mesure de désactiver rapidement et totalement un modèle d’IA en cas de danger ou de perte de contrôle, notamment si celui-ci commence à réaliser des actions ou interactions suspectes. Le projet de loi précise également que des mesures de protection doivent être mises en place pour éviter toute “modification dangereuse après la formation” des modèles linguistiques, ainsi que tout ce qui pourrait entraîner des “dommages critiques”.
Les sénateurs californiens, à l’origine de ce projet de loi, expliquent que ces dispositions ont pour objectif de protéger la société contre les abus potentiels liés à l’IA. Conscients que la Silicon Valley est le cœur de l’innovation en matière d’IA, ils estiment indispensable d’imposer des régulations strictes aux entreprises pour éviter des dérives qui pourraient avoir des conséquences graves. Elon Musk, qui a participé aux débats, se bat pour ce genre de protection depuis des années.
Soutien du monde académique
Le projet de loi a reçu le soutien de nombreuses personnalités, notamment du professeur Geoffrey Hinton, ancien chef de l’IA chez Google, qui a indiqué l’importance de réguler les systèmes d’IA avant tout débordement. Selon lui, les risques liés à l’intelligence artificielle sont “très sérieux” et nécessitent une attention particulière de la part des régulateurs. Le projet de loi SB 1047 doit encore franchir une dernière étape, le gouverneur démocrate Gavin Newsom a jusqu’à la fin septembre pour approuver ou rejeter ce texte.
Source