« Le développement de l’IA en toute sécurité », ces entreprises s’engagent !
- Julien Russo
- Il y a 7 mois
- 💬 1 com
- 🔈 Écouter
Depuis le début de 2022, l’intelligence artificielle a intégré notre quotidien d’une manière spectaculaire. Si globalement elle est positive en nous aidant au quotidien, en améliorant nos tâches, notre productivité au quotidien… Elle pose aussi des problèmes de sécurité comme l’usurpation d’identité. Plusieurs entreprises dont OpenAI ou encore Amazon se sont engagés à développer l’intelligence artificielle en toute sécurité !
Les entreprises s’engagent dans un communiqué du gouvernement britannique avec la République de Corée
Au total, 16 entreprises qui travaillent dans le domaine de l’IA, incluant des géants des États-Unis, de la Chine et du Moyen-Orient, ont récemment convenu de nouveaux engagements pour assurer un développement sécurisé de l’intelligence artificielle. Ces engagements visent à minimiser les risques associés aux modèles d’IA et à garantir une transparence accrue avec les consommateurs comme avec les gouvernements.
Parmi les entreprises signataires, on retrouve :
- Amazon
- Anthropic
- Cohere
- Google / Google DeepMind
- G42
- IBM
- Inflection IA
- Meta
- Microsoft
- Mistral AI
- Naver
- OpenAI
- Samsung
- Technology Innovation Institute
- xAI
- Zhipu.ai
Objectifs des engagements
Les engagements pris par ces entreprises comprennent plusieurs objectifs clés :
- Publication de cadres de sécurité : Les entreprises se sont engagées à publier des cadres de sécurité permettant de mesurer les risques des modèles d’IA.
- Transparence des risques : Les risques graves doivent être décrits et des mesures d’atténuation mises en place immédiatement dès leur découverte.
- Prudence dans le développement : Les entreprises s’engagent à ne pas développer ou déployer des modèles si les risques identifiés ne peuvent être atténués.
- Consultation gouvernementale : Avant de définir les seuils de risque, une consultation avec les gouvernements sera effectuée pour s’assurer de la pertinence et de la sécurité des déploiements.
Plusieurs figures influentes du secteur technologique ont assuré avoir conscience de l’importance de ces engagements, surtout à la vitesse à laquelle avance le secteur de l’intelligence artificielle :
Tom Lue de Google DeepMind a mis en avant l’importance des meilleures pratiques et des sommets internationaux sur la sécurité :
Ces engagements aideront à établir d'importantes meilleures pratiques en matière de sécurité de l'IA aux frontières parmi les principaux développeurs. L'accord démontre la valeur de sommets internationaux sur la sécurité ciblés, où des conversations scientifiquement fondées peuvent avoir lieu.
David Zapolsky d’Amazon s’est engagé à la transparence et à l’établissement de normes mondiales :
Amazon est fier de soutenir les engagements de sécurité de l'IA des frontières, qui représentent à bien des égards l'aboutissement d'un effort pluriannuel visant à établir des normes mondiales pour le développement et le déploiement sûrs, sécurisés et fiables de l'IA frontalière. Alors que l'état de l'art de l'IA continue d'évoluer, nous convenons qu'il est important que les entreprises fournissent de la transparence sur la façon dont elles gèrent les risques potentiels des modèles frontaliers et honorent leurs engagements mondiaux.
OpenAI s’engage aussi à être vigilant
C’est probablement l’entreprise qui a les plus grandes avancées en matière d’IA et qui avance le plus rapidement sur ses projets. Anna Makanju d’OpenAI a promu les pratiques de sécurité pour les systèmes d’IA avancés dans sa déclaration :
Les engagements de sécurité de l'IA de la frontière représentent une étape importante vers la promotion d'une mise en œuvre plus large de pratiques de sécurité pour les systèmes d'IA avancés, comme le cadre de préparation OpenAI adopté l'année dernière.
Le domaine de la sécurité de l'IA évolue rapidement et nous sommes particulièrement heureux d'approuver l'accent mis par les engagements sur le raffinage des approches aux côtés de la science. Nous restons déterminés à collaborer avec d'autres laboratoires de recherche, entreprises et gouvernements pour nous assurer que l'IA est sûre et profite à toute l'humanité.
En s’engageant collectivement, ces entreprises montrent leur volonté de prendre la tête dans la gestion des risques de l’IA et de travailler ensemble pour créer un environnement technologique sûr et transparent.