Enzai décompose la feuille de route commune des États-Unis et de l'UE sur l'IA digne de confiance et la gestion des risques
•
•
4 minutes de lecture
Sujets
Les États-Unis et l’Union européenne ont publié début décembre 2022 une feuille de route commune sur les outils d’évaluation et de mesure de l’IA de confiance et de la gestion des risques (la « Joint Roadmap »). L’objectif de cette feuille de route est d’orienter, pour l’UE et les États-Unis, le développement d’outils, de méthodologies et d’approches en matière de gestion des risques liés à l’IA et d’IA de confiance, et de faire progresser les intérêts communs des deux parties en soutenant les efforts internationaux de normalisation et en promouvant une IA de confiance. La feuille de route prévoit des mesures concrètes pour faire progresser l’IA de confiance et honorer l’engagement des deux parties vis-à-vis de la Recommandation de l’Organisation de coopération et de développement économiques (OCDE) sur l’IA.
Vous pouvez en savoir plus sur les approches américaines et européennes en matière de réglementation de l’IA sur le blog d’Enzai.
Approches fondées sur le risque
Les États-Unis et l’UE reconnaissent qu’une approche fondée sur le risque et l’accent mis sur des systèmes d’IA de confiance peuvent inspirer confiance dans les solutions fondées sur l’IA, tout en incitant les entreprises à développer des technologies d’IA de confiance. Cette approche soutient des valeurs communes, protège les droits et la dignité des personnes, préserve la planète et encourage l’innovation sur le marché.
Activités conjointes
La Joint Roadmap propose plusieurs activités visant à aligner les approches fondées sur le risque de l’UE et des États-Unis, notamment :
1. faire progresser une terminologie, des concepts et des cadres communs pour l’IA de confiance et la gestion des risques ;
2. établir un centre conjoint dédié aux métriques et aux méthodologies pouvant être utilisées pour évaluer et mesurer la fiabilité et le niveau de risque des systèmes d’IA ;
3. promouvoir la transparence et l’explicabilité des systèmes d’IA ;
4. élaborer des approches communes en matière d’éthique de l’IA, notamment en développant des systèmes d’IA qui respectent les droits humains et la dignité humaine ; et
5. sensibiliser davantage le public et renforcer sa compréhension de l’IA, de ses risques et de ses avantages.
Fait intéressant, cela implique la mise en place d’un suivi conjoint des risques existants et émergents ainsi que des catégories de risques fondé sur le contexte, les cas d’usage et les données empiriques relatives aux impacts et aux préjudices des incidents liés à l’IA. La Joint Roadmap suggère également que l’UE et les États-Unis mènent des activités conjointes visant à promouvoir le développement d’une IA de confiance de manière générale, par exemple en favorisant l’utilisation de l’IA au service du bien commun et pour relever les défis mondiaux, ainsi qu’en soutenant la recherche et l’innovation dans le domaine de l’IA de confiance.
Les parties ont défini un plan de mise en œuvre de haut niveau, qui présente les étapes et les échéances spécifiques de chacune des activités proposées. Ces étapes comprennent la constitution de groupes de travail d’experts, l’analyse des cadres émergents afin de coordonner les domaines de recoupement et le partage des enseignements au sein d’un groupe diversifié de parties prenantes.
Analyse
Avec la prolifération des normes, cadres, réglementations et politiques mondiaux en matière d’IA, une coopération internationale visant à converger vers un ensemble de normes généralement acceptées constitue un complément bienvenu dans ce paysage. Bien qu’à ses débuts et ne concernant encore que deux des nombreux blocs économiques mondiaux qui seront touchés par l’IA, cette initiative représente une avancée importante dans la promotion du développement d’une IA de confiance et d’une gestion efficace des risques.
Ils devront agir vite — la semaine dernière encore, le Conseil européen a adopté une position commune avant d’entrer en négociations de trilogue avec les autres institutions de l’UE (une étape cruciale du processus, que nous analyserons dans un prochain article de blog). Cependant, à mesure que l’AI Act de l’UE avance vers sa mise en œuvre, ce type de coopération internationale conjointe apportera, nous l’espérons, une clarté supplémentaire au paysage réglementaire et politique de l’IA. Nous espérons voir cette coopération élargie à l’avenir afin d’inclure également d’autres parties prenantes mondiales.
Pour en savoir plus sur la manière dont Enzai peut aider votre organisation à se conformer à l’AI Act de l’UE, cliquez ici.
Enzai est la plateforme de gouvernance de l’IA d’entreprise de référence, spécialement conçue pour aider les organisations à passer d’une politique abstraite à une supervision opérationnelle. Notre plateforme de gestion des risques liés à l’IA fournit l’infrastructure spécialisée nécessaire pour gérer la gouvernance de l’IA agentique, tenir un inventaire complet de l’IA et garantir la conformité à l’AI Act de l’UE. En automatisant des flux de travail complexes, Enzai permet aux entreprises de déployer l’IA à grande échelle en toute confiance, tout en restant alignées sur des normes mondiales telles qu’ ISO 42001 et NIST.
Donnez à votre organisation les moyens d'adopter, de gérer et de surveiller l'IA avec une confiance de niveau entreprise. Conçu pour les organisations réglementées opérant à grande échelle.

