L'UE, le Royaume-Uni, les États-Unis et plusieurs autres pays ont signé le premier traité mondial sur la sécurité de l'IA.
•
•
4 minutes de lecture
Sujets
Le 5 septembre, l’UE, le Royaume-Uni, les États-Unis et plusieurs autres pays ont signé un traité sur la sécurité de l’IA élaboré par le Conseil de l’Europe (CdE). Comme les traités sont juridiquement contraignants, il s’agit d’une évolution significative dans la politique mondiale en matière d’IA. Parallèlement, l’application du traité est flexible, puisqu’il revient aux pays signataires « d’adopter ou de maintenir des mesures législatives, administratives ou autres appropriées » pour donner effet à ses dispositions.
À propos du Conseil de l’Europe
Le CdE est une organisation internationale basée en France et comptant 46 États membres. Sa mission est de « promouvoir la démocratie, les droits de l’homme et l’État de droit à travers l’Europe et au-delà ». Bien que le CdE ne puisse pas adopter de lois, il a l’habitude d’élaborer des conventions et des traités majeurs qui répondent à des défis mondiaux, tels que la lutte contre la cybercriminalité et la traite des êtres humains. Parmi les réalisations du CdE figure la création de la Cour européenne des droits de l’homme.
À propos du traité
Connu officiellement sous le nom de Convention-cadre sur l’intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit, le traité est « le tout premier traité international juridiquement contraignant visant à garantir que l’utilisation des systèmes d’IA soit pleinement conforme aux droits de l’homme, à la démocratie et à l’État de droit », selon le CdE.
Le traité s’applique à l’utilisation de l’IA par les gouvernements, tout en leur imposant également de « traiter les risques et les impacts découlant des activités menées par des acteurs privés tout au long du cycle de vie des systèmes d’intelligence artificielle ». À l’instar de l’AI Act de l’UE, le traité utilise une variante de la définition de l’OCDE du « système d’IA ». Il définit également une approche fondée sur les risques pour l’utilisation de l’IA tout au long du cycle de vie d’un système d’IA, en tenant compte notamment de la transparence et de la supervision, de la responsabilité et de la redevabilité, de l’égalité et de la non-discrimination, de la vie privée et de la protection des données, ainsi que de la fiabilité.
Limites du traité
Le traité est flexible, probablement par conception, afin d’attirer des signataires du monde entier ayant des approches différentes de la gouvernance. Étant donné que le traité ne prévoit pas de règles précises, les signataires peuvent l’interpréter de différentes manières. Les voies de recours, elles aussi, sont laissées aux pays signataires.
Le traité prévoit d’importantes exceptions pour les utilisations de l’IA liées à la sécurité nationale.
Bien que tout pays dans le monde puisse signer le traité, de grands acteurs mondiaux tels que la Chine, l’Inde et la Russie ne l’ont pas signé.
Prochaines étapes
La prochaine étape pour le traité consiste à être ratifié par les signataires. Selon le CdE, « le traité entrera en vigueur le premier jour du mois suivant l’expiration d’une période de trois mois à compter de la date à laquelle cinq signataires, dont au moins trois États membres du Conseil de l’Europe, l’auront ratifié ».
À propos du traité, la secrétaire générale Marija Pejčinović Burić a indiqué espérer que « ce seront les premières d’une longue série de signatures et qu’elles seront rapidement suivies de ratifications, afin que le traité puisse entrer en vigueur dès que possible ».
En raison de la flexibilité du traité, de nombreux analystes ne s’attendent pas à ce que des changements significatifs soient nécessaires dans les approches réglementaires des pays de l’UE, du Royaume-Uni et des États-Unis, s’ils ratifient le traité.
Enzai est là pour vous aider
Le produit d’Enzai peut aider votre entreprise à déployer l’IA conformément aux meilleures pratiques ainsi qu’aux réglementations, normes et cadres émergents, tels que l’AI Act de l’UE, la loi sur l’IA du Colorado, le NIST AI RMF et l’ISO/IEC 42001. Pour en savoir plus, contactez-nous ici.
Enzai est la principale plateforme de gouvernance de l’IA d’entreprise, conçue spécialement pour aider les organisations à passer d’une politique abstraite à une supervision opérationnelle. Notre plateforme de gestion des risques liés à l’IA fournit l’infrastructure spécialisée nécessaire pour gérer la gouvernance de l’IA agentique, maintenir un inventaire complet de l’IA et assurer la conformité à l’AI Act de l’UE. En automatisant des workflows complexes, Enzai permet aux entreprises de déployer l’IA à grande échelle en toute confiance tout en restant alignées sur des normes mondiales telles que l’ISO 42001 et NIST.
Donnez à votre organisation les moyens d'adopter, de gérer et de surveiller l'IA avec une confiance de niveau entreprise. Conçu pour les organisations réglementées opérant à grande échelle.

