L'UE, le Royaume-Uni, les États-Unis et plusieurs autres pays ont signé le premier traité mondial sur la sécurité de l'IA.
•
•
3 minutes de lecture
Sujets
Le 5 septembre, l'UE, le Royaume-Uni, les États-Unis et plusieurs autres pays ont signé un traité de sécurité de l'IA développé par le Conseil de l'Europe (CoE). Étant donné que les traités sont juridiquement contraignants, il s'agit d'un développement significatif dans la politique mondiale de l'intelligence artificielle. En même temps, l'application du traité est flexible, puisqu'il revient aux pays signataires « d'adopter ou de maintenir des mesures législatives, administratives ou autres appropriées » pour donner effet à ses dispositions.
À propos du Conseil de l'Europe
Le CoE est une organisation internationale basée en France avec 46 États membres. Sa mission est de « promouvoir la démocratie, les droits de l'homme et l'État de droit à travers l'Europe et au-delà. » Bien que le CoE ne puisse pas adopter de lois, il a une histoire de développement de conventions et de traités significatifs qui répondent à des défis mondiaux, tels que la lutte contre la cybercriminalité et le trafic humain. Les réalisations du CoE incluent la création de la Cour européenne des droits de l'homme.
À propos du traité
Formellement connu sous le nom de Convention cadre sur l'intelligence artificielle et les droits de l'homme, la démocratie et l'État de droit, le traité est « le tout premier traité international juridiquement contraignant visant à garantir que l'utilisation des systèmes d'IA est pleinement conforme aux droits de l'homme, à la démocratie et à l'état de droit », selon le CoE.
Le traité s'applique à l'utilisation de l'IA par les gouvernements, tout en leur demandant également de « traiter des risques et impacts découlant d'activités au sein du cycle de vie des systèmes d'intelligence artificielle par des acteurs privés. » Comme l'AI Act de l'UE, le traité utilise une variation de la définition de l'OCDE de « système d'IA. » Il décrit également une approche basée sur le risque de l'utilisation de l'IA tout au long du cycle de vie d'un système d'IA, y compris la prise en compte de la transparence et de la surveillance, de la responsabilité, de l'égalité et de la non-discrimination, de la confidentialité et de la protection des données, et de la fiabilité.
Limites du Traité
Le traité est flexible, probablement par conception, pour attirer des signataires du monde entier ayant différentes approches de gouvernance. Étant donné que le traité ne fournit pas de règles spécifiques, les signataires peuvent l'interpréter de différentes manières. Les remèdes, eux aussi, sont laissés aux pays signataires.
Le traité inclut d'importantes dérogations pour les utilisations de l'IA en sécurité nationale.
Bien que tout pays du monde puisse signer le traité, des acteurs mondiaux majeurs tels que la Chine, l'Inde et la Russie ne l'ont pas signé.
Prochaines étapes
La prochaine étape pour le traité est que les signataires le ratifient. Selon le CoE, « le traité entrera en vigueur le premier jour du mois suivant l'expiration d'une période de trois mois après la date à laquelle cinq signataires, incluant au moins trois États membres du Conseil de l'Europe, l'auront ratifié. »
Réfléchissant sur le traité, la Secrétaire générale Marija Pejčinović Burić a exprimé son espoir que « ces signatures ne seront que le début et qu'elles seront rapidement suivies par des ratifications, permettant ainsi au traité d'entrer en vigueur dès que possible. »
En raison de la flexibilité du traité, de nombreux analystes ne s'attendent pas à ce que des changements significatifs soient nécessaires dans les approches réglementaires des pays de l'UE, du Royaume-Uni et des États-Unis, s'ils ratifient le traité.
Enzai est là pour vous aider
Le produit d'Enzai peut aider votre entreprise à déployer l'IA conformément aux meilleures pratiques et aux réglementations, normes et cadres émergents, tels que l'AI Act de l'UE, le Colorado AI Act, le NIST AI RMF et l'ISO/IEC 42001. Pour en savoir plus, contactez-nous ici.
Donnez à votre organisation les moyens d'adopter, de gérer et de surveiller l'IA avec une confiance de niveau entreprise. Conçu pour les organisations réglementées opérant à grande échelle.

