Le Texas envisage une réglementation complète de l'IA

Le représentant de l'État du Texas, Giovanni Capriglione, a présenté Loi sur la gouvernance responsable de l'IA au Texas (TRAIGA) sous le nom de HB 1709 début janvier. À l'instar de la loi sur l'IA du Colorado, TRAIGA utilise un cadre basé sur les risques qui s'appliquerait à tous les secteurs. Cependant, si elle était adoptée, la TRAIGA aurait plus d'importance que la loi du Colorado, à la fois en raison de la taille de l'économie texane et du fait que les exigences de TRAIGA sont plus rigoureuses.
Approche fondée sur les risques pour prévenir la discrimination
À l'instar de la loi du Colorado, l'objectif principal de TRAIGA est d'obliger les utilisateurs d'IA à faire preuve de « prudence raisonnable » pour empêcher la discrimination fondée sur une classe protégée.
TRAIGA interdirait plusieurs cas d'utilisation de l'IA, notamment la manipulation du comportement humain, la notation sociale, la génération de certains types de contenus préjudiciables et la capture de marqueurs biométriques spécifiques, entre autres.
Pour les systèmes d'IA considérés comme présentant un risque élevé, TRAIGA imposerait des exigences aux développeurs, aux déployeurs et aux distributeurs.
Système à haut risque est défini comme un « facteur important » dans une « décision consécutive », bien que plusieurs cas d'utilisation soient exclus de cette définition.
Facteur important est défini comme a) « pris en compte lors de la prise d'une décision consécutive », b) « susceptible de modifier le résultat d'une décision consécutive » et c) « pesait plus que tout autre facteur ayant contribué à la décision consécutive ».
Décision corrélative est défini comme ayant un « effet matériel, juridique ou similaire sur l'accès, le coût ou les conditions » pour un consommateur a) une évaluation d'une affaire pénale, une analyse d'un accord de condamnation ou de plaidoyer, ou une décision de grâce, de libération conditionnelle, de probation ou de libération, b) la scolarisation ou une opportunité de formation, c) un emploi ou une opportunité d'emploi, d) un service financier, e) un service gouvernemental essentiel, f) les services publics résidentiels, g) un service ou un traitement de santé, h) un logement, i) une assurance, j) un service juridique, k) un service de transport, l) services ou produits protégés par la Constitution, ou m) élections ou processus de vote.
Gestion des risques et rapports
Rapports à haut risque : Les déployeurs doivent fournir aux déployeurs des rapports décrivant la manière dont un système d'IA doit être utilisé, les limites connues susceptibles d'entraîner une discrimination et des résumés des données de formation, entre autres éléments.
Évaluations d'impact : Les déployeurs doivent effectuer ces tests pour les systèmes à haut risque chaque année et dans les 90 jours suivant une modification importante. Cependant, « une seule évaluation d'impact peut porter sur un ensemble comparable » de systèmes d'IA à haut risque.
Politiques de gestion : Les développeurs et les déployeurs doivent mettre en œuvre des politiques organisationnelles pour régir le développement ou le déploiement de leur IA.
TRAIGA est passible d'amendes de 50 000 à 100 000 dollars par infraction.
Conseil de l'intelligence artificielle du Texas
TRAIGA créerait un conseil de l'IA rattaché au bureau du gouverneur. Entre autres responsabilités, le conseil de l'IA serait chargé de veiller à ce que les systèmes d'IA fonctionnent dans le meilleur intérêt du public, d'identifier et de suggérer des réformes des lois qui entravent l'innovation en matière d'IA et d'étudier et d'évaluer les « cas potentiels de capture réglementaire ». En conférant des pouvoirs aussi étendus au conseil de l'IA dans une juridiction aussi importante que le Texas, TRAIGA met en place le conseil pour qu'il devienne l'une des plus importantes autorités de régulation de l'IA au monde.
L'avenir de TRAIGA
Les partisans de TRAIGA le présenteront comme un projet de loi plein de bon sens avec une approche familière basée sur les risques et des partisans issus de différents horizons politiques. Les critiques le qualifieront d'hostile aux petites entreprises et à l'IA open source (malgré certaines exceptions), d'anti-innovation et de focalisation inutile sur la technologie plutôt que sur les dommages.
Alors que la législature du Texas examine les implications du projet de loi, TRAIGA promet de devenir un élément central de la discussion politique en matière d'IA en 2025.
Enzai est là pour vous aider
La plateforme AI GRC d'Enzai peut aider votre entreprise à déployer l'IA conformément aux meilleures pratiques et aux réglementations, normes et cadres émergents, tels que la loi européenne sur l'IA, la loi du Colorado sur l'IA, le NIST AI RMF et la norme ISO/IEC 42001. Pour en savoir plus, contactez-nous ici.
