HB 1709 propose une approche familière basée sur les risques et un organisme de surveillance puissant
•
•
4 minutes de lecture
Sujets
Le représentant de l’État du Texas, Giovanni Capriglione, a présenté le Texas Responsible AI Governance Act (TRAIGA) sous la forme du projet de loi HB 1709 au début du mois de janvier. À l’instar du Colorado AI Act, TRAIGA s’appuie sur un cadre fondé sur le risque, applicable à l’ensemble des secteurs. Toutefois, s’il était adopté, TRAIGA serait plus important que la loi du Colorado, en raison à la fois de la taille de l’économie texane et du caractère plus rigoureux de ses exigences.
Approche fondée sur le risque visant à prévenir la discrimination
À l’instar de la loi du Colorado, l’objectif principal de TRAIGA est d’exiger des utilisateurs de l’IA qu’ils fassent preuve d’une « diligence raisonnable » afin de prévenir toute discrimination fondée sur une catégorie protégée.
TRAIGA interdirait plusieurs cas d’usage de l’IA, notamment la manipulation du comportement humain, le scoring social, la génération de certains types de contenus préjudiciables et la capture de certains marqueurs biométriques, entre autres.
Pour les systèmes d’IA considérés comme à haut risque, TRAIGA imposerait des obligations aux développeurs, aux déployeurs et aux distributeurs.
Système à haut risque est défini comme un « facteur substantiel » dans une « décision conséquente », bien que plusieurs cas d’usage soient exclus de cette définition.
Facteur substantiel est défini comme a) « pris en compte lors de la prise d’une décision conséquente », b) « susceptible de modifier l’issue d’une décision conséquente », et c) « pesant davantage que tout autre facteur contribuant à la décision conséquente ».
Décision conséquente est définie comme ayant un effet « matériel, juridique ou d’importance similaire sur l’accès, le coût ou les conditions » pour un consommateur, concernant a) l’évaluation d’une affaire pénale, l’analyse d’une condamnation ou d’un accord de plaider-coupable, ou une décision de grâce, de libération conditionnelle, de probation ou de remise en liberté, b) l’inscription à un établissement d’enseignement ou une opportunité éducative, c) l’emploi ou une opportunité d’emploi, d) un service financier, e) un service public essentiel, f) des services publics résidentiels, g) un service ou un traitement de santé, h) le logement, i) l’assurance, j) un service juridique, k) un service de transport, l) des services ou produits protégés par la Constitution, ou m) les élections ou le processus de vote.
Gestion des risques et rapports
Rapports pour les systèmes à haut risque : Les développeurs doivent fournir aux déployeurs des rapports qui décrivent la manière dont un système d’IA doit être utilisé, les limites connues susceptibles d’entraîner une discrimination et des résumés des données d’entraînement, entre autres éléments.
Évaluations d’impact : Les déployeurs doivent les réaliser chaque année pour les systèmes à haut risque et dans les 90 jours suivant une modification substantielle. Toutefois, « une seule évaluation d’impact peut couvrir un ensemble comparable » de systèmes d’IA à haut risque.
Politiques de gestion : Les développeurs et les déployeurs doivent mettre en œuvre des politiques organisationnelles pour encadrer le développement ou le déploiement de leur IA.
TRAIGA prévoit des amendes de 50 000 à 100 000 dollars par infraction.
Conseil texan de l’intelligence artificielle
TRAIGA créerait un conseil de l’IA rattaché au bureau du gouverneur. Entre autres responsabilités, le conseil de l’IA serait chargé de veiller à ce que les systèmes d’IA fonctionnent dans le meilleur intérêt du public, d’identifier et de proposer des réformes des lois qui entravent l’innovation en matière d’IA, et d’enquêter sur des « cas potentiels de capture réglementaire » et de les évaluer. En conférant de si larges pouvoirs au conseil de l’IA dans une juridiction aussi importante que le Texas, TRAIGA prépare ce conseil à devenir l’une des autorités de régulation de l’IA les plus importantes au monde.
L’avenir de TRAIGA
Les partisans de TRAIGA le présenteront comme un texte de bon sens, reposant sur une approche familière fondée sur le risque et soutenu par des acteurs de divers horizons politiques. Ses détracteurs le décriront comme peu favorable aux petites entreprises et à l’IA open source (malgré certaines exceptions), anti-innovation et inutilement centré sur la technologie plutôt que sur le préjudice.
Alors que la législature du Texas examine les implications du projet de loi, TRAIGA s’annonce comme un élément central du débat sur les politiques de l’IA en 2025.
Enzai est là pour vous aider
La plateforme de GRC de l’IA d’Enzai peut aider votre entreprise à déployer l’IA conformément aux meilleures pratiques ainsi qu’aux réglementations, normes et cadres émergents, tels que l’EU AI Act, le Colorado AI Act, le NIST AI RMF et l’ISO/IEC 42001. En savoir plus : contactez-nous ici.
Enzai est la principale plateforme de gouvernance de l’IA d’entreprise, conçue spécialement pour aider les organisations à passer d’une politique abstraite à une supervision opérationnelle. Notre plateforme de gestion des risques liés à l’IA fournit l’infrastructure spécialisée nécessaire pour gérer la gouvernance de l’IA agentique, maintenir un inventaire de l’IA complet et garantir la conformité au règlement européen sur l’IA. En automatisant des flux de travail complexes, Enzai permet aux entreprises de déployer l’IA à grande échelle en toute confiance, tout en restant alignées sur des normes mondiales telles que l’ISO 42001 et NIST.
Donnez à votre organisation les moyens d'adopter, de gérer et de surveiller l'IA avec une confiance de niveau entreprise. Conçu pour les organisations réglementées opérant à grande échelle.

