Découvrez la gamme complète de produits de gouvernance de l'IA d'Enzai, conçus pour aider les organisations à gérer, surveiller et faire évoluer l'IA en toute confiance. Des processus d'intégration structurés et des inventaires centralisés d'IA aux évaluations automatisées et à la surveillance en temps réel, Enzai fournit les éléments nécessaires pour intégrer la gouvernance directement dans les flux de travail quotidiens de l'IA, sans freiner l'innovation.

Enzai

Réglementations sur l'IA

Le Texas envisage une réglementation complète de l'IA

Réglementations sur l'IA

Le Texas envisage une réglementation complète de l'IA

Réglementations sur l'IA

Le Texas envisage une réglementation complète de l'IA

HB 1709 propose une approche familière basée sur les risques et un organisme de surveillance puissant

Belfast

Belfast

4 minutes de lecture

Par

Par

Var Shankar

Var Shankar

Un puissant mandat de supervision

Un puissant mandat de supervision

Le projet de loi texan sur la gouvernance responsable de l’IA (TRAIGA) créerait un Conseil d’État de l’IA doté de pouvoirs étendus et imposerait une gestion rigoureuse des risques pour les systèmes à haut risque influençant des décisions déterminantes dans 13 catégories.

Le projet de loi texan sur la gouvernance responsable de l’IA (TRAIGA) créerait un Conseil d’État de l’IA doté de pouvoirs étendus et imposerait une gestion rigoureuse des risques pour les systèmes à haut risque influençant des décisions déterminantes dans 13 catégories.

Conformité à forts enjeux

Conformité à forts enjeux

Le projet de loi introduit des sanctions sévères allant de 50 000 $ à 100 000 $ par infraction, et impose aux développeurs et aux déployeurs de réaliser des évaluations d’impact annuelles ainsi que de publier des rapports détaillés sur les données d’entraînement et les limites des modèles.

Le projet de loi introduit des sanctions sévères allant de 50 000 $ à 100 000 $ par infraction, et impose aux développeurs et aux déployeurs de réaliser des évaluations d’impact annuelles ainsi que de publier des rapports détaillés sur les données d’entraînement et les limites des modèles.

Sujets

Responsabilité de l'IA
Cadres de Responsabilité et d'Imputabilité
Droit Européen
Responsabilité Civile

Sujets

Le représentant de l’État du Texas, Giovanni Capriglione, a présenté le Texas Responsible AI Governance Act (TRAIGA) sous la forme du projet de loi HB 1709 au début du mois de janvier. À l’instar du Colorado AI Act, TRAIGA s’appuie sur un cadre fondé sur le risque, applicable à l’ensemble des secteurs. Toutefois, s’il était adopté, TRAIGA serait plus important que la loi du Colorado, en raison à la fois de la taille de l’économie texane et du caractère plus rigoureux de ses exigences. 

Approche fondée sur le risque visant à prévenir la discrimination

À l’instar de la loi du Colorado, l’objectif principal de TRAIGA est d’exiger des utilisateurs de l’IA qu’ils fassent preuve d’une « diligence raisonnable » afin de prévenir toute discrimination fondée sur une catégorie protégée. 

TRAIGA interdirait plusieurs cas d’usage de l’IA, notamment la manipulation du comportement humain, le scoring social, la génération de certains types de contenus préjudiciables et la capture de certains marqueurs biométriques, entre autres.

Pour les systèmes d’IA considérés comme à haut risque, TRAIGA imposerait des obligations aux développeurs, aux déployeurs et aux distributeurs.

Système à haut risque est défini comme un « facteur substantiel » dans une « décision conséquente », bien que plusieurs cas d’usage soient exclus de cette définition.

Facteur substantiel est défini comme a) « pris en compte lors de la prise d’une décision conséquente », b) « susceptible de modifier l’issue d’une décision conséquente », et c) « pesant davantage que tout autre facteur contribuant à la décision conséquente ».

Décision conséquente est définie comme ayant un effet « matériel, juridique ou d’importance similaire sur l’accès, le coût ou les conditions » pour un consommateur, concernant a) l’évaluation d’une affaire pénale, l’analyse d’une condamnation ou d’un accord de plaider-coupable, ou une décision de grâce, de libération conditionnelle, de probation ou de remise en liberté, b) l’inscription à un établissement d’enseignement ou une opportunité éducative, c) l’emploi ou une opportunité d’emploi, d) un service financier, e) un service public essentiel, f) des services publics résidentiels, g) un service ou un traitement de santé, h) le logement, i) l’assurance, j) un service juridique, k) un service de transport, l) des services ou produits protégés par la Constitution, ou m) les élections ou le processus de vote.

Gestion des risques et rapports

Rapports pour les systèmes à haut risque : Les développeurs doivent fournir aux déployeurs des rapports qui décrivent la manière dont un système d’IA doit être utilisé, les limites connues susceptibles d’entraîner une discrimination et des résumés des données d’entraînement, entre autres éléments.

Évaluations d’impact : Les déployeurs doivent les réaliser chaque année pour les systèmes à haut risque et dans les 90 jours suivant une modification substantielle. Toutefois, « une seule évaluation d’impact peut couvrir un ensemble comparable » de systèmes d’IA à haut risque.

Politiques de gestion : Les développeurs et les déployeurs doivent mettre en œuvre des politiques organisationnelles pour encadrer le développement ou le déploiement de leur IA.

TRAIGA prévoit des amendes de 50 000 à 100 000 dollars par infraction.

Conseil texan de l’intelligence artificielle

TRAIGA créerait un conseil de l’IA rattaché au bureau du gouverneur. Entre autres responsabilités, le conseil de l’IA serait chargé de veiller à ce que les systèmes d’IA fonctionnent dans le meilleur intérêt du public, d’identifier et de proposer des réformes des lois qui entravent l’innovation en matière d’IA, et d’enquêter sur des « cas potentiels de capture réglementaire » et de les évaluer. En conférant de si larges pouvoirs au conseil de l’IA dans une juridiction aussi importante que le Texas, TRAIGA prépare ce conseil à devenir l’une des autorités de régulation de l’IA les plus importantes au monde.  

L’avenir de TRAIGA

Les partisans de TRAIGA le présenteront comme un texte de bon sens, reposant sur une approche familière fondée sur le risque et soutenu par des acteurs de divers horizons politiques. Ses détracteurs le décriront comme peu favorable aux petites entreprises et à l’IA open source (malgré certaines exceptions), anti-innovation et inutilement centré sur la technologie plutôt que sur le préjudice. 

Alors que la législature du Texas examine les implications du projet de loi, TRAIGA s’annonce comme un élément central du débat sur les politiques de l’IA en 2025.

Enzai est là pour vous aider

La plateforme de GRC de l’IA d’Enzai peut aider votre entreprise à déployer l’IA conformément aux meilleures pratiques ainsi qu’aux réglementations, normes et cadres émergents, tels que l’EU AI Act, le Colorado AI Act, le NIST AI RMF et l’ISO/IEC 42001. En savoir plus : contactez-nous ici.

Enzai est la principale plateforme de gouvernance de l’IA d’entreprise, conçue spécialement pour aider les organisations à passer d’une politique abstraite à une supervision opérationnelle. Notre plateforme de gestion des risques liés à l’IA fournit l’infrastructure spécialisée nécessaire pour gérer la gouvernance de l’IA agentique, maintenir un inventaire de l’IA complet et garantir la conformité au règlement européen sur l’IA. En automatisant des flux de travail complexes, Enzai permet aux entreprises de déployer l’IA à grande échelle en toute confiance, tout en restant alignées sur des normes mondiales telles que l’ISO 42001 et NIST.

Découvrez davantage

Découvrez davantage

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Conformité Intégrée Dès la Conception

Conformité Intégrée Dès la Conception

ISO 27001

Enzai est certifiée ISO 27001, et lest depuis 2023. Nous nous engageons à réaliser des audits annuels effectués par NQA et collaborons étroitement avec nos partenaires consultants en sécurité, Instil, afin de mettre à jour et de renforcer en continu notre posture de sécurité.

RGPD

ISO 27001

Enzai est certifiée ISO 27001, et lest depuis 2023. Nous nous engageons à réaliser des audits annuels effectués par NQA et collaborons étroitement avec nos partenaires consultants en sécurité, Instil, afin de mettre à jour et de renforcer en continu notre posture de sécurité.

RGPD

Gouvernance de l'IA

Gouvernance de l'IA

Infrastructure

Infrastructure

conçu pour la Confiance.

conçu pour la Confiance.

Donnez à votre organisation les moyens d'adopter, de gérer et de surveiller l'IA avec une confiance de niveau entreprise. Conçu pour les organisations réglementées opérant à grande échelle.

Connectez sans effort vos systèmes existants, vos politiques et vos flux de travail d'IA — le tout sur une plateforme unifiée.

Connectez sans effort vos systèmes existants, vos politiques et vos flux de travail d'IA — le tout sur une plateforme unifiée.