HB 1709 schlägt einen vertrauten risikobasierten Ansatz und ein mächtiges Aufsichtsgremium vor
•
•
3 Minuten Lesezeit
Themen
Der texanische Abgeordnete Giovanni Capriglione brachte Anfang Januar den Texas Responsible AI Governance Act (TRAIGA) als HB 1709 ein. Wie der Colorado AI Act verwendet TRAIGA einen risikobasierten Rahmen, der branchenübergreifend Anwendung fände. Sollte TRAIGA jedoch in Kraft treten, wäre es bedeutender als das Gesetz von Colorado, sowohl aufgrund der Größe der texanischen Wirtschaft als auch aufgrund der strengeren Anforderungen von TRAIGA.
Risikobasierter Ansatz zur Verhinderung von Diskriminierung
Wie das Gesetz von Colorado besteht das Hauptziel von TRAIGA darin, von KI-Nutzern zu verlangen, „angemessene Sorgfalt“ anzuwenden, um Diskriminierung aufgrund geschützter Merkmale zu verhindern.
TRAIGA würde mehrere KI-Anwendungsfälle verbieten, darunter die Manipulation menschlichen Verhaltens, Social Scoring, die Erzeugung bestimmter Arten schädlicher Inhalte und die Erfassung bestimmter biometrischer Merkmale, unter anderem.
Für als hochriskant eingestufte KI-Systeme würde TRAIGA Anforderungen an Entwickler, Betreiber und Vertreiber stellen.
Ein Hochrisikosystem ist als ein „wesentlicher Faktor“ in einer „weitreichenden Entscheidung“ definiert, obwohl mehrere Anwendungsfälle von dieser Definition ausgenommen sind.
Wesentlicher Faktor ist definiert als a) „bei der Entscheidungsfindung berücksichtigt“, b) „wahrscheinlich geeignet, das Ergebnis einer weitreichenden Entscheidung zu verändern“, und c) „stärker gewichtet als jeder andere Faktor, der zur weitreichenden Entscheidung beiträgt.“
Weitreichende Entscheidung ist definiert als eine Entscheidung mit „wesentlichen, rechtlichen oder ähnlich bedeutsamen Auswirkungen auf den Zugang eines Verbrauchers zu, die Kosten von oder die Bedingungen von“ a) einer Bewertung eines Strafverfahrens, einer Analyse einer Strafzumessung oder einer Vereinbarung über ein Geständnis sowie einer Entscheidung über Begnadigung, Bewährung, Aufschub der Vollstreckung oder Entlassung, b) der Einschreibung in eine Bildungseinrichtung oder einer Bildungschance, c) Beschäftigung oder einer Beschäftigungsmöglichkeit, d) Finanzdienstleistungen, e) einer wesentlichen staatlichen Dienstleistung, f) Versorgungsleistungen für Wohngebäude, g) Gesundheitsdienstleistungen oder -behandlungen, h) Wohnraum, i) Versicherung, j) einer Rechtsdienstleistung, k) einer Verkehrsdienstleistung, l) verfassungsrechtlich geschützten Dienstleistungen oder Produkten oder m) Wahlprozessen oder dem Wahlvorgang.
Risikomanagement und Berichterstattung
Berichte für Hochrisikosysteme: Bereitsteller müssen Berichte zur Verfügung stellen, die darlegen, wie ein KI-System verwendet werden soll, welche bekannten Einschränkungen zu Diskriminierung führen könnten und zusammenfassende Angaben zu Trainingsdaten enthalten, neben anderen Elementen.
Folgenabschätzungen: Bereitsteller müssen diese für hochriskante Systeme jährlich und innerhalb von 90 Tagen nach einer wesentlichen Änderung durchführen. Allerdings kann „eine einzige Folgenabschätzung eine vergleichbare Gruppe“ hochriskanter KI-Systeme abdecken.
Managementrichtlinien: Entwickler und Bereitsteller müssen organisatorische Richtlinien implementieren, um ihre KI-Entwicklung oder ihren KI-Einsatz zu steuern.
TRAIGA sieht Geldstrafen in Höhe von 50.000 bis 100.000 US-Dollar pro Verstoß vor.
Texas-Rat für künstliche Intelligenz
TRAIGA würde einen KI-Rat beim Büro des Gouverneurs schaffen. Unter anderem wäre der KI-Rat damit beauftragt, sicherzustellen, dass KI-Systeme im besten Interesse der Öffentlichkeit arbeiten, Reformen von Gesetzen zu identifizieren und vorzuschlagen, die KI-Innovationen behindern, sowie „mögliche Fälle regulatorischer Vereinnahmung“ zu untersuchen und zu bewerten. Indem TRAIGA dem KI-Rat in einer so bedeutenden Rechtsordnung wie Texas derart weitreichende Befugnisse einräumt, bereitet der Gesetzentwurf den Rat darauf vor, zu einer der weltweit bedeutendsten Regulierungsbehörden für KI zu werden.
Die Zukunft von TRAIGA
Die Befürworter von TRAIGA werden ihn als vernünftigen Gesetzentwurf mit einem vertrauten risikobasierten Ansatz und Unterstützern aus unterschiedlichen politischen Lagern darstellen. Kritiker werden ihn als für kleine Unternehmen und Open-Source-KI unfreundlich (trotz bestimmter Ausnahmen), innovationsfeindlich und unnötig auf Technologie statt auf Schaden fokussiert charakterisieren.
Während die texanische Legislative die Auswirkungen des Gesetzentwurfs prüft, dürfte TRAIGA 2025 zu einem zentralen Thema der KI-Politikdebatte werden.
Enzai ist hier, um zu helfen
Die KI-GRC-Plattform von Enzai kann Ihrem Unternehmen dabei helfen, KI gemäß Best Practices und aufkommenden Vorschriften, Standards und Rahmenwerken wie dem EU AI Act, dem Colorado AI Act, dem NIST AI RMF und ISO/IEC 42001 einzusetzen. Mehr erfahren: nehmen Sie hier Kontakt auf.
Enzai ist die führende Enterprise-KI-Governance Plattform, die speziell dafür entwickelt wurde, Organisationen beim Übergang von abstrakter Richtlinie zu operativer Aufsicht zu unterstützen. Unsere Plattform für KI-Risikomanagement bietet die spezialisierte Infrastruktur, die erforderlich ist, um agentische KI-Governance zu steuern, ein umfassendes KI-Inventar zu führen und die Einhaltung des EU AI Act sicherzustellen. Durch die Automatisierung komplexer Workflows versetzt Enzai Unternehmen in die Lage, die KI-Adoption mit Zuversicht zu skalieren und gleichzeitig mit globalen Standards wie ISO 42001 und NIST im Einklang zu bleiben.
Ermöglichen Sie Ihrer Organisation die Einführung, Steuerung und Überwachung von KI mit unternehmensgerechtem Vertrauen. Entwickelt für regulierte Organisationen, die im großen Maßstab operieren.

