HB 1709 schlägt einen vertrauten risikobasierten Ansatz und ein mächtiges Aufsichtsgremium vor
•
•
3 Minuten Lesezeit
Themen
Der texanische Staatsvertreter Giovanni Capriglione stellte zu Beginn des Januar den Texas Responsible AI Governance Act (TRAIGA) als HB 1709 vor. Wie das Colorado AI Act verwendet TRAIGA ein risikobasiertes Rahmenwerk, das branchenübergreifend anwendbar wäre. Falls es jedoch in Kraft tritt, wäre TRAIGA aufgrund der Größe der texanischen Wirtschaft und der strengeren Anforderungen von TRAIGA bedeutender als das Gesetz von Colorado.
Risikobasierter Ansatz zur Vermeidung von Diskriminierung
Wie das Gesetz in Colorado hat TRAIGA das Hauptziel, von KI-Nutzern „angemessene Sorgfalt“ zu verlangen, um Diskriminierung aufgrund einer geschützten Klasse zu verhindern.
TRAIGA würde mehrere Einsatzmöglichkeiten der KI verbieten, darunter die Manipulation menschlichen Verhaltens, soziale Bewertung, die Erzeugung bestimmter Arten schädlicher Inhalte und das Erfassen bestimmter biometrischer Marker, unter anderem.
Für als hochriskant eingestufte KI-Systeme würde TRAIGA Anforderungen an Entwickler, Einsatzunternehmer und Distributoren stellen.
Hochriskantes System wird definiert als ein „entscheidender Faktor“ in einer „folgenreichen Entscheidung“, wobei mehrere Einsatzmöglichkeiten von dieser Definition ausgeschlossen sind.
Entscheidender Faktor wird definiert als a) „berücksichtigt bei der Erstellung einer folgenreichen Entscheidung“, b) „wahrscheinlich das Ergebnis einer folgenreichen Entscheidung verändert“ und c) „stärker gewichtet als andere Faktoren, die zur folgenreichen Entscheidung beitragen.“
Folgenreiche Entscheidung wird definiert als mit einem „wesentlichen, rechtlichen oder ähnlich bedeutenden Effekt auf den Zugang, die Kosten oder die Bedingungen“ eines Verbrauchers bei a) einer Beurteilung eines Strafverfahrens, einer Analyse des Urteils oder einer Vergleichsvereinbarung, einem Pardon, Bewährung oder Freilassungsentscheidung, b) Bildungsanmeldung oder Bildungschance, c) Beschäftigung oder Beschäftigungschance, d) Finanzdienstleistung, e) einer wesentlichen staatlichen Dienstleistung, f) Wohnnutzleistungen, g) Gesundheitsdienstleistungen oder Behandlung, h) Wohnen, i) Versicherung, j) juristische Dienstleistung, k) Transportdienstleistung, l) verfassungsmäßig geschützte Dienste oder Produkte, oder m) Wahlen oder Wahlprozesse.
Risikomanagement und Berichterstattung
Hochrisikoberichte: Einsatzunternehmer müssen Berichte bereitstellen, die darstellen, wie ein KI-System genutzt werden sollte, bekannte Einschränkungen, die zu Diskriminierung führen könnten, und Zusammenfassungen von Trainingsdaten, unter anderem.
Folgenabschätzungen: Einsatzunternehmer müssen diese für hochriskante Systeme jährlich und innerhalb von 90 Tagen nach einer erheblichen Modifikation durchführen. Allerdings „kann eine einzige Folgenabschätzung einen vergleichbaren Satz“ von hochriskanten KI-Systemen abdecken.
Managementrichtlinien: Entwickler und Einsatzunternehmen müssen organisatorische Richtlinien implementieren, um ihre KI-Entwicklung oder -Einsatz zu regeln.
TRAIGA kommt mit Geldstrafen zwischen 50.000 und 100.000 USD pro Verstoß.
Texas Künstliche Intelligenz Rat
TRAIGA würde einen KI-Rat ins Leben rufen, der dem Büro des Gouverneurs angegliedert ist. Neben anderen Aufgaben wäre der KI-Rat dafür verantwortlich, dass KI-Systeme im besten Interesse der Öffentlichkeit arbeiten, Reformen für Gesetze zu finden und vorzuschlagen, die KI-Innovation behindern, und „potenzielle Fälle von regulatorischer Vereinnahmung“ zu untersuchen und zu bewerten. Durch die Übertragung so weitreichender Befugnisse auf den KI-Rat in einem so bedeutenden Gebiet wie Texas stellt TRAIGA den Rat als eine der weltweit bedeutendsten Regulierungsbehörden für KI auf.
TRAIGAs Zukunft
TRAIGAs Befürworter werden es als ein billiges Gesetz mit einem vertrauten, risikobasierten Ansatz und Unterstützung aus verschiedenen politischen Richtungen präsentieren. Kritiker werden es als unternehmensfeindlich für kleine Unternehmen und Open-Source-KI (trotz bestimmter Ausnahmen) darstellen, als innovationsfeindlich und unnötig technologieorientiert statt schadensorientiert.
Während die texanische Legislative über die Auswirkungen des Gesetzes diskutiert, verspricht TRAIGA, im Jahr 2025 im Zentrum der Gesprächsrunden zur KI-Politik zu stehen.
Enzai ist bereit zu helfen
Die AI GRC Plattform von Enzai kann Ihrem Unternehmen helfen, KI in Übereinstimmung mit best practices und neuen Vorschriften, Standards und Rahmenwerken zu implementieren, wie dem EU AI Act, dem Colorado AI Act, dem NIST AI RMF und ISO/IEC 42001. Erfahren Sie mehr: nehmen Sie hier Kontakt auf.
Ermöglichen Sie Ihrer Organisation die Einführung, Steuerung und Überwachung von KI mit unternehmensgerechtem Vertrauen. Entwickelt für regulierte Organisationen, die im großen Maßstab operieren.

