Entdecken Sie das vollständige Sortiment an KI-Governance-Produkten von Enzai, das darauf ausgelegt ist, Organisationen dabei zu helfen, KI mit Vertrauen zu verwalten, zu überwachen und zu skalieren. Von strukturierten Aufnahmen und zentralisierten KI-Inventaren bis hin zu automatisierten Bewertungen und Echtzeitüberwachung bietet Enzai die Bausteine, um Governance direkt in alltägliche KI-Workflows einzubetten — ohne die Innovation zu verlangsamen.

Enzai

Vorschriften für KI

New Yorker Versammlung erwägt das Gesetz zum Schutz der Verbraucher vor künstlicher Intelligenz

Vorschriften für KI

New Yorker Versammlung erwägt das Gesetz zum Schutz der Verbraucher vor künstlicher Intelligenz

Vorschriften für KI

New Yorker Versammlung erwägt das Gesetz zum Schutz der Verbraucher vor künstlicher Intelligenz

AICPA verfolgt einen risikobasierten Ansatz zur Bekämpfung potenzieller Diskriminierung.

Belfast

Belfast

3 Minuten Lesezeit

Von

Von

Var Shankar

Var Shankar

Bekämpfung algorithmischer Verzerrungen

Bekämpfung algorithmischer Verzerrungen

In Anlehnung an Colorado schreibt der vorgeschlagene New Yorker AICPA eine strenge Aufsicht vor, einschließlich jährlicher Folgenabschätzungen, für risikoreiche KI-Systeme, die weitreichende Entscheidungen in den Bereichen Wohnen, Beschäftigung und Finanzen beeinflussen.

In Anlehnung an Colorado schreibt der vorgeschlagene New Yorker AICPA eine strenge Aufsicht vor, einschließlich jährlicher Folgenabschätzungen, für risikoreiche KI-Systeme, die weitreichende Entscheidungen in den Bereichen Wohnen, Beschäftigung und Finanzen beeinflussen.

Audits und Verbraucherrechte

Audits und Verbraucherrechte

Die Gesetzgebung würde verpflichtende Prüfungen durch Dritte auf Diskriminierung geschützter Gruppen vorschreiben und Protokolle festlegen, die es Verbrauchern ermöglichen, personenbezogene Daten zu korrigieren, die in nachteiligen automatisierten Entscheidungen verwendet werden.

Die Gesetzgebung würde verpflichtende Prüfungen durch Dritte auf Diskriminierung geschützter Gruppen vorschreiben und Protokolle festlegen, die es Verbrauchern ermöglichen, personenbezogene Daten zu korrigieren, die in nachteiligen automatisierten Entscheidungen verwendet werden.

Themen

US-KI-Richtlinien
politische Übergänge
regulatorische Philosophie
historischer Vergleich

Themen

Trotz Unsicherheiten hinsichtlich des Ansatzes der Trump-Regierung zur KI-Politik treiben die Bundesstaaten neue KI-Gesetze voran. Einige davon konzentrieren sich auf spezifische Anwendungsfälle, wie Georgias SB 164, das die Nutzung von automatisierten Entscheidungstools zur Festsetzung von Mitarbeitergehältern verbietet. Andere sind stärker auf die Risiken von fortschrittlichen KI-Systemen fokussiert, wie Illinois’ HB 3506, das Bewertungs- und Prüfanforderungen für Entwickler von hochmodernen Modellen einführt.

Gesetzgeber betrachten den Einsatz von KI zunehmend unter den Gesichtspunkten des Verbraucherschutzes und der Bekämpfung von Diskriminierung. Obwohl Colorado bisher der einzige Bundesstaat ist, der Verbraucherschutzgesetze im Zusammenhang mit KI erlassen hat, hat das texanische Parlament einen umfassenden Vorschlag aufgegriffen, wobei ähnliche Gesetze in einer wachsenden Zahl von Staaten in Betracht gezogen werden.

Im Januar wurde im New Yorker Parlament ( A768) ein ähnliches Gesetz eingeführt. Der New Yorker AI Consumer Protection Act (AICPA), der sich hauptsächlich mit der Bekämpfung von Diskriminierung befasst, folgt der allgemeinen Struktur des Colorado-Gesetzes und des Vorschlags aus Texas: Er teilt Anforderungen zwischen Entwicklern und Einsatzunternehmen, konzentriert sich auf die Risiken von Hochrisiko-KI-Systemen und fordert organisatorische Richtlinien für den verantwortungsvollen KI-Einsatz.

Obwohl einige Kommentatoren das Gesetz, insbesondere angesichts jüngster Politikänderungen auf Bundesebene, begrüßt haben, haben andere es als zu verfahrensorientiert kritisiert. Beispielsweise glauben Jeffrey Sonnenfeld und Stephen Henriques, dass Gesetzgeber sich stärker darauf konzentrieren sollten, bestehende Verbraucherschutzgesetze auf KI-Systeme anzuwenden.

Was deckt AICPA ab?

AICPA würde Entwickler und Nutzer von „Hochrisiko“-KI-Systemen regulieren. Es definiert Hochrisiko-Systeme als solche, die bei Einsatz maßgeblich „entscheidungsrelevante Entscheidungen“ treffen oder erheblich dazu beitragen, die eine „wesentliche rechtliche oder ähnliche Wirkung“ in Bereichen haben, darunter:

-Bildungseinschreibung oder Bildungsmöglichkeiten

-Beschäftigung oder Beschäftigungsmöglichkeiten

-Finanz- oder Kreditdienstleistungen

-Wichtige staatliche Dienstleistungen

-Gesundheitsdienstleistungen

-Wohnraum oder Wohnmöglichkeiten

-Versicherung

-Rechtsdienstleistungen

Mehrere KI-Nutzungen sind von dieser Definition von Hochrisiko-Systemen als Ausnahmen ausgenommen.

Anforderungen für Entwickler

AICPA würde von Entwicklern verlangen, „angemessene Sorgfalt“ walten zu lassen, um Verbraucher vor Risiken im Zusammenhang mit algorithmischer Diskriminierung zu schützen und ihre KI-Systeme sowie Ansätze zur Vermeidung algorithmischer Diskriminierung öffentlich zu beschreiben. Es würde auch erfordern, dass sie Einsatzunternehmen mit Dokumentationen für Hochrisiko-Systeme versorgen, die beabsichtigte Verwendungen, schädliche und unangemessene Verwendungen, Schulungsdaten und erwartete Ergebnisse umfassen.

Entwickler hätten eine „widerlegbare Vermutung“ angemessener Sorgfalt, wenn sie unabhängige Prüfungen durch einen von der Regierung zugelassenen Prüfer durchführen lassen. Solche Prüfungen wären auf das Potenzial der Diskriminierung geschützter Klassen fokussiert.

Anforderungen für Einsatzunternehmen

Anforderungen für Einsatzunternehmen würden das Veröffentlichen ähnlicher Erklärungen über die Nutzung von KI, die Implementierung einer Risikomanagementrichtlinie und eines Programms für Hochrisiko-KI-Systeme (äquivalent zum NIST AI Risk Management Framework oder ISO/IEC 42001), die Durchführung jährlicher KI-Auswirkungsbewertungen für Hochrisiko-KI-Systeme und die Benachrichtigung der Verbraucher umfassen, wenn ein KI-System einen wesentlichen Faktor bei der Entscheidungsfindung darstellt.

Im Falle einer ablehnenden Entscheidung müssten Einsatzunternehmen auch den Hauptgrund für die Entscheidung mitteilen und der betroffenen Person die Möglichkeit geben, falsche persönliche Informationen, die während der Entscheidungsfindung verwendet wurden, zu aktualisieren. Unter bestimmten Umständen könnten Einsatzunternehmen mit Entwicklern Verträge abschließen, sodass Letztere einige dieser Compliance-Anforderungen übernehmen.

Nächste Schritte

Wenn das Gesetz verabschiedet wird, würde es am 1. Januar 2027 in Kraft treten. Obwohl AICPA sich noch in einem frühen Stadium des Gesetzgebungsprozesses befindet, ist es wahrscheinlich nur das erste in einer Reihe von KI-bezogenen Gesetzesentwürfen, die New York in Betracht ziehen wird.

Enzai ist hier, um zu helfen

Die AI GRC-Plattform von Enzai kann Ihrem Unternehmen helfen, KI in Übereinstimmung mit Best Practices und aufkommenden Vorschriften, Standards und Rahmenwerken einzusetzen, wie z.B. dem EU-AI-Gesetz, dem Colorado-AI-Gesetz, dem NIST AI RMF und ISO/IEC 42001. Um mehr zu erfahren, nehmen Sie hier Kontakt auf.

Erkunden Sie mehr

Erkunden Sie mehr

Abonnieren Sie unseren Newsletter

Indem Sie sich anmelden, stimmen Sie der Enzai Datenschutzerklärung zu.

Abonnieren Sie unseren Newsletter

Indem Sie sich anmelden, stimmen Sie der Enzai Datenschutzerklärung zu.

Abonnieren Sie unseren Newsletter

Indem Sie sich anmelden, stimmen Sie der Enzai Datenschutzerklärung zu.

Abonnieren Sie unseren Newsletter

Indem Sie sich anmelden, stimmen Sie der Enzai Datenschutzerklärung zu.

Konformität durch Design

Konformität durch Design

ISO 27001

Enzai ist nach ISO 27001 zertifiziert und ist dies seit 2023. Wir verpflichten uns zu jährlichen Audits, die von NQA durchgeführt werden, und arbeiten eng mit unserem Sicherheitsberatungspartner Instil zusammen, um unsere Sicherheitslage kontinuierlich zu aktualisieren und zu verbessern.

DSGVO

ISO 27001

Enzai ist nach ISO 27001 zertifiziert und ist dies seit 2023. Wir verpflichten uns zu jährlichen Audits, die von NQA durchgeführt werden, und arbeiten eng mit unserem Sicherheitsberatungspartner Instil zusammen, um unsere Sicherheitslage kontinuierlich zu aktualisieren und zu verbessern.

DSGVO

KI-Governance

KI-Governance

Infrastruktur

Infrastruktur

Entwickelt für Vertrauen.

Entwickelt für Vertrauen.

Ermöglichen Sie Ihrer Organisation die Einführung, Steuerung und Überwachung von KI mit unternehmensgerechtem Vertrauen. Entwickelt für regulierte Organisationen, die im großen Maßstab operieren.

Verbinden Sie nahtlos Ihre bestehenden Systeme, Richtlinien und KI-Workflows – alles auf einer einheitlichen Plattform.

Verbinden Sie nahtlos Ihre bestehenden Systeme, Richtlinien und KI-Workflows – alles auf einer einheitlichen Plattform.