Vetorecht
Das formale Recht, das von einem Governance-Gremium oder einem Stakeholder ausgeübt wird, um AI-Implementierungen, die unannehmbare Risiken darstellen, zu blockieren oder Änderungen zu verlangen.
Ein Governance-Mechanismus, der bestimmten Rollen (z. B. Leiter des KI-Ethikrats, Chief Risk Officer) die Befugnis verleiht, KI-Projekte zu stoppen oder Änderungen zu verlangen, die die Risikogrenzen oder ethischen Anforderungen nicht erfüllen. Veto-Entscheidungen werden dokumentiert, mit einer begründeten Argumentation versehen und lösen Aktionspläne aus, um die identifizierten Probleme zu beheben, bevor eine erneute Einreichung erfolgt.
Der Lenkungsausschuss für KI einer Einzelhandelsbank behält sich das Vetorecht vor. Wenn ein Pilotprojekt eines Kundenbewertungsmodells eine demografische Parität unterhalb der akzeptablen Schwelle aufweist, übt der Ausschuss sein Veto aus und stoppt die Implementierung, bis Maßnahmen zur Behebung von Vorurteilen umgesetzt und erneut validiert wurden—um sicherzustellen, dass kein Hochrisikomodell ohne Genehmigung des Ausschusses live geht.

Wir helfen Ihnen, Antworten zu finden
Welches Problem löst Enzai?
Enzai bietet eine Infrastruktur auf Unternehmensniveau, um KI-Risiken und Compliance zu verwalten. Es schafft ein zentrales Aufzeichnungssystem, in dem KI-Systeme, Modelle, Datensätze und Governance-Entscheidungen dokumentiert, bewertet und prüfbar sind.
Für wen ist Enzai entwickelt?
Wie unterscheidet sich Enzai von anderen Governance-Tools?
Können wir beginnen, wenn wir keinen vorhandenen AI-Governance-Prozess haben?
Verlangsamt die KI-Governance die Innovation?
Wie bleibt Enzai im Einklang mit den sich entwickelnden KI-Vorschriften?
Forschung, Einblicke und Neuigkeiten
Ermöglichen Sie Ihrer Organisation die Einführung, Steuerung und Überwachung von KI mit unternehmensgerechtem Vertrauen. Entwickelt für regulierte Organisationen, die im großen Maßstab operieren.





