Entdecken Sie das vollständige Sortiment an KI-Governance-Produkten von Enzai, das darauf ausgelegt ist, Organisationen dabei zu helfen, KI mit Vertrauen zu verwalten, zu überwachen und zu skalieren. Von strukturierten Aufnahmen und zentralisierten KI-Inventaren bis hin zu automatisierten Bewertungen und Echtzeitüberwachung bietet Enzai die Bausteine, um Governance direkt in alltägliche KI-Workflows einzubetten — ohne die Innovation zu verlangsamen.

Enzai

Vorschriften für KI

Governance für agentische KI: Der maßgebliche Leitfaden für Unternehmen

Vorschriften für KI

Governance für agentische KI: Der maßgebliche Leitfaden für Unternehmen

Vorschriften für KI

Governance für agentische KI: Der maßgebliche Leitfaden für Unternehmen

Das 5‑Ebenen-Governance-Framework für agentische KI in Unternehmen – Autonomieklassifizierung, Handlungskontrollen, Eskalationslogik und Compliance, ausgerichtet am EU AI Act.

Belfast

Belfast

16 Minuten Lesezeit

Themen

KI-Governance
agentische KI
EU-KI-Verordnung
Risikomanagement

Themen

In achtzehn Monaten hat sich agentische KI von einem Forschungsprototyp zur Unternehmensrealität entwickelt. Bis Ende 2025 prognostizierte Gartner, dass agentische KI-Fähigkeiten bis 2028 in mehr als einem Drittel der Unternehmenssoftwareanwendungen eingebettet sein würden, gegenüber weniger als einem Prozent im Jahr 2024.[1] Salesforce führte Agentforce ein. Microsoft integrierte Agentenorchestrierung in Copilot Studio. ServiceNow, SAP und Dutzende weitere folgten. Für Unternehmen lautet die Frage nicht mehr, ob KI-Agenten eingesetzt werden sollen, sondern ob eine Governance für agentische KI vorhanden ist, bevor etwas schiefläuft.

Die Dringlichkeit ist berechtigt. Agentische KI-Systeme unterscheiden sich qualitativ von der KI, für die die meisten Governance-Frameworks konzipiert wurden. Ein Klassifikator weist Labels zu. Ein Chatbot erzeugt Text. Ein Agent verfolgt Ziele: Er plant mehrstufige Workflows, wählt Werkzeuge aus, führt Aktionen aus, beobachtet Ergebnisse und iteriert – oft über Dutzende Entscheidungen hinweg mit minimalem menschlichem Eingreifen. Diese operative Autonomie macht Agenten wertvoll. Sie macht sie jedoch auch schwer steuerbar. Governance für agentische KI – die Gesamtheit aus Richtlinien, Kontrollen und Aufsichtsmechanismen, die sicherstellen, dass autonome KI-Agenten innerhalb akzeptabler Risikogrenzen agieren – ist heute ein unternehmerisches Muss und keine Zukunftsüberlegung mehr.

Dieser Leitfaden beschreibt ein praxisnahes Framework für die Governance agentischer KI im Unternehmen. Er behandelt, was agentische KI-Systeme sind und warum sie eine eigenständige Governance-Behandlung erfordern; wie bestehende Regulierungen anzuwenden sind; welche zentralen Governance-Kontrollen Organisationen implementieren sollten; und wie sich diese Kontrollen operationalisieren lassen, ohne die Innovation abzuwürgen, die Agenten ermöglichen sollen.

Was agentische KI anders macht

Der Begriff „agentische KI“ beschreibt KI-Systeme, die autonome Handlungen zur Zielerreichung ausführen können, anstatt lediglich Ausgaben für den menschlichen Konsum zu erzeugen. Diese Unterscheidung ist wichtig, weil sie das Risikoprofil grundlegend verändert.

Ein konventionelles KI-System arbeitet im Anfrage-Antwort-Paradigma. Ein Nutzer gibt eine Eingabe; das System erzeugt eine Ausgabe; der Nutzer entscheidet, was damit geschieht. Der Mensch bleibt bei jedem folgenreichen Schritt eingebunden. Ein agentisches System durchbricht dieses Muster. Es erhält ein übergeordnetes Ziel, zerlegt es in Teilaufgaben, wählt Werkzeuge aus und ruft sie auf, um jeden Schritt umzusetzen, bewertet Zwischenergebnisse und passt seinen Ansatz an – alles mit unterschiedlichen Graden menschlicher Aufsicht, von vollständiger Freigabe in jeder Phase bis hin zur vollständig autonomen Ausführung.

Drei Merkmale unterscheiden agentische KI von konventionellen Systemen und erzeugen eigenständige Governance-Herausforderungen.

Autonomes Handeln

Agenten empfehlen nicht nur; sie handeln. Sie versenden E-Mails, führen Code aus, ändern Datenbanken, rufen APIs auf, erstellen Dateien und interagieren mit externen Diensten. Jede Handlung verändert den Zustand der Welt auf Weisen, die schwer oder unmöglich rückgängig zu machen sein können. Ein fehlklassifiziertes Bild kann korrigiert werden. Eine E-Mail an den falschen Empfänger, ein überschriebenes Datenbank-Record oder eine fehlerhaft ausgeführte Finanztransaktion lassen sich nicht einfach rückgängig machen.

Mehrstufige Begründungsketten

Agenten arbeiten über ausgedehnte Begründungsketten, bei denen jeder Schritt auf dem vorherigen aufbaut. Eine einzelne Anweisung auf hoher Ebene – „finden Sie den besten Kandidaten für diese offene Stelle“ – kann Dutzende Zwischenentscheidungen auslösen: welche Datenbanken abgefragt werden, welche Kriterien zu gewichten sind, welche Kandidaten in die engere Auswahl kommen und wie mit ihnen kommuniziert wird. Governance-Frameworks, die für Ein-Entscheidungs-Systeme ausgelegt sind, geraten bei dieser kumulativen Komplexität an Grenzen.

Dynamischer Werkzeugaufruf

Moderne Agentenarchitekturen ermöglichen es Agenten, Werkzeuge zur Laufzeit zu erkennen und aufzurufen – APIs, Datenbanken, Webservices, Code-Interpreter –, die beim Entwurf oder der Bewertung des Systems möglicherweise nicht antizipiert wurden. Das schafft ein bewegliches Ziel für Risikobewertung und Compliance. Die Fähigkeiten des Systems am Montag können sich wesentlich von denen am Freitag unterscheiden.

Diese drei Merkmale wirken zusammen. Ein Agent mit autonomem Handeln, der über mehrstufige Ketten arbeitet und zur Laufzeit entdeckte Werkzeuge dynamisch aufruft, stellt eine Governance-Herausforderung dar, die nicht nur schwieriger ist als die Steuerung eines konventionellen KI-Systems – sie ist strukturell anders.

Wie bestehende Regulierungen anzuwenden sind

Ein verbreiteter Irrtum besagt, dass aktuelle KI-Regulierung agentische Systeme nicht abdecke – dass ein neuer gesetzlicher Rahmen erforderlich sei, bevor Governance-Pflichten greifen. Das ist falsch, und Organisationen, die auf „agentenspezifische“ Regulierung warten, riskieren, unter bereits geltendem Recht nicht konform zu sein.

Der EU AI Act

Die Definition eines KI-Systems im EU AI Act in Artikel 3(1) beschreibt „ein maschinengestütztes System, das so konzipiert ist, dass es mit unterschiedlichen Graden an Autonomie arbeitet und nach der Bereitstellung Anpassungsfähigkeit aufweisen kann und das für explizite oder implizite Ziele aus den erhaltenen Eingaben ableitet, wie Ausgaben wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erzeugt werden, die physische oder virtuelle Umgebungen beeinflussen können.“[2]

Jedes Element dieser Definition umfasst agentische KI ohne Verrenkungen. „Unterschiedliche Grade an Autonomie“ berücksichtigt explizit ein Spektrum von menschlich gesteuertem bis vollständig autonomem Betrieb. „Implizite Ziele“ – primär formuliert, um Systeme zu erfassen, bei denen das Ziel durch Design oder Training impliziert ist und nicht als Prompt formuliert wird – ist weit genug, um emergente Unterziele abzudecken, die Agenten bei der Zerlegung übergeordneter Anweisungen verfolgen; diese Auslegungsposition wurde jedoch weder in der Durchsetzung noch durch formelle Leitlinien des AI Office bislang getestet.[3] „Entscheidungen“ erfasst die Aktionsauswahl, die Agenten in jedem Schritt durchführen. Und „physische oder virtuelle Umgebungen beeinflussen“ geht über passive Ausgabegenerierung hinaus und umfasst die umgebungsverändernden Handlungen, die agentisches Verhalten definieren.

Der Durchsetzungszeitplan des Acts ist gestaffelt. Verbote für KI-Systeme mit inakzeptablem Risiko traten am 2. Februar 2025 in Kraft. Verpflichtungen für General-Purpose AI (GPAI)-Modelle gelten ab dem 2. August 2025. Das vollständige Bündel an Pflichten für Hochrisikosysteme nach Anhang III gilt ab dem 2. August 2026.[4] Für Organisationen, die agentische Systeme in Hochrisiko-Anwendungsfällen einsetzen, wird das Zeitfenster zur Vorbereitung enger.

Fällt ein agentisches System in einen in Anhang III aufgeführten Hochrisiko-Anwendungsfall – Beschäftigungsentscheidungen, Kredit-Scoring, Strafverfolgung, Management kritischer Infrastrukturen –, gilt der vollständige Katalog an Hochrisiko-Pflichten. Dazu zählen Risikomanagementsysteme (Artikel 9), Daten-Governance (Artikel 10), technische Dokumentation (Artikel 11), Aufzeichnungspflichten und automatische Protokollierung (Artikel 12), Transparenz (Artikel 13), menschliche Aufsicht (Artikel 14) sowie Anforderungen an Genauigkeit, Robustheit und Cybersicherheit (Artikel 15).[5] Artikel 12 verdient besondere Betonung: Für Systeme, deren Entscheidungen sich über mehrstufige Begründungsketten mit dynamischen Werkzeugaufrufen entfalten, sind die Logging-Anforderungen sowohl die technisch anspruchsvollste als auch die betrieblich wichtigste Verpflichtung, die korrekt umzusetzen ist.

Der operative Rahmen des Acts steht bei agentischen Anwendungsfällen unter Druck – insbesondere bei der Konformitätsbewertung dynamischer Systeme, der Aufteilung der Verantwortlichkeiten zwischen Anbieter und Betreiber, wenn Agenten Werkzeuge Dritter aufrufen, und der Frage, was „verhältnismäßige“ menschliche Aufsicht für Systeme bedeutet, die pro Sekunde Dutzende Mikroentscheidungen treffen.[6] Der regulatorische Geltungsbereich ist jedoch klar. Agentische KI-Systeme sind KI-Systeme im Sinne des Acts, und die Verpflichtungen gelten.

Verpflichtungen für GPAI-Modelle

Viele Unternehmensagenten basieren auf General-Purpose-AI-Modellen von Drittanbietern – Anthropic, OpenAI, Google, Meta und anderen. Der EU AI Act auferlegt Anbietern von GPAI-Modellen in den Artikeln 51–56 spezifische Pflichten, darunter technische Dokumentation, Transparenz zur Urheberrechtspolitik sowie – für als systemisch riskant eingestufte Modelle – adversariales Testen und Vorfallmeldungen.[7] Der Ende 2025 finalisierte GPAI Code of Practice bietet einen Compliance-Pfad für diese Verpflichtungen.

Für Betreiber in Unternehmen erzeugt das Zusammenspiel von Verpflichtungen der GPAI-Anbieter und der Betreiber ein geschichtetes Compliance-Bild. Der Anbieter des Basismodells trägt bestimmte Verantwortlichkeiten; die einsetzende Organisation trägt andere. Wenn ein Agenten-Framework ein GPAI-Modell, eine Orchestrierungsschicht und Werkzeuge Dritter zu einem zusammengesetzten System verbindet, wird die Verteilung der Verpflichtungen entlang der Wertschöpfungskette selbst zur Governance-Herausforderung – eine, die der untenstehende Abschnitt zu mehreren Stakeholdern direkt adressiert.

ISO/IEC 42001

Der internationale Standard für KI-Managementsysteme, veröffentlicht im Dezember 2023, bietet ein Framework zur Einrichtung, Implementierung und kontinuierlichen Verbesserung eines KI-Managementsystems.[8] Obwohl er agentische KI nicht spezifisch behandelt, sind seine Kontrollen zu Risikobewertung, menschlicher Aufsicht und kontinuierlichem Monitoring unmittelbar anwendbar. Organisationen, die eine ISO-42001-Zertifizierung anstreben, sollten sicherstellen, dass ihr KI-Managementsystem autonome Agenten-Deployments explizit abdeckt und nicht nur konventionelle KI-Anwendungen.

NIST AI Risk Management Framework

Die vier Kernfunktionen des NIST AI RMF – Govern, Map, Measure, Manage – bieten einen strukturierten Ansatz für KI-Risikomanagement, der sich natürlich auf agentische Systeme erstreckt.[9] Der Schwerpunkt des Frameworks auf kontextbezogener Risikobewertung und kontinuierlichem Monitoring ist angesichts der dynamischen Natur des Agentenverhaltens besonders relevant. Das Begleitdokument zu Risiken generativer KI (NIST AI 600-1) behandelt mehrere Risiken, die für werkzeugnutzende Agenten relevant sind, darunter Prompt Injection und unbeabsichtigte Datenexposition.[10] Auch die OECD, deren KI-Systemdefinition Artikel 3(1) beeinflusst hat, entwickelt aktiv Klassifikationsrahmen weiter, die den Autonomiegrad als Dimension umfassen – Arbeit, die wahrscheinlich prägen wird, wie sich Governance für agentische KI international entwickelt.[11]

Entstehende bundesstaatliche und sektorspezifische Anforderungen

Der Colorado AI Act, gültig ab Februar 2026 vorbehaltlich ausstehender Gesetzesänderungen, verpflichtet Entwickler und Betreiber von Hochrisiko-KI-Systemen zu angemessener Sorgfalt, um algorithmische Diskriminierung bei folgenreichen Entscheidungen zu vermeiden.[12] Agentische Systeme, die Entscheidungen in Beschäftigung, Finanzen, Versicherung oder Wohnen treffen oder wesentlich beeinflussen, fallen eindeutig in den Anwendungsbereich. Im Finanzsektor gelten interbehördliche Leitlinien zum Modellrisikomanagement (SR 11-7 der Federal Reserve und OCC 2011-12) für KI-Agenten in Risikobewertung und Entscheidungsfindung, obwohl sie für traditionelle statistische Modelle konzipiert wurden und für auf Basismodellen beruhende Agenten mit autonomem Werkzeugzugriff sorgfältiger Auslegung bedürfen.[13]

Das Governance-Framework für agentische KI

Die Steuerung agentischer KI erfordert Kontrollen, die die oben beschriebenen spezifischen Merkmale adressieren: autonomes Handeln, mehrstufiges Schlussfolgern und dynamischer Werkzeugaufruf. Das hier entwickelte Framework, basierend auf der Arbeit von Enzai mit unternehmensweiten Governance-Teams, organisiert diese Kontrollen in fünf Ebenen: Autonomieklassifizierung, Action-Whitelisting, Eskalationslogik, Nachverfolgbarkeit und kontinuierliches Monitoring. Jede Ebene baut auf der vorherigen auf.

Ebene 1: Autonomieklassifizierung

Nicht alle Agenten erfordern denselben Governance-Grad. Ein Agent, der E-Mail-Antworten zur menschlichen Prüfung entwirft, weist ein grundlegend anderes Risikoprofil auf als ein Agent, der Finanztransaktionen autonom ausführt. Der erste Schritt in jedem Governance-Programm für agentische KI ist die Klassifizierung des Autonomiegrads jedes Agenten und die Zuordnung dieser Klassifizierung zu verhältnismäßigen Kontrollen.


Stufe

Bezeichnung

Beschreibung

Governance-Anforderung

1

Assistiv

Agent erstellt Empfehlungen oder Entwürfe; der Mensch prüft und genehmigt jede Aktion vor der Ausführung

Standardmäßige KI-Qualitätskontrollen

2

Beaufsichtigt

Agent führt Aktionen innerhalb definierter Parameter aus; der Mensch überwacht und behält Eingriffsmöglichkeit

Klare Monitoring-Protokolle und Interventionsmechanismen

3

Begrenzt autonom

Agent arbeitet autonom innerhalb eines begrenzten Aktionsraums und vordefinierter Leitplanken

Strenges Action-Whitelisting, Eskalationslogik, kontinuierliches Monitoring

4

Vollständig autonom

Agent handelt mit breitem Ermessensspielraum über offene Aufgaben hinweg

Stärkste Kontrollen: Echtzeit-Monitoring, umfassende Audit-Trails, regelmäßige menschliche Ergebnisüberprüfung

Die Klassifizierung sollte anwendungsfallspezifisch sein, nicht modellspezifisch. Dasselbe Basismodell kann in einem Deployment einen Tier-1-Assistenten und in einem anderen einen Tier-3-Autonomieagenten betreiben. Governance-Verpflichtungen knüpfen an das Deployment, nicht an das Modell.

Ebene 2: Action-Whitelisting und begrenzte Aktionsräume

Die wirksamste Kontrolle für agentische KI besteht darin, zu begrenzen, was sie tun kann. Anstatt jeden möglichen Fehlermodus vorherzusagen und zu verhindern, definiert Action-Whitelisting die Menge zulässiger Aktionen, die ein Agent ausführen darf – die Werkzeuge, die er aufrufen darf, die APIs, die er ansprechen darf, die Daten, auf die er zugreifen darf, die Systeme, die er ändern darf.

Dies ist ein Allowlist- und kein Denylist-Ansatz. Die Standardhaltung lautet: Jede nicht ausdrücklich erlaubte Aktion ist verboten. Dies kehrt das typische Sicherheitsmodell für Softwaresysteme um (bei dem alles erlaubt ist, was nicht ausdrücklich verboten ist) und spiegelt die Realität wider, dass agentische KI-Systeme Aktionen entdecken und versuchen können, die ihre Entwickler nie in Betracht gezogen haben.

Die praktische Umsetzung umfasst die Definition von Aktionsgrenzen auf drei Ebenen:

  • Werkzeugzugriff: Welche APIs, Datenbanken, Dienste und Code-Ausführungsumgebungen der Agent aufrufen darf

  • Parameterbeschränkungen: Welche Eingaben der Agent an jedes Werkzeug übergeben darf (z. B. Beschränkung eines Datenbankabfrage-Agenten auf schreibgeschützte Operationen in bestimmten Tabellen)

  • Auswirkungsgrenzen: Schwellenwerte für den Umfang einzelner Aktionen (z. B. Begrenzung des monetären Werts von Transaktionen, die ein Agent ohne menschliche Freigabe autorisieren darf)

Ein kritischer betrieblicher Aspekt: Action-Whitelists müssen gepflegt werden, wenn sich die Werkzeuglandschaft weiterentwickelt. Wenn ein Anbieter von Basismodellen ein Update ausrollt, das das Modellverhalten verändert, oder neue Werkzeuge zum potenziellen Aktionsraum eines Agenten hinzukommen, muss die Whitelist überprüft und neu validiert werden. Whitelists als statische Konfiguration statt als lebende Governance-Artefakte zu behandeln, ist ein häufiger Fehlmodus.

Ebene 3: Eskalationslogik

Selbst innerhalb begrenzter Aktionsräume werden Agenten auf Situationen stoßen, die ihre Kompetenz oder Autorität überschreiten. Wirksame Governance erfordert vordefinierte Eskalationspfade – klare Regeln dafür, wann ein Agent die Kontrolle an einen Menschen zurückgeben muss, statt autonom fortzufahren.

Eskalationsauslöser sollten Folgendes umfassen:

  • Konfidenzschwellen: Wenn die Zuversicht des Agenten in seine gewählte Aktion unter ein definiertes Niveau fällt

  • Auswirkungsschwellen: Wenn eine vorgeschlagene Aktion vordefinierte Auswirkungsgrenzen überschreitet (finanzieller Wert, Anzahl betroffener Datensätze, Irreversibilität)

  • Anomalieerkennung: Wenn das Verhalten des Agenten von erwarteten Mustern abweicht

  • Domänengrenzen: Wenn der Agent auf eine Aufgabe oder Domäne außerhalb seines definierten Umfangs trifft

  • Fehlerbedingungen: Wenn ein Werkzeugaufruf fehlschlägt oder unerwartete Ergebnisse liefert

Die Gestaltung der Eskalationsmechanismen ist ebenso wichtig wie die Auslöser selbst. Eskalation muss für den Agenten friktionsfrei sein (er sollte nicht durch Designmuster „dazu angereizt“ werden, Eskalation zu vermeiden) und für den Menschen handlungsfähig sein (die Eskalation muss ausreichend Kontext enthalten, damit der Mensch eine fundierte Entscheidung treffen kann, ohne die gesamte Begründungskette des Agenten rekonstruieren zu müssen).

Ebene 4: Nachverfolgbarkeit und Audit-Trails

Regulatorische Anforderungen nach dem EU AI Act (Artikel 12 für Hochrisikosysteme) und eine praxisnahe Vorfallreaktion erfordern beide eine umfassende Protokollierung von Agentenaktivitäten.[14] Für agentische Systeme bedeutet das, nicht nur Eingaben und Ausgaben zu erfassen, sondern die vollständige Begründungskette, Werkzeugaufrufe, Zwischenergebnisse und Entscheidungen in jedem Schritt.

Ein wirksamer Audit-Trail für agentische KI sollte Folgendes aufzeichnen:

  • Das dem Agenten bereitgestellte ursprüngliche Ziel oder die ursprüngliche Anweisung

  • Jeden Begründungsschritt und die Begründung für die Aktionsauswahl

  • Jeden Werkzeugaufruf, einschließlich aufgerufenem Werkzeug, übergebenen Parametern und empfangener Antwort

  • Durchgeführte Aktionen und deren Ergebnisse

  • Eskalationsereignisse und menschliche Eingriffe

  • Änderungen des Umgebungszustands infolge von Agentenaktionen

  • Zeitstempel und Sitzungskennungen, die zusammengehörige Ereignisse verknüpfen

Diese Protokolle dienen mehreren Zwecken: Untersuchung nach Vorfällen, regulatorische Compliance, kontinuierliche Verbesserung von Governance-Kontrollen und Zuweisung von Verantwortlichkeit, wenn etwas schiefläuft. Sie sollten unveränderlich, mit Zeitstempeln versehen und unabhängig vom Agentensystem selbst gespeichert werden, um Manipulation zu verhindern.

Ebene 5: Kontinuierliches Monitoring

Eine punktuelle Bewertung – einen Agenten vor dem Deployment zu evaluieren und dann anzunehmen, dass er konform bleibt – ist für Systeme unzureichend, deren Fähigkeiten und Verhalten sich dynamisch ändern können. Governance für agentische KI erfordert kontinuierliches Monitoring über mehrere Dimensionen:

  • Leistungsmonitoring: Erreichen die Ergebnisse des Agenten die Qualitäts- und Genauigkeitsschwellen?

  • Verhaltensmonitoring: Bleibt das Verhalten des Agenten innerhalb erwarteter Muster? Verschieben sich Aktionsverteilungen im Zeitverlauf?

  • Compliance-Monitoring: Bleiben die Aktionen des Agenten innerhalb seines erlaubten Aktionsraums? Werden Eskalationsprotokolle eingehalten?

  • Fairness-Monitoring: Sind bei Agenten, die Entscheidungen über Personen treffen oder beeinflussen, die Ergebnisse über geschützte Merkmale hinweg ausgewogen?

  • Sicherheitsmonitoring: Ist der Agent adversarialen Eingaben, Prompt-Injection-Versuchen oder anderer Manipulation ausgesetzt?

Monitoring sollte in die Governance-Kontrollen zurückwirken. Wenn das Monitoring eine Anomalie erkennt – eine Aktion außerhalb der erlaubten Menge, eine Verschiebung in Ergebnisverteilungen, ein Muster, das auf adversariale Manipulation hindeutet –, sollte die Reaktion, wo möglich, automatisiert erfolgen (Agent pausieren, Eskalation auslösen) und für die menschliche Prüfung dokumentiert werden.

Wer trägt die Verantwortung, wenn ein Agent handelt?

Einer der schwierigsten Aspekte der Governance agentischer KI ist, dass Verantwortung auf mehrere Akteure verteilt ist. Ein typisches Deployment eines Unternehmensagenten umfasst mindestens vier Parteien: den Anbieter des Basismodells (OpenAI, Anthropic, Google, Meta oder andere), das Agenten-Framework bzw. die Orchestrierungsschicht (als Drittplattform oder intern entwickelt), die einsetzende Organisation sowie die Anbieter von Werkzeugen und APIs, die der Agent zur Laufzeit aufruft.

Der EU AI Act teilt Verpflichtungen zwischen Anbietern und Betreibern auf, wobei einige Bestimmungen Importeure und Distributoren adressieren.[15] Diese Binärlogik passt jedoch nicht sauber auf die agentische Wertschöpfungskette. Wer ist der „Anbieter“ eines Agenten, der ein Basismodell eines Dritten mit einer internen Orchestrierungsschicht kombiniert, die externe APIs aufruft? Artikel 25 behandelt Situationen, in denen Dritte KI-Systeme ändern oder umwidmen und dadurch selbst zu Anbietern werden können, doch die Grenzen bleiben bei dynamisch zusammengesetzten Systemen unklar.[16]

Diese Fragmentierung erzeugt außerdem ein Lieferkettenrisiko bei Basismodellen, das viele Organisationen unterschätzen. Wenn ein Modellanbieter ein Update ausrollt – neue Modellversion, geänderte Sicherheitsfilter, veränderte Verhaltensmuster –, können die gegen die Vorversion validierten Governance-Kontrollen nicht mehr greifen. Action-Whitelists, Eskalationsschwellen und Compliance-Bewertungen setzen alle eine bestimmte Verhaltensbaseline des Modells voraus. Ein stilles Modellupdate kann diese Annahmen ungültig machen, ohne dass sich auf Betreiberseite etwas ändert.

Praktische Governance muss dieser Fragmentierung Rechnung tragen. Organisationen, die agentische KI einsetzen, sollten:

  • Für jedes Agenten-Deployment die vollständige Wertschöpfungskette abbilden und alle Akteure sowie ihre Governance-Verantwortlichkeiten identifizieren

  • Vertragliche Regelungen mit Werkzeug- und API-Anbietern etablieren, die Datenhandhabung, Haftung und Vorfallreaktion adressieren

  • Eine klare interne Rechenschaftsstruktur aufrechterhalten – wer jedes Agenten-Deployment verantwortet, wer für Monitoring zuständig ist und wer befugt ist einzugreifen oder abzuschalten

  • Version Pinning und Change-Management-Prozesse für Basismodelle umsetzen, mit Revalidierungs-Triggern bei Anbieter-Updates

  • Die Verteilung der Verantwortlichkeiten so dokumentieren, dass sie einer regulatorischen Prüfung standhält

Vorfallreaktion für agentische KI

Governance betrifft nicht nur die Vermeidung von Fehlern; sie betrifft auch die wirksame Reaktion, wenn sie eintreten. Agentische KI-Systeme erfordern Vorfallreaktionsverfahren, die ihrer autonomen, mehrstufigen Natur Rechnung tragen.

Ein Vorfallreaktionsplan für agentische KI sollte Folgendes enthalten:

  • Kill Switches: Die Fähigkeit, die Ausführung eines Agenten sofort zu stoppen, seinen Werkzeugzugriff zu entziehen und weitere Aktionen zu verhindern. Dies muss technisch zuverlässig sein (nicht von der Kooperation des Agenten abhängig) und für benannte Personen innerhalb von Sekunden zugänglich sein

  • Rollback-Verfahren: Wo möglich, vordefinierte Verfahren zur Rückabwicklung von Agentenaktionen. Nicht alle Aktionen sind reversibel, weshalb Audit-Trail und Auswirkungsgrenzen, wie oben beschrieben, entscheidend sind, um den Schadensradius zu begrenzen

  • Meldepflichten: In regulierten Branchen können bestimmte Agentenfehler Meldeanforderungen auslösen. Im Finanzsektor können unautorisierte Transaktionen eine regulatorische Meldung innerhalb weniger Stunden erfordern. Nach dem EU AI Act müssen schwerwiegende Vorfälle mit Hochrisiko-KI-Systemen den Marktüberwachungsbehörden gemeldet werden

  • Ursachenanalyse: Die Untersuchung nach einem Vorfall sollte die vollständige Begründungskette vom ursprünglichen Ziel über jeden Werkzeugaufruf und jede Entscheidung bis zum Fehlerpunkt nachzeichnen, unter Nutzung des in Ebene 4 erfassten Audit-Trails

Die Planung der Vorfallreaktion sollte vor dem Deployment erfolgen, nicht nach dem ersten Fehler. Tabletop-Übungen, die Agentenausfälle simulieren – eine verletzte Aktionsgrenze, eine gescheiterte Eskalation, eine kompromittierte Werkzeugantwort –, helfen Teams, die notwendige Routine für wirksames Handeln unter Druck aufzubauen.

Operationalisierung der Governance agentischer KI

Governance-Frameworks sind nur dann wertvoll, wenn sie operationalisiert werden können – praktisch umgesetzt, ohne eine derartige Reibung zu erzeugen, dass sie die Innovation verhindern, die Agenten ermöglichen sollen. Mehrere Prinzipien helfen, die Lücke zwischen Framework und Praxis zu schließen.

Governance in den Agentenlebenszyklus integrieren

Governance sollte kein separater Arbeitsstrang sein, der parallel zur Agentenentwicklung und -bereitstellung läuft. Sie sollte in der Entwicklungspipeline verankert sein – Autonomieklassifizierung in der Designphase, Action-Whitelisting während der Entwicklung, Testen der Eskalationslogik vor Deployment, kontinuierliches Monitoring im Betrieb. Das entspricht der Shift-Left-Bewegung in der Sicherheit: Governance von Anfang an integriert statt nachträglich aufgesetzt.

Governance-Kontrollen automatisieren

Manuelle Governance-Prozesse können mit Agenten, die in Maschinengeschwindigkeit arbeiten, nicht Schritt halten. Action-Whitelisting sollte programmatisch durchgesetzt werden, nicht über Richtliniendokumente. Eskalations-Trigger sollten automatisch auslösen, nicht auf menschliches Log-Monitoring angewiesen sein. Compliance-Prüfungen sollten als automatisierte Gates in CI/CD-Pipelines laufen, damit Engineering-Teams klare Pass/Fail-Signale erhalten statt auszufüllender Compliance-Formulare.

Governance in das KI-Inventar integrieren

Jedes agentische KI-System sollte in einem zentralen KI-Inventar registriert sein, das seine Autonomieklassifizierung, den erlaubten Aktionsraum, Eskalationsprotokolle, Monitoring-Konfiguration, Verantwortungszuweisung und Basismodellversion erfasst. Dieses Inventar ist das Fundament des Governance-Programms – ohne es kann eine Organisation grundlegende Fragen nicht beantworten: welche Agenten im Einsatz sind, was sie tun dürfen und wer dafür verantwortlich ist.

Implementierung pragmatisch sequenzieren

Organisationen, die Dutzende Agenten einsetzen, können nicht alle fünf Governance-Ebenen über alle Deployments gleichzeitig umsetzen. Ein praktikabler Sequenzierungsansatz:

  1. Mit dem Inventar beginnen. Was nicht sichtbar ist, kann nicht gesteuert werden. Katalogisieren Sie jedes Agenten-Deployment, einschließlich Schatten-Deployments, die Teams informell aufgesetzt haben könnten.

  2. Autonomiegrade klassifizieren. Ordnen Sie jeden Agenten einer Stufe zu. Das bestimmt die Verhältnismäßigkeit jeder nachfolgenden Kontrolle.

  3. Action-Whitelisting zuerst für Tier-3- und Tier-4-Agenten implementieren. Diese tragen das höchste Risiko und profitieren am stärksten von begrenzten Aktionsräumen.

  4. Audit-Trails ab Tag eins aufbauen. Logging ist die kostengünstigste frühe Kontrolle und die teuerste nachträgliche Nachrüstung.

  5. Kontinuierliches Monitoring mit zunehmender Reife der Deployments schrittweise ergänzen. Beginnen Sie mit Compliance-Monitoring (bleibt der Agent innerhalb seiner Whitelist?) und erweitern Sie über die Zeit auf Verhaltens- und Fairness-Monitoring.

Governance als Wettbewerbsvorteil verstehen

Erkunden Sie mehr

Erkunden Sie mehr

Abonnieren Sie unseren Newsletter

Indem Sie sich anmelden, stimmen Sie der Enzai Datenschutzerklärung zu.

Abonnieren Sie unseren Newsletter

Indem Sie sich anmelden, stimmen Sie der Enzai Datenschutzerklärung zu.

Abonnieren Sie unseren Newsletter

Indem Sie sich anmelden, stimmen Sie der Enzai Datenschutzerklärung zu.

Abonnieren Sie unseren Newsletter

Indem Sie sich anmelden, stimmen Sie der Enzai Datenschutzerklärung zu.

Konformität durch Design

Konformität durch Design

ISO 27001

Enzai ist nach ISO 27001 zertifiziert und ist dies seit 2023. Wir verpflichten uns zu jährlichen Audits, die von NQA durchgeführt werden, und arbeiten eng mit unserem Sicherheitsberatungspartner Instil zusammen, um unsere Sicherheitslage kontinuierlich zu aktualisieren und zu verbessern.

DSGVO

ISO 27001

Enzai ist nach ISO 27001 zertifiziert und ist dies seit 2023. Wir verpflichten uns zu jährlichen Audits, die von NQA durchgeführt werden, und arbeiten eng mit unserem Sicherheitsberatungspartner Instil zusammen, um unsere Sicherheitslage kontinuierlich zu aktualisieren und zu verbessern.

DSGVO

KI-Governance

KI-Governance

Infrastruktur

Infrastruktur

Entwickelt für Vertrauen.

Entwickelt für Vertrauen.

Ermöglichen Sie Ihrer Organisation die Einführung, Steuerung und Überwachung von KI mit unternehmensgerechtem Vertrauen. Entwickelt für regulierte Organisationen, die im großen Maßstab operieren.

Verbinden Sie nahtlos Ihre bestehenden Systeme, Richtlinien und KI-Workflows – alles auf einer einheitlichen Plattform.

Verbinden Sie nahtlos Ihre bestehenden Systeme, Richtlinien und KI-Workflows – alles auf einer einheitlichen Plattform.