
Ein strukturiertes Rahmenwerk zur Risikobewertung von KI-Anbietern – Fragebögen, Warnsignale, vertragliche Schutzmaßnahmen und fortlaufende Überwachung gemäß EU-KI-Verordnung.
•
•
14 Minuten Lesezeit
Themen
Die meisten unternehmensweiten KI-Systeme werden nicht intern entwickelt. Laut Gartner wurde erwartet, dass bis 2025 über 70 % der Organisationen mindestens eine Form von KI eingeführt haben, die von einem Drittanbieter bereitgestellt wird [1]. Diese Zahl ist weiter gestiegen. Dennoch wurden die Governance-Frameworks, auf die sich die meisten Organisationen stützen, für Software konzipiert, die sie kontrollieren – nicht für probabilistische Systeme, die auf Daten trainiert wurden, die sie nie gesehen haben, nach Zeitplänen aktualisiert werden, die sie nicht festlegen, und nach einer Logik arbeiten, die selbst für den Anbieter undurchsichtig sein kann.
Die regulatorische Landschaft hat diese Realität eingeholt. Der EU AI Act, der 2025 in seine stufenweise Durchsetzungsphase eingetreten ist, zieht eine klare Grenze zwischen Anbietern (jene, die ein KI-System entwickeln oder in Verkehr bringen) und Betreibern (jene, die es unter eigener Verantwortung nutzen). Diese Grenze entbindet Betreiber jedoch nicht von Verantwortung. Artikel 26 stellt klar, dass Betreiber von Hochrisiko-KI-Systemen spezifische Pflichten in Bezug auf menschliche Aufsicht, Qualität der Eingabedaten, Monitoring und Dokumentation tragen [2]. Die unbequeme Wahrheit für Beschaffungs- und Compliance-Teams lautet: Die regulatorische Haftung geht nicht auf den Anbieter über, nur weil dieser das Modell entwickelt hat.
Dieser Leitfaden bietet ein strukturiertes Framework zur KI-Anbieterrisikobewertung – von der initialen Due Diligence bis hin zum fortlaufenden Monitoring.
Warum Drittanbieter-KI-Risiken einen anderen Ansatz erfordern
Traditionelles Vendor Risk Management bewertet Verfügbarkeit, Datensicherheit und vertragliche SLAs. Diese bleiben für KI-Anbieter notwendig, sind aber nicht ausreichend. KI-Systeme führen eine Risikokategorie ein, für die klassische IT-Beschaffung nie ausgelegt war.
Drei Eigenschaften machen Drittanbieter-KI grundlegend anders als andere Software:
Intransparenz der Entscheidungslogik. Eine herkömmliche SaaS-Anwendung führt deterministischen Code aus. Ein KI-System kann Ausgaben erzeugen, die durch Trainingsdaten, Fine-Tuning-Entscheidungen und Inferenz-Parameter geprägt sind, in die die einsetzende Organisation keinen Einblick hat. Wenn ein Kredit-Scoring-Modell einen Antrag ablehnt oder ein HR-Screening-Tool Kandidatinnen und Kandidaten einstuft, muss der Betreiber diese Entscheidung erklären können. Kann der Anbieter keine aussagekräftige Erklärung liefern, bleibt der Betreiber für Ergebnisse verantwortlich, die er nicht interpretieren kann.
Nicht statisches Verhalten. Klassische Software ändert sich über versionierte Releases. KI-Modelle können ihr Verhalten durch Retraining, Fine-Tuning oder Änderungen in zugrunde liegenden Datenpipelines verändern – teils ohne formalen Release-Zyklus. Ein Modell, das während der Beschaffung innerhalb akzeptabler Parameter lag, kann in den Folgemonaten driften. Der Betreiber bemerkt dies unter Umständen erst, wenn bereits Schaden entstanden ist.
Übernommenes Datenrisiko. Die Trainingsdaten, die das Verhalten eines Modells prägen, können Verzerrungen, urheberrechtlich geschütztes Material oder personenbezogene Daten enthalten, die ohne hinreichende Rechtsgrundlage verarbeitet wurden. Der Betreiber übernimmt die Folgen dieser vorgelagerten Entscheidungen, obwohl er an ihnen nicht beteiligt war. Nach DSGVO trägt der Betreiber neben dem Anbieter ein Durchsetzungsrisiko, wenn ein KI-System personenbezogene Daten in einer Weise verarbeitet, die nicht mit den Auftragsverarbeitungsvereinbarungen des Betreibers vereinbar ist [3].
Konventionelle Anbieter-Scorecards erfassen diese Dynamiken nicht. Ein speziell entwickeltes Bewertungs-Framework ist essenziell.
Ein strukturiertes Framework zur KI-Anbieterrisikobewertung
Das folgende Framework strukturiert die Bewertung von KI-Anbietern in sieben Domänen. Jede Domäne ist einem spezifischen Governance-Aspekt zugeordnet und kann bei der Beschaffung, in regelmäßigen Reviews oder bei anlassbezogener Neubewertung bewertet werden.
Organisationen, die Plattformen wie Enzai nutzen, können dieses Framework in bestehende Vendor-Lifecycle-Workflows integrieren und so sicherstellen, dass KI-spezifische Kriterien neben klassischen IT-Risikoindikatoren stehen – statt in einem separaten, entkoppelten Prozess.
Bewertungsfragebogen
Domäne | Bewertungskriterien | Bewertungsleitfaden |
|---|---|---|
Modelltransparenz | Legt der Anbieter Modelltyp, Architekturfamilie und Version offen? Kann der Anbieter Model Cards oder Datasheets bereitstellen? Gibt es Dokumentation bekannter Einschränkungen? | Vollständige Offenlegung mit Model Cards = hoch. Teilweise Offenlegung = mittel. „Proprietär, nicht teilbar“ = niedrig. |
Data Governance | Welche Daten wurden für das Training verwendet? Bestätigt der Anbieter die rechtmäßige Grundlage der Datenverarbeitung? Sind Data-Provenance-Nachweise verfügbar? Wie werden personenbezogene Daten in der Inferenz verarbeitet? | Dokumentierte Datenherkunft mit Rechtsgrundlage = hoch. Allgemeine Aussagen ohne Nachweise = mittel. Keine Informationen verfügbar = niedrig. |
Bias- und Fairness-Tests | Hat der Anbieter Bias-Audits durchgeführt? Über welche geschützten Merkmale hinweg? Sind Ergebnisse verfügbar? Welche Remediationsprozesse existieren? | Unabhängiges Drittparteien-Audit mit veröffentlichten Ergebnissen = hoch. Interne Tests mit Dokumentation = mittel. Keine Tests oder „wir testen darauf nicht“ = niedrig. |
Sicherheit | Welche Sicherheitszertifizierungen hält der Anbieter (SOC 2, ISO 27001)? Wie werden Modelle gegen adversariale Angriffe, Prompt Injection oder Datenextraktion geschützt? Gibt es ein Vulnerability-Disclosure-Programm? | Relevante Zertifizierungen plus KI-spezifische Sicherheitsmaßnahmen = hoch. Nur allgemeine Zertifizierungen = mittel. Keine Zertifizierungen = niedrig. |
Compliance und Zertifizierungen | Kann der Anbieter die Konformität mit dem EU AI Act, der DSGVO oder sektorspezifischer Regulierung nachweisen? Gibt es eine Konformitätsbewertung für Hochrisikosysteme? | Konformitätsbewertung mit Dokumentation abgeschlossen = hoch. Compliance-Programm in Umsetzung = mittel. Keine Compliance-Aktivität = niedrig. |
Incident Response | Verfügt der Anbieter über einen dokumentierten KI-Incident-Response-Plan? Wie lauten die Benachrichtigungsfristen? Gibt es einen Post-Incident-Review-Prozess? | Dokumentierter Plan mit definierten SLAs und Post-Incident-Review = hoch. Allgemeiner Incident-Prozess ohne KI-Spezifik = mittel. Kein Prozess = niedrig. |
Update- und Change-Management | Wie kommuniziert der Anbieter Modell-Updates? Gibt es ein Änderungs-Benachrichtigungsfenster? Kann der Betreiber Updates vor Go-live testen? Ist ein Rollback möglich? | Vorabbenachrichtigung mit Testfenster und Rollback = hoch. Benachrichtigung nach Deployment = mittel. Kein Benachrichtigungsprozess = niedrig. |
Abhängigkeit von Sub-Processoren und Foundation-Modellen | Stützt sich der Anbieter auf vorgelagerte KI-Anbieter (z. B. OpenAI, Anthropic, Google)? Was geschieht, wenn der vorgelagerte Anbieter Bedingungen ändert, Modelle aktualisiert oder einen Ausfall hat? Werden vertragliche Schutzmechanismen weitergereicht? | Vollständige Offenlegung vorgelagerter Anbieter mit vertraglicher Weitergabe und Notfallplänen = hoch. Teilweise Offenlegung = mittel. Keine Offenlegung oder Single-Provider-Abhängigkeit ohne Fallback = niedrig. |
Diese Tabelle sollte als lebendiges Instrument verstanden werden. Bewertungsschwellen variieren je nach Anwendungsfall: Ein Hochrisiko-KI-System in der medizinischen Triage erfordert deutlich strengere Transparenz als ein risikoarmes Content-Empfehlungstool.
Zentrale Fragen an Anbieter
Ein Fragebogen funktioniert nur, wenn die Fragen spezifisch genug sind, um reale Risiken offenzulegen. Vage Fragen führen zu vagen Antworten. Die folgenden, nach Kategorien geordneten Fragen sind darauf ausgelegt, umsetzbare Antworten zu erzeugen.
Modelltransparenz und Erklärbarkeit
Welche Modellarchitektur verwendet dieses System, und welche Version ist derzeit in der Produktion eingesetzt?
Können Sie eine Model Card oder ein technisches Datasheet bereitstellen, das beabsichtigte Use Cases, bekannte Einschränkungen und Leistungsbenchmarks beschreibt?
Welche Methoden stehen zur Verfügung, um einzelnen betroffenen Personen individuelle Vorhersagen oder Entscheidungen zu erläutern?
Falls das Modell auf einem Foundation-Modell eines Drittanbieters basiert (z. B. einem LLM-Anbieter): Können Sie offenlegen, auf welchem Foundation-Modell und welcher Version Sie aufbauen?
Data Governance und Datenschutz
Welche Datensätze wurden verwendet, um dieses Modell zu trainieren und zu validieren, und können Sie einen Data-Provenance-Nachweis bereitstellen?
Was ist die Rechtsgrundlage nach DSGVO (oder gleichwertiger Regulierung) für die Verarbeitung personenbezogener Daten im Training?
Speichert, memoriert oder reproduziert das Modell Trainingsdaten während der Inferenz? Welche Schutzmechanismen verhindern Datenabfluss?
Wie werden Kundendaten nach dem Deployment genutzt – fließen sie zurück ins Modelltraining, und kann der Kunde widersprechen?
Bias, Fairness und Sicherheit
Wurde dieses Modell auf Bias über geschützte Merkmale hinweg auditiert, wie sie im anwendbaren Antidiskriminierungsrecht definiert sind?
Wer hat das Audit durchgeführt, und sind die Ergebnisse zur Prüfung verfügbar?
Welches laufende Monitoring ist eingerichtet, um emergenten Bias oder Leistungsabfall über Subgruppen hinweg zu erkennen?
Für generative KI-Systeme: Welche Guardrails verhindern die Erzeugung schädlicher, irreführender oder rechtlich problematischer Ausgaben?
Sicherheit und Resilienz
Welche spezifischen Schutzmaßnahmen bestehen gegen adversariale Angriffe, Prompt Injection, Model Inversion oder Extraktion von Trainingsdaten?
Wurde das System über Standardtests der Anwendungssicherheit hinaus einem KI-spezifischen Penetration Testing oder Red Teaming unterzogen?
Wie sieht der Disaster-Recovery- und Business-Continuity-Plan aus, der spezifisch für die KI-Komponenten dieses Services gilt?
Compliance und regulatorische Bereitschaft
Wurde dieses System unter den Risikokategorien des EU AI Act klassifiziert, und falls ja, welche Klassifizierung wurde vorgenommen?
Können Sie eine Dokumentation der nach Artikel 43 geforderten Konformitätsbewertung für Hochrisiko-KI-Systeme bereitstellen?
Wie lautet Ihr Zeitplan für vollständige Compliance mit den anwendbaren KI-Regulierungen in unseren Einsatzjurisdiktionen?
Incident Response und Verantwortlichkeit
Wie lautet Ihr KI-spezifischer Incident-Response-Plan, und was löst eine Incident-Klassifizierung aus?
Welche vertragliche Benachrichtigungsfrist gilt für KI-bezogene Incidents, die unser Deployment betreffen?
Können Sie Beispiele vergangener KI-Incidents und deren Behebung bereitstellen?
Nicht jede Frage ist für jeden Anbieter relevant. Das Fehlen belastbarer Antworten auf Fragen, die eindeutig relevant sind, ist jedoch selbst ein Befund.
Warnsignale in Anbieterantworten
Die Bewertung von Anbietern hängt ebenso stark davon ab, wie Organisationen Antworten erhalten, wie davon, was diese Antworten enthalten. Bestimmte Muster in Anbieterantworten sollten eine erhöhte Prüfung auslösen.
Unbestimmtheit, getarnt als Vertraulichkeit
Es gibt eine legitime Grundlage für den Schutz von Geschäftsgeheimnissen. Ein Anbieter jedoch, der die Offenlegung der allgemeinen Architekturfamilie eines Modells, der Kategorien verwendeter Trainingsdaten oder das Vorhandensein von Bias-Tests verweigert, schützt kein geistiges Eigentum. Er verschleiert Risiko. Ein Anbieter, der auf jede Transparenzfrage mit „Unser Modell ist proprietär und wir können keine Details teilen“ antwortet, ist kein Anbieter, der die regulatorischen Pflichten eines Betreibers unterstützen kann.
Fehlende Dokumentation
Wenn ein Anbieter keine Model Card, keine Data-Governance-Richtlinie oder keinen Incident-Response-Plan vorlegen kann, lautet die wahrscheinlichste Erklärung: Diese existieren nicht. Fehlende Dokumentation ist kein neutraler Befund. Sie zeigt, dass der Anbieter nicht in die Governance-Infrastruktur investiert hat, die für einen verantwortungsvollen Einsatz erforderlich ist.
Widerstand gegen Audit-Rechte
Jeder Anbieter, der sich gegen vertragliche Audit-Rechte stellt – ob als logistisch schwierig oder wirtschaftlich unzumutbar dargestellt – sollte mit Vorsicht betrachtet werden. Der EU AI Act geht ausdrücklich davon aus, dass Betreiber die Compliance von Anbietern verifizieren müssen [4]. Ein Anbieter, der Audit-Klauseln ablehnt, ist ein Anbieter, der einer Prüfung möglicherweise nicht standhält.
Kein Incident-Response-Prozess
Wenn die Antwort des Anbieters auf „Wie lautet Ihr KI-Incident-Response-Plan?“ Schweigen ist, eine Umleitung auf generisches IT-Incident-Management oder das Versprechen, einen Plan zu entwickeln, sollte die Organisation prüfen, ob sie bereit ist, das volle Gewicht eines KI-Fehlers ohne Anbieterunterstützung zu tragen.
Haftungsverlagernde Sprache
Achten Sie auf Vertragssprache, die versucht, die gesamte Haftung für KI-Ergebnisse auf den Betreiber zu verlagern. Betreiber tragen zwar Pflichten, aber ein Anbieter, der für Modellleistung, Bias oder Ausfälle keinerlei Verantwortung übernimmt, sendet ein klares Signal über sein Vertrauen in die eigenen Systeme.
Das Muster ist wichtiger als jede einzelne Antwort. Ein Anbieter, der echte Einschränkungen transparent darlegt, ist deutlich weniger riskant als einer, der Perfektion behauptet und gleichzeitig keinerlei Nachweise liefert.
Vertragliche Schutzmechanismen für die KI-Beschaffung
Bewertung ist notwendig, aber nicht ausreichend. Die Ergebnisse müssen in durchsetzbaren vertraglichen Bedingungen verankert werden. Standardverträge für Softwarebeschaffung enthalten selten Regelungen, die für KI-spezifische Risiken ausreichen. Die folgenden Klauseln sollten in jeder Vereinbarung mit einem KI-Anbieter berücksichtigt werden.
Audit-Rechte
Die Vereinbarung sollte dem Betreiber das Recht einräumen, die KI-Systeme des Anbieters zu auditieren – entweder direkt oder über eine unabhängige dritte Partei – in angemessenen Intervallen sowie beim Eintritt definierter Trigger-Ereignisse (z. B. gemeldeter Incident oder regulatorische Anfrage). Dieses Recht sollte sich auf Modellleistungsdaten, Bias-Testergebnisse und Data-Governance-Praktiken erstrecken.
Incident-Benachrichtigung
Die Vereinbarung sollte maximale Benachrichtigungsfristen für KI-bezogene Incidents festlegen, getrennt von allgemeinen Service-Incidents. Für Hochrisikosysteme ist eine Benachrichtigung innerhalb von 24 Stunden nach Entdeckung ein angemessener Ausgangspunkt. Die Benachrichtigung sollte Art des Incidents, betroffene Systeme, geschätzte Auswirkungen und Abhilfeschritte enthalten.
Datenhandhabung und Aufbewahrung
Die Vereinbarung sollte präzise festlegen, wie Kundendaten im Zusammenhang mit dem KI-System genutzt werden: ob sie zur Modellverbesserung verwendet werden, wie sie gespeichert werden, wann sie gelöscht werden und ob der Kunde deren Entfernung aus Trainingsdatensätzen verlangen kann. Dies ist besonders kritisch angesichts der laufenden regulatorischen Aufmerksamkeit für die Schnittstelle zwischen KI-Training und Datenschutzrechten [5].
Benachrichtigung über Modelländerungen
Die Vereinbarung sollte den Anbieter verpflichten, wesentliche Änderungen am Modell vorab mitzuteilen, einschließlich Retraining auf neuen Daten, Architekturänderungen und signifikanter Parameteranpassungen. Die Frist sollte dem Betreiber ermöglichen, Tests durchzuführen, bevor das aktualisierte Modell in seiner Umgebung produktiv geht. Ein 30-Tage-Benachrichtigungsfenster für nicht dringliche Änderungen ist ein angemessener Mindeststandard.
Leistungsbenchmarks und SLAs
Über klassische Uptime-SLAs hinaus sollte die Vereinbarung messbare Leistungsbenchmarks für das KI-System definieren, einschließlich Genauigkeitsschwellen, Fairness-Metriken und Latenzanforderungen. Bei Verletzung dieser Benchmarks sollten klar definierte Abhilfepflichten und – wo angemessen – Kündigungsrechte ausgelöst werden.
Haftungszuordnung
Die Vereinbarung sollte die Haftung für KI-bezogene Schäden so zuordnen, dass sie den jeweiligen Kontrollgrad der Parteien widerspiegelt. Ein Anbieter, der Modell, Trainingsdaten und Update-Zyklus kontrolliert, sollte eine verhältnismäßige Haftung für Mängel in diesen Komponenten tragen. Eine pauschale Freistellung zugunsten des Anbieters ist für KI-Deployments nicht angemessen.
Starke Verträge ersetzen Governance nicht, aber sie schaffen den Durchsetzungsmechanismus, der Governance operativ wirksam macht.
Laufendes Monitoring: über die einmalige Bewertung hinaus
Eine einmal bei der Beschaffung durchgeführte und anschließend abgelegte KI-Anbieterbewertung ist ein Compliance-Artefakt, keine Risikomanagementpraxis. KI-Systeme verändern sich – und ebenso die Risiken, die sie mit sich bringen.
Indikatoren für kontinuierliches Monitoring
Organisationen sollten fortlaufendes Monitoring über mehrere Dimensionen etablieren:
Leistungsdrift. Verfolgen Sie die Qualität der KI-Ausgaben im Vergleich zu den bei der Beschaffung festgelegten Benchmarks. Verschlechterungen können auf Model Drift, Probleme in der Datenpipeline oder nicht offengelegte Modelländerungen hinweisen.
Häufigkeit und Schwere von Incidents. Erfassen Sie alle KI-bezogenen Incidents einschließlich Beinahe-Vorfällen und analysieren Sie deren Entwicklung über die Zeit. Eine steigende Häufigkeit anomaler Ausgaben erfordert Untersuchung.
Regulatorische Entwicklungen. Beobachten Sie Änderungen der anwendbaren KI-Regulierung, die die Risikoklassifizierung des Systems verändern oder neue Betreiberpflichten begründen können.
Finanzielle und operative Stabilität des Anbieters. Ein Anbieter in finanzieller Schieflage kann Investitionen in Modellpflege, Sicherheit und Compliance reduzieren – mit direkten Auswirkungen auf den Betreiber.
Auslöser für Neubewertungen
Bestimmte Ereignisse sollten außerhalb des regulären Review-Zyklus eine vollständige Neubewertung des Anbieters auslösen:
Der Anbieter kündigt ein bedeutendes Modell-Update oder eine Architekturänderung an
Ein signifikanter KI-Incident tritt auf – entweder in der Deployment-Umgebung der Organisation oder öffentlich berichtet
Regulatorische Leitlinien ändern die Risikoklassifizierung des KI-Systems
Die Organisation ändert die Nutzung des KI-Systems in einer Weise, die das Risikoprofil wesentlich verändert
Der Anbieter wird übernommen, fusioniert oder durchläuft einen wesentlichen Führungswechsel
Verankerung des Monitorings in Governance-Workflows
Wirksames fortlaufendes Monitoring erfordert mehr als gute Absichten. Es erfordert Tooling, das die Anbieteraufsicht in bestehende Governance-Zyklen integriert. Enzai stellt die Infrastruktur für kontinuierliches Drittanbieter-KI-Monitoring bereit und verbindet Bewertungsergebnisse, vertragliche Pflichten und Echtzeit-Leistungsindikatoren in einem einheitlichen Governance-Workflow. Ohne diese Integration neigen Monitoring-Pflichten dazu, im Zeitverlauf zu erodieren – wodurch Organisationen genau dann exponiert sind, wenn Wachsamkeit am wichtigsten ist.
Governance ist kein Ereignis. Sie ist eine kontinuierliche Praxis.
Die Artikel-25-Falle: wenn Betreiber zu Anbietern werden
Eine der folgenreichsten und am wenigsten verstandenen Bestimmungen im EU AI Act betrifft die Umstände, unter denen ein Betreiber als Anbieter neu klassifiziert wird. Artikel 25 legt fest, dass ein Betreiber als Anbieter gilt, wenn er seinen Namen oder seine Marke auf ein bereits in Verkehr gebrachtes Hochrisiko-KI-System setzt, ein Hochrisikosystem wesentlich verändert, den beabsichtigten Zweck eines KI-Systems so verändert, dass es hochriskant wird, oder ein Hochrisikosystem in Verkehr bringt, nachdem dies bereits ein Dritter auf Grundlage einer Vereinbarung mit dem ursprünglichen Anbieter getan hat [6].
Dies hat unmittelbare Auswirkungen auf Organisationen, die Drittanbieter-KI anpassen. Das Fine-Tuning eines Anbietermodells auf proprietären Daten, die Modifikation seiner Ausgaben über zusätzliche Verarbeitungsebenen oder der Einsatz für einen Use Case, der wesentlich vom angegebenen Verwendungszweck des Anbieters abweicht, kann jeweils ausreichen, um eine Neuklassifizierung auszulösen.
Die Folgen einer Neuklassifizierung sind erheblich. Ein Anbieter trägt das volle Gewicht der Pflichten des EU AI Act für Hochrisikosysteme, einschließlich Konformitätsbewertungen, technischer Dokumentation, Post-Market-Monitoring und Registrierung in der EU-Datenbank. Diese Pflichten sind deutlich weitreichender als jene, die Betreibern auferlegt werden.
Praktische Schritte zur Vermeidung der Falle
Beabsichtigten Zweck dokumentieren. Führen Sie klare Nachweise über den vom Anbieter angegebenen beabsichtigten Zweck des KI-Systems und den tatsächlichen Use Case der Organisation. Jede Abweichung sollte von Rechts- und Compliance-Teams geprüft werden.
Umfang der Anpassung bewerten. Führen Sie vor Fine-Tuning, Retraining oder wesentlicher Modifikation eines Drittanbieter-KI-Systems eine Bewertung durch, ob die Änderung als „wesentliche Änderung“ im Sinne des Acts gilt. Leitlinien der Europäischen Kommission hierzu werden weitere Klarheit bringen, das Risiko besteht jedoch bereits heute [7].
Vertragliche Klarheit. Stellen Sie sicher, dass die Anbietervereinbarung eindeutig festlegt, welche Partei Anbieter und welche Betreiber ist, und spezifizieren Sie die Bedingungen, unter denen sich diese Klassifizierung ändern kann.
Frühzeitig Rechtsberatung einholen. Die Grenze zwischen Anbieter und Betreiber ist eine Frage der Substanz, nicht der Etikettierung. Sich in einem Vertrag als Betreiber zu bezeichnen, übersteuert nicht die tatsächliche Feststellung, als Anbieter zu handeln.
Die Artikel-25-Falle ist nicht hypothetisch. Da Organisationen Anbieter-KI-Systeme zunehmend anpassen und fine-tunen, dürfte die Grenze zwischen Deployment und Bereitstellung zu einem der am stärksten umkämpften Bereiche der KI-Regulierung werden.
Aufbau eines belastbaren Drittanbieter-KI-Programms
Die Risikobewertung von Drittanbieter-KI ist kein Beschaffungs-Checkbox-Thema. Sie ist eine fortlaufende Governance-Disziplin über rechtliche, technische und operative Domänen hinweg. Organisationen, die dieses Risiko wirksam steuern, sind jene, die die Aufsicht über KI-Anbieter mit derselben Strenge behandeln wie Finanzkontrollen oder Datenschutz.
Das hier skizzierte Framework bietet einen Ausgangspunkt: strukturierte Bewertung, präzise Fragen, vertragliche Schutzmechanismen, kontinuierliches Monitoring und Bewusstsein für regulatorische Fallen, die einen Betreiber über Nacht in einen Anbieter verwandeln können. Nichts davon ist optional für Organisationen, die Hochrisiko-KI-Systeme in regulierten Umgebungen einsetzen.
Für Organisationen, die Drittanbieter-KI-Governance im großen Maßstab operationalisieren wollen, bietet Enzai die Plattforminfrastruktur, um Anbieterbewertungen zu steuern, Pflichten nachzuverfolgen und eine kontinuierliche Aufsicht über das gesamte KI-Portfolio aufrechtzuerhalten. Fordern Sie eine Demo an, um zu sehen, wie dies in der Praxis funktioniert.
Referenzen
[1] Gartner, „Gartner prognostiziert: 70 % der Organisationen verlagern den Fokus auf KI-Governance“, 2024.
[2] Europäisches Parlament und Rat, Verordnung (EU) 2024/1689 (EU AI Act), Artikel 26 – Pflichten von Betreibern von Hochrisiko-KI-Systemen, 2024.
[3] Europäischer Datenschutzausschuss, „Stellungnahme zum Zusammenspiel zwischen AI Act und DSGVO“, 2024.
[4] Europäisches Parlament und Rat, Verordnung (EU) 2024/1689 (EU AI Act), Artikel 13 (Transparenz und Bereitstellung von Informationen für Betreiber) und Artikel 26 (Betreiberpflichten), 2024.
[5] Europäischer Datenschutzausschuss, „Leitlinien zur Verwendung personenbezogener Daten im KI-Modelltraining“, 2025.
[6] Europäisches Parlament und Rat, Verordnung (EU) 2024/1689 (EU AI Act), Artikel 25 – Verantwortlichkeiten entlang der KI-Wertschöpfungskette, 2024.
[7] Europäische Kommission, „Leitlinien zur wesentlichen Änderung von KI-Systemen“ (erscheint demnächst), referenziert in Erwägungsgrund 88 des EU AI Act.

Whitepaper herunterladen
Risiken durch KI-Anbieter von Drittanbietern: Wie Sie KI bewerten, die Sie nicht selbst entwickelt haben
Erhalten Sie einen praktischen Leitfaden zur Navigation durch KI-Regulierung, Risiko und Compliance – einschließlich der Bereitschaft zum EU-KI-Gesetz, bewährter Praktiken und realer Governance-Muster.
Ermöglichen Sie Ihrer Organisation die Einführung, Steuerung und Überwachung von KI mit unternehmensgerechtem Vertrauen. Entwickelt für regulierte Organisationen, die im großen Maßstab operieren.