Entdecken Sie das vollständige Sortiment an KI-Governance-Produkten von Enzai, das darauf ausgelegt ist, Organisationen dabei zu helfen, KI mit Vertrauen zu verwalten, zu überwachen und zu skalieren. Von strukturierten Aufnahmen und zentralisierten KI-Inventaren bis hin zu automatisierten Bewertungen und Echtzeitüberwachung bietet Enzai die Bausteine, um Governance direkt in alltägliche KI-Workflows einzubetten — ohne die Innovation zu verlangsamen.

Enzai

Whitepaper

Risiken durch KI-Anbieter von Drittanbietern: Wie Sie KI bewerten, die Sie nicht selbst entwickelt haben

Whitepaper

Risiken durch KI-Anbieter von Drittanbietern: Wie Sie KI bewerten, die Sie nicht selbst entwickelt haben

Whitepaper

Risiken durch KI-Anbieter von Drittanbietern: Wie Sie KI bewerten, die Sie nicht selbst entwickelt haben

Ein strukturiertes Rahmenwerk zur Risikobewertung von KI-Anbietern – Fragebögen, Warnsignale, vertragliche Schutzmaßnahmen und fortlaufende Überwachung gemäß EU-KI-Verordnung.

Belfast

Belfast

14 Minuten Lesezeit

Themen

KI-Governance
Lieferantenrisiko
EU-KI-Verordnung
KI von Drittanbietern
Compliance

Themen

Die meisten unternehmensweiten KI-Systeme werden nicht intern entwickelt. Laut Gartner wurde erwartet, dass bis 2025 über 70 % der Organisationen mindestens eine Form von KI eingeführt haben, die von einem Drittanbieter bereitgestellt wird [1]. Diese Zahl ist weiter gestiegen. Dennoch wurden die Governance-Frameworks, auf die sich die meisten Organisationen stützen, für Software konzipiert, die sie kontrollieren – nicht für probabilistische Systeme, die auf Daten trainiert wurden, die sie nie gesehen haben, nach Zeitplänen aktualisiert werden, die sie nicht festlegen, und nach einer Logik arbeiten, die selbst für den Anbieter undurchsichtig sein kann.

Die regulatorische Landschaft hat diese Realität eingeholt. Der EU AI Act, der 2025 in seine stufenweise Durchsetzungsphase eingetreten ist, zieht eine klare Grenze zwischen Anbietern (jene, die ein KI-System entwickeln oder in Verkehr bringen) und Betreibern (jene, die es unter eigener Verantwortung nutzen). Diese Grenze entbindet Betreiber jedoch nicht von Verantwortung. Artikel 26 stellt klar, dass Betreiber von Hochrisiko-KI-Systemen spezifische Pflichten in Bezug auf menschliche Aufsicht, Qualität der Eingabedaten, Monitoring und Dokumentation tragen [2]. Die unbequeme Wahrheit für Beschaffungs- und Compliance-Teams lautet: Die regulatorische Haftung geht nicht auf den Anbieter über, nur weil dieser das Modell entwickelt hat.

Dieser Leitfaden bietet ein strukturiertes Framework zur KI-Anbieterrisikobewertung – von der initialen Due Diligence bis hin zum fortlaufenden Monitoring.

Warum Drittanbieter-KI-Risiken einen anderen Ansatz erfordern

Traditionelles Vendor Risk Management bewertet Verfügbarkeit, Datensicherheit und vertragliche SLAs. Diese bleiben für KI-Anbieter notwendig, sind aber nicht ausreichend. KI-Systeme führen eine Risikokategorie ein, für die klassische IT-Beschaffung nie ausgelegt war.

Drei Eigenschaften machen Drittanbieter-KI grundlegend anders als andere Software:

Intransparenz der Entscheidungslogik. Eine herkömmliche SaaS-Anwendung führt deterministischen Code aus. Ein KI-System kann Ausgaben erzeugen, die durch Trainingsdaten, Fine-Tuning-Entscheidungen und Inferenz-Parameter geprägt sind, in die die einsetzende Organisation keinen Einblick hat. Wenn ein Kredit-Scoring-Modell einen Antrag ablehnt oder ein HR-Screening-Tool Kandidatinnen und Kandidaten einstuft, muss der Betreiber diese Entscheidung erklären können. Kann der Anbieter keine aussagekräftige Erklärung liefern, bleibt der Betreiber für Ergebnisse verantwortlich, die er nicht interpretieren kann.

Nicht statisches Verhalten. Klassische Software ändert sich über versionierte Releases. KI-Modelle können ihr Verhalten durch Retraining, Fine-Tuning oder Änderungen in zugrunde liegenden Datenpipelines verändern – teils ohne formalen Release-Zyklus. Ein Modell, das während der Beschaffung innerhalb akzeptabler Parameter lag, kann in den Folgemonaten driften. Der Betreiber bemerkt dies unter Umständen erst, wenn bereits Schaden entstanden ist.

Übernommenes Datenrisiko. Die Trainingsdaten, die das Verhalten eines Modells prägen, können Verzerrungen, urheberrechtlich geschütztes Material oder personenbezogene Daten enthalten, die ohne hinreichende Rechtsgrundlage verarbeitet wurden. Der Betreiber übernimmt die Folgen dieser vorgelagerten Entscheidungen, obwohl er an ihnen nicht beteiligt war. Nach DSGVO trägt der Betreiber neben dem Anbieter ein Durchsetzungsrisiko, wenn ein KI-System personenbezogene Daten in einer Weise verarbeitet, die nicht mit den Auftragsverarbeitungsvereinbarungen des Betreibers vereinbar ist [3].

Konventionelle Anbieter-Scorecards erfassen diese Dynamiken nicht. Ein speziell entwickeltes Bewertungs-Framework ist essenziell.

Ein strukturiertes Framework zur KI-Anbieterrisikobewertung

Das folgende Framework strukturiert die Bewertung von KI-Anbietern in sieben Domänen. Jede Domäne ist einem spezifischen Governance-Aspekt zugeordnet und kann bei der Beschaffung, in regelmäßigen Reviews oder bei anlassbezogener Neubewertung bewertet werden.

Organisationen, die Plattformen wie Enzai nutzen, können dieses Framework in bestehende Vendor-Lifecycle-Workflows integrieren und so sicherstellen, dass KI-spezifische Kriterien neben klassischen IT-Risikoindikatoren stehen – statt in einem separaten, entkoppelten Prozess.

Bewertungsfragebogen


Domäne

Bewertungskriterien

Bewertungsleitfaden

Modelltransparenz

Legt der Anbieter Modelltyp, Architekturfamilie und Version offen? Kann der Anbieter Model Cards oder Datasheets bereitstellen? Gibt es Dokumentation bekannter Einschränkungen?

Vollständige Offenlegung mit Model Cards = hoch. Teilweise Offenlegung = mittel. „Proprietär, nicht teilbar“ = niedrig.

Data Governance

Welche Daten wurden für das Training verwendet? Bestätigt der Anbieter die rechtmäßige Grundlage der Datenverarbeitung? Sind Data-Provenance-Nachweise verfügbar? Wie werden personenbezogene Daten in der Inferenz verarbeitet?

Dokumentierte Datenherkunft mit Rechtsgrundlage = hoch. Allgemeine Aussagen ohne Nachweise = mittel. Keine Informationen verfügbar = niedrig.

Bias- und Fairness-Tests

Hat der Anbieter Bias-Audits durchgeführt? Über welche geschützten Merkmale hinweg? Sind Ergebnisse verfügbar? Welche Remediationsprozesse existieren?

Unabhängiges Drittparteien-Audit mit veröffentlichten Ergebnissen = hoch. Interne Tests mit Dokumentation = mittel. Keine Tests oder „wir testen darauf nicht“ = niedrig.

Sicherheit

Welche Sicherheitszertifizierungen hält der Anbieter (SOC 2, ISO 27001)? Wie werden Modelle gegen adversariale Angriffe, Prompt Injection oder Datenextraktion geschützt? Gibt es ein Vulnerability-Disclosure-Programm?

Relevante Zertifizierungen plus KI-spezifische Sicherheitsmaßnahmen = hoch. Nur allgemeine Zertifizierungen = mittel. Keine Zertifizierungen = niedrig.

Compliance und Zertifizierungen

Kann der Anbieter die Konformität mit dem EU AI Act, der DSGVO oder sektorspezifischer Regulierung nachweisen? Gibt es eine Konformitätsbewertung für Hochrisikosysteme?

Konformitätsbewertung mit Dokumentation abgeschlossen = hoch. Compliance-Programm in Umsetzung = mittel. Keine Compliance-Aktivität = niedrig.

Incident Response

Verfügt der Anbieter über einen dokumentierten KI-Incident-Response-Plan? Wie lauten die Benachrichtigungsfristen? Gibt es einen Post-Incident-Review-Prozess?

Dokumentierter Plan mit definierten SLAs und Post-Incident-Review = hoch. Allgemeiner Incident-Prozess ohne KI-Spezifik = mittel. Kein Prozess = niedrig.

Update- und Change-Management

Wie kommuniziert der Anbieter Modell-Updates? Gibt es ein Änderungs-Benachrichtigungsfenster? Kann der Betreiber Updates vor Go-live testen? Ist ein Rollback möglich?

Vorabbenachrichtigung mit Testfenster und Rollback = hoch. Benachrichtigung nach Deployment = mittel. Kein Benachrichtigungsprozess = niedrig.

Abhängigkeit von Sub-Processoren und Foundation-Modellen

Stützt sich der Anbieter auf vorgelagerte KI-Anbieter (z. B. OpenAI, Anthropic, Google)? Was geschieht, wenn der vorgelagerte Anbieter Bedingungen ändert, Modelle aktualisiert oder einen Ausfall hat? Werden vertragliche Schutzmechanismen weitergereicht?

Vollständige Offenlegung vorgelagerter Anbieter mit vertraglicher Weitergabe und Notfallplänen = hoch. Teilweise Offenlegung = mittel. Keine Offenlegung oder Single-Provider-Abhängigkeit ohne Fallback = niedrig.

Diese Tabelle sollte als lebendiges Instrument verstanden werden. Bewertungsschwellen variieren je nach Anwendungsfall: Ein Hochrisiko-KI-System in der medizinischen Triage erfordert deutlich strengere Transparenz als ein risikoarmes Content-Empfehlungstool.

Zentrale Fragen an Anbieter

Ein Fragebogen funktioniert nur, wenn die Fragen spezifisch genug sind, um reale Risiken offenzulegen. Vage Fragen führen zu vagen Antworten. Die folgenden, nach Kategorien geordneten Fragen sind darauf ausgelegt, umsetzbare Antworten zu erzeugen.

Modelltransparenz und Erklärbarkeit

  1. Welche Modellarchitektur verwendet dieses System, und welche Version ist derzeit in der Produktion eingesetzt?

  2. Können Sie eine Model Card oder ein technisches Datasheet bereitstellen, das beabsichtigte Use Cases, bekannte Einschränkungen und Leistungsbenchmarks beschreibt?

  3. Welche Methoden stehen zur Verfügung, um einzelnen betroffenen Personen individuelle Vorhersagen oder Entscheidungen zu erläutern?

  4. Falls das Modell auf einem Foundation-Modell eines Drittanbieters basiert (z. B. einem LLM-Anbieter): Können Sie offenlegen, auf welchem Foundation-Modell und welcher Version Sie aufbauen?

Data Governance und Datenschutz

  1. Welche Datensätze wurden verwendet, um dieses Modell zu trainieren und zu validieren, und können Sie einen Data-Provenance-Nachweis bereitstellen?

  2. Was ist die Rechtsgrundlage nach DSGVO (oder gleichwertiger Regulierung) für die Verarbeitung personenbezogener Daten im Training?

  3. Speichert, memoriert oder reproduziert das Modell Trainingsdaten während der Inferenz? Welche Schutzmechanismen verhindern Datenabfluss?

  4. Wie werden Kundendaten nach dem Deployment genutzt – fließen sie zurück ins Modelltraining, und kann der Kunde widersprechen?

Bias, Fairness und Sicherheit

  1. Wurde dieses Modell auf Bias über geschützte Merkmale hinweg auditiert, wie sie im anwendbaren Antidiskriminierungsrecht definiert sind?

  2. Wer hat das Audit durchgeführt, und sind die Ergebnisse zur Prüfung verfügbar?

  3. Welches laufende Monitoring ist eingerichtet, um emergenten Bias oder Leistungsabfall über Subgruppen hinweg zu erkennen?

  4. Für generative KI-Systeme: Welche Guardrails verhindern die Erzeugung schädlicher, irreführender oder rechtlich problematischer Ausgaben?

Sicherheit und Resilienz

  1. Welche spezifischen Schutzmaßnahmen bestehen gegen adversariale Angriffe, Prompt Injection, Model Inversion oder Extraktion von Trainingsdaten?

  2. Wurde das System über Standardtests der Anwendungssicherheit hinaus einem KI-spezifischen Penetration Testing oder Red Teaming unterzogen?

  3. Wie sieht der Disaster-Recovery- und Business-Continuity-Plan aus, der spezifisch für die KI-Komponenten dieses Services gilt?

Compliance und regulatorische Bereitschaft

  1. Wurde dieses System unter den Risikokategorien des EU AI Act klassifiziert, und falls ja, welche Klassifizierung wurde vorgenommen?

  2. Können Sie eine Dokumentation der nach Artikel 43 geforderten Konformitätsbewertung für Hochrisiko-KI-Systeme bereitstellen?

  3. Wie lautet Ihr Zeitplan für vollständige Compliance mit den anwendbaren KI-Regulierungen in unseren Einsatzjurisdiktionen?

Incident Response und Verantwortlichkeit

  1. Wie lautet Ihr KI-spezifischer Incident-Response-Plan, und was löst eine Incident-Klassifizierung aus?

  2. Welche vertragliche Benachrichtigungsfrist gilt für KI-bezogene Incidents, die unser Deployment betreffen?

  3. Können Sie Beispiele vergangener KI-Incidents und deren Behebung bereitstellen?

Nicht jede Frage ist für jeden Anbieter relevant. Das Fehlen belastbarer Antworten auf Fragen, die eindeutig relevant sind, ist jedoch selbst ein Befund.

Warnsignale in Anbieterantworten

Die Bewertung von Anbietern hängt ebenso stark davon ab, wie Organisationen Antworten erhalten, wie davon, was diese Antworten enthalten. Bestimmte Muster in Anbieterantworten sollten eine erhöhte Prüfung auslösen.

Unbestimmtheit, getarnt als Vertraulichkeit

Es gibt eine legitime Grundlage für den Schutz von Geschäftsgeheimnissen. Ein Anbieter jedoch, der die Offenlegung der allgemeinen Architekturfamilie eines Modells, der Kategorien verwendeter Trainingsdaten oder das Vorhandensein von Bias-Tests verweigert, schützt kein geistiges Eigentum. Er verschleiert Risiko. Ein Anbieter, der auf jede Transparenzfrage mit „Unser Modell ist proprietär und wir können keine Details teilen“ antwortet, ist kein Anbieter, der die regulatorischen Pflichten eines Betreibers unterstützen kann.

Fehlende Dokumentation

Wenn ein Anbieter keine Model Card, keine Data-Governance-Richtlinie oder keinen Incident-Response-Plan vorlegen kann, lautet die wahrscheinlichste Erklärung: Diese existieren nicht. Fehlende Dokumentation ist kein neutraler Befund. Sie zeigt, dass der Anbieter nicht in die Governance-Infrastruktur investiert hat, die für einen verantwortungsvollen Einsatz erforderlich ist.

Widerstand gegen Audit-Rechte

Jeder Anbieter, der sich gegen vertragliche Audit-Rechte stellt – ob als logistisch schwierig oder wirtschaftlich unzumutbar dargestellt – sollte mit Vorsicht betrachtet werden. Der EU AI Act geht ausdrücklich davon aus, dass Betreiber die Compliance von Anbietern verifizieren müssen [4]. Ein Anbieter, der Audit-Klauseln ablehnt, ist ein Anbieter, der einer Prüfung möglicherweise nicht standhält.

Kein Incident-Response-Prozess

Wenn die Antwort des Anbieters auf „Wie lautet Ihr KI-Incident-Response-Plan?“ Schweigen ist, eine Umleitung auf generisches IT-Incident-Management oder das Versprechen, einen Plan zu entwickeln, sollte die Organisation prüfen, ob sie bereit ist, das volle Gewicht eines KI-Fehlers ohne Anbieterunterstützung zu tragen.

Haftungsverlagernde Sprache

Achten Sie auf Vertragssprache, die versucht, die gesamte Haftung für KI-Ergebnisse auf den Betreiber zu verlagern. Betreiber tragen zwar Pflichten, aber ein Anbieter, der für Modellleistung, Bias oder Ausfälle keinerlei Verantwortung übernimmt, sendet ein klares Signal über sein Vertrauen in die eigenen Systeme.

Das Muster ist wichtiger als jede einzelne Antwort. Ein Anbieter, der echte Einschränkungen transparent darlegt, ist deutlich weniger riskant als einer, der Perfektion behauptet und gleichzeitig keinerlei Nachweise liefert.

Vertragliche Schutzmechanismen für die KI-Beschaffung

Bewertung ist notwendig, aber nicht ausreichend. Die Ergebnisse müssen in durchsetzbaren vertraglichen Bedingungen verankert werden. Standardverträge für Softwarebeschaffung enthalten selten Regelungen, die für KI-spezifische Risiken ausreichen. Die folgenden Klauseln sollten in jeder Vereinbarung mit einem KI-Anbieter berücksichtigt werden.

Audit-Rechte

Die Vereinbarung sollte dem Betreiber das Recht einräumen, die KI-Systeme des Anbieters zu auditieren – entweder direkt oder über eine unabhängige dritte Partei – in angemessenen Intervallen sowie beim Eintritt definierter Trigger-Ereignisse (z. B. gemeldeter Incident oder regulatorische Anfrage). Dieses Recht sollte sich auf Modellleistungsdaten, Bias-Testergebnisse und Data-Governance-Praktiken erstrecken.

Incident-Benachrichtigung

Die Vereinbarung sollte maximale Benachrichtigungsfristen für KI-bezogene Incidents festlegen, getrennt von allgemeinen Service-Incidents. Für Hochrisikosysteme ist eine Benachrichtigung innerhalb von 24 Stunden nach Entdeckung ein angemessener Ausgangspunkt. Die Benachrichtigung sollte Art des Incidents, betroffene Systeme, geschätzte Auswirkungen und Abhilfeschritte enthalten.

Datenhandhabung und Aufbewahrung

Die Vereinbarung sollte präzise festlegen, wie Kundendaten im Zusammenhang mit dem KI-System genutzt werden: ob sie zur Modellverbesserung verwendet werden, wie sie gespeichert werden, wann sie gelöscht werden und ob der Kunde deren Entfernung aus Trainingsdatensätzen verlangen kann. Dies ist besonders kritisch angesichts der laufenden regulatorischen Aufmerksamkeit für die Schnittstelle zwischen KI-Training und Datenschutzrechten [5].

Benachrichtigung über Modelländerungen

Die Vereinbarung sollte den Anbieter verpflichten, wesentliche Änderungen am Modell vorab mitzuteilen, einschließlich Retraining auf neuen Daten, Architekturänderungen und signifikanter Parameteranpassungen. Die Frist sollte dem Betreiber ermöglichen, Tests durchzuführen, bevor das aktualisierte Modell in seiner Umgebung produktiv geht. Ein 30-Tage-Benachrichtigungsfenster für nicht dringliche Änderungen ist ein angemessener Mindeststandard.

Leistungsbenchmarks und SLAs

Über klassische Uptime-SLAs hinaus sollte die Vereinbarung messbare Leistungsbenchmarks für das KI-System definieren, einschließlich Genauigkeitsschwellen, Fairness-Metriken und Latenzanforderungen. Bei Verletzung dieser Benchmarks sollten klar definierte Abhilfepflichten und – wo angemessen – Kündigungsrechte ausgelöst werden.

Haftungszuordnung

Die Vereinbarung sollte die Haftung für KI-bezogene Schäden so zuordnen, dass sie den jeweiligen Kontrollgrad der Parteien widerspiegelt. Ein Anbieter, der Modell, Trainingsdaten und Update-Zyklus kontrolliert, sollte eine verhältnismäßige Haftung für Mängel in diesen Komponenten tragen. Eine pauschale Freistellung zugunsten des Anbieters ist für KI-Deployments nicht angemessen.

Starke Verträge ersetzen Governance nicht, aber sie schaffen den Durchsetzungsmechanismus, der Governance operativ wirksam macht.

Laufendes Monitoring: über die einmalige Bewertung hinaus

Eine einmal bei der Beschaffung durchgeführte und anschließend abgelegte KI-Anbieterbewertung ist ein Compliance-Artefakt, keine Risikomanagementpraxis. KI-Systeme verändern sich – und ebenso die Risiken, die sie mit sich bringen.

Indikatoren für kontinuierliches Monitoring

Organisationen sollten fortlaufendes Monitoring über mehrere Dimensionen etablieren:

  • Leistungsdrift. Verfolgen Sie die Qualität der KI-Ausgaben im Vergleich zu den bei der Beschaffung festgelegten Benchmarks. Verschlechterungen können auf Model Drift, Probleme in der Datenpipeline oder nicht offengelegte Modelländerungen hinweisen.

  • Häufigkeit und Schwere von Incidents. Erfassen Sie alle KI-bezogenen Incidents einschließlich Beinahe-Vorfällen und analysieren Sie deren Entwicklung über die Zeit. Eine steigende Häufigkeit anomaler Ausgaben erfordert Untersuchung.

  • Regulatorische Entwicklungen. Beobachten Sie Änderungen der anwendbaren KI-Regulierung, die die Risikoklassifizierung des Systems verändern oder neue Betreiberpflichten begründen können.

  • Finanzielle und operative Stabilität des Anbieters. Ein Anbieter in finanzieller Schieflage kann Investitionen in Modellpflege, Sicherheit und Compliance reduzieren – mit direkten Auswirkungen auf den Betreiber.

Auslöser für Neubewertungen

Bestimmte Ereignisse sollten außerhalb des regulären Review-Zyklus eine vollständige Neubewertung des Anbieters auslösen:

  • Der Anbieter kündigt ein bedeutendes Modell-Update oder eine Architekturänderung an

  • Ein signifikanter KI-Incident tritt auf – entweder in der Deployment-Umgebung der Organisation oder öffentlich berichtet

  • Regulatorische Leitlinien ändern die Risikoklassifizierung des KI-Systems

  • Die Organisation ändert die Nutzung des KI-Systems in einer Weise, die das Risikoprofil wesentlich verändert

  • Der Anbieter wird übernommen, fusioniert oder durchläuft einen wesentlichen Führungswechsel

Verankerung des Monitorings in Governance-Workflows

Wirksames fortlaufendes Monitoring erfordert mehr als gute Absichten. Es erfordert Tooling, das die Anbieteraufsicht in bestehende Governance-Zyklen integriert. Enzai stellt die Infrastruktur für kontinuierliches Drittanbieter-KI-Monitoring bereit und verbindet Bewertungsergebnisse, vertragliche Pflichten und Echtzeit-Leistungsindikatoren in einem einheitlichen Governance-Workflow. Ohne diese Integration neigen Monitoring-Pflichten dazu, im Zeitverlauf zu erodieren – wodurch Organisationen genau dann exponiert sind, wenn Wachsamkeit am wichtigsten ist.

Governance ist kein Ereignis. Sie ist eine kontinuierliche Praxis.

Die Artikel-25-Falle: wenn Betreiber zu Anbietern werden

Eine der folgenreichsten und am wenigsten verstandenen Bestimmungen im EU AI Act betrifft die Umstände, unter denen ein Betreiber als Anbieter neu klassifiziert wird. Artikel 25 legt fest, dass ein Betreiber als Anbieter gilt, wenn er seinen Namen oder seine Marke auf ein bereits in Verkehr gebrachtes Hochrisiko-KI-System setzt, ein Hochrisikosystem wesentlich verändert, den beabsichtigten Zweck eines KI-Systems so verändert, dass es hochriskant wird, oder ein Hochrisikosystem in Verkehr bringt, nachdem dies bereits ein Dritter auf Grundlage einer Vereinbarung mit dem ursprünglichen Anbieter getan hat [6].

Dies hat unmittelbare Auswirkungen auf Organisationen, die Drittanbieter-KI anpassen. Das Fine-Tuning eines Anbietermodells auf proprietären Daten, die Modifikation seiner Ausgaben über zusätzliche Verarbeitungsebenen oder der Einsatz für einen Use Case, der wesentlich vom angegebenen Verwendungszweck des Anbieters abweicht, kann jeweils ausreichen, um eine Neuklassifizierung auszulösen.

Die Folgen einer Neuklassifizierung sind erheblich. Ein Anbieter trägt das volle Gewicht der Pflichten des EU AI Act für Hochrisikosysteme, einschließlich Konformitätsbewertungen, technischer Dokumentation, Post-Market-Monitoring und Registrierung in der EU-Datenbank. Diese Pflichten sind deutlich weitreichender als jene, die Betreibern auferlegt werden.

Praktische Schritte zur Vermeidung der Falle

  • Beabsichtigten Zweck dokumentieren. Führen Sie klare Nachweise über den vom Anbieter angegebenen beabsichtigten Zweck des KI-Systems und den tatsächlichen Use Case der Organisation. Jede Abweichung sollte von Rechts- und Compliance-Teams geprüft werden.

  • Umfang der Anpassung bewerten. Führen Sie vor Fine-Tuning, Retraining oder wesentlicher Modifikation eines Drittanbieter-KI-Systems eine Bewertung durch, ob die Änderung als „wesentliche Änderung“ im Sinne des Acts gilt. Leitlinien der Europäischen Kommission hierzu werden weitere Klarheit bringen, das Risiko besteht jedoch bereits heute [7].

  • Vertragliche Klarheit. Stellen Sie sicher, dass die Anbietervereinbarung eindeutig festlegt, welche Partei Anbieter und welche Betreiber ist, und spezifizieren Sie die Bedingungen, unter denen sich diese Klassifizierung ändern kann.

  • Frühzeitig Rechtsberatung einholen. Die Grenze zwischen Anbieter und Betreiber ist eine Frage der Substanz, nicht der Etikettierung. Sich in einem Vertrag als Betreiber zu bezeichnen, übersteuert nicht die tatsächliche Feststellung, als Anbieter zu handeln.

Die Artikel-25-Falle ist nicht hypothetisch. Da Organisationen Anbieter-KI-Systeme zunehmend anpassen und fine-tunen, dürfte die Grenze zwischen Deployment und Bereitstellung zu einem der am stärksten umkämpften Bereiche der KI-Regulierung werden.

Aufbau eines belastbaren Drittanbieter-KI-Programms

Die Risikobewertung von Drittanbieter-KI ist kein Beschaffungs-Checkbox-Thema. Sie ist eine fortlaufende Governance-Disziplin über rechtliche, technische und operative Domänen hinweg. Organisationen, die dieses Risiko wirksam steuern, sind jene, die die Aufsicht über KI-Anbieter mit derselben Strenge behandeln wie Finanzkontrollen oder Datenschutz.

Das hier skizzierte Framework bietet einen Ausgangspunkt: strukturierte Bewertung, präzise Fragen, vertragliche Schutzmechanismen, kontinuierliches Monitoring und Bewusstsein für regulatorische Fallen, die einen Betreiber über Nacht in einen Anbieter verwandeln können. Nichts davon ist optional für Organisationen, die Hochrisiko-KI-Systeme in regulierten Umgebungen einsetzen.

Für Organisationen, die Drittanbieter-KI-Governance im großen Maßstab operationalisieren wollen, bietet Enzai die Plattforminfrastruktur, um Anbieterbewertungen zu steuern, Pflichten nachzuverfolgen und eine kontinuierliche Aufsicht über das gesamte KI-Portfolio aufrechtzuerhalten. Fordern Sie eine Demo an, um zu sehen, wie dies in der Praxis funktioniert.

Referenzen

[1] Gartner, „Gartner prognostiziert: 70 % der Organisationen verlagern den Fokus auf KI-Governance“, 2024.

[2] Europäisches Parlament und Rat, Verordnung (EU) 2024/1689 (EU AI Act), Artikel 26 – Pflichten von Betreibern von Hochrisiko-KI-Systemen, 2024.

[3] Europäischer Datenschutzausschuss, „Stellungnahme zum Zusammenspiel zwischen AI Act und DSGVO“, 2024.

[4] Europäisches Parlament und Rat, Verordnung (EU) 2024/1689 (EU AI Act), Artikel 13 (Transparenz und Bereitstellung von Informationen für Betreiber) und Artikel 26 (Betreiberpflichten), 2024.

[5] Europäischer Datenschutzausschuss, „Leitlinien zur Verwendung personenbezogener Daten im KI-Modelltraining“, 2025.

[6] Europäisches Parlament und Rat, Verordnung (EU) 2024/1689 (EU AI Act), Artikel 25 – Verantwortlichkeiten entlang der KI-Wertschöpfungskette, 2024.

[7] Europäische Kommission, „Leitlinien zur wesentlichen Änderung von KI-Systemen“ (erscheint demnächst), referenziert in Erwägungsgrund 88 des EU AI Act.

Erkunden Sie mehr

Erkunden Sie mehr

Whitepaper herunterladen

Risiken durch KI-Anbieter von Drittanbietern: Wie Sie KI bewerten, die Sie nicht selbst entwickelt haben

Erhalten Sie einen praktischen Leitfaden zur Navigation durch KI-Regulierung, Risiko und Compliance – einschließlich der Bereitschaft zum EU-KI-Gesetz, bewährter Praktiken und realer Governance-Muster.

Indem Sie fortfahren, stimmen Sie unseren Nutzungsbedingungen und Datenschutzrichtlinien zu.

Abonnieren Sie unseren Newsletter

Indem Sie sich anmelden, stimmen Sie der Enzai Datenschutzerklärung zu.

Abonnieren Sie unseren Newsletter

Indem Sie sich anmelden, stimmen Sie der Enzai Datenschutzerklärung zu.

Abonnieren Sie unseren Newsletter

Indem Sie sich anmelden, stimmen Sie der Enzai Datenschutzerklärung zu.

Abonnieren Sie unseren Newsletter

Indem Sie sich anmelden, stimmen Sie der Enzai Datenschutzerklärung zu.

Konformität durch Design

Konformität durch Design

ISO 27001

Enzai ist nach ISO 27001 zertifiziert und ist dies seit 2023. Wir verpflichten uns zu jährlichen Audits, die von NQA durchgeführt werden, und arbeiten eng mit unserem Sicherheitsberatungspartner Instil zusammen, um unsere Sicherheitslage kontinuierlich zu aktualisieren und zu verbessern.

DSGVO

ISO 27001

Enzai ist nach ISO 27001 zertifiziert und ist dies seit 2023. Wir verpflichten uns zu jährlichen Audits, die von NQA durchgeführt werden, und arbeiten eng mit unserem Sicherheitsberatungspartner Instil zusammen, um unsere Sicherheitslage kontinuierlich zu aktualisieren und zu verbessern.

DSGVO

KI-Governance

KI-Governance

Infrastruktur

Infrastruktur

Entwickelt für Vertrauen.

Entwickelt für Vertrauen.

Ermöglichen Sie Ihrer Organisation die Einführung, Steuerung und Überwachung von KI mit unternehmensgerechtem Vertrauen. Entwickelt für regulierte Organisationen, die im großen Maßstab operieren.

Verbinden Sie nahtlos Ihre bestehenden Systeme, Richtlinien und KI-Workflows – alles auf einer einheitlichen Plattform.

Verbinden Sie nahtlos Ihre bestehenden Systeme, Richtlinien und KI-Workflows – alles auf einer einheitlichen Plattform.