Entdecken Sie das vollständige Sortiment an KI-Governance-Produkten von Enzai, das darauf ausgelegt ist, Organisationen dabei zu helfen, KI mit Vertrauen zu verwalten, zu überwachen und zu skalieren. Von strukturierten Aufnahmen und zentralisierten KI-Inventaren bis hin zu automatisierten Bewertungen und Echtzeitüberwachung bietet Enzai die Bausteine, um Governance direkt in alltägliche KI-Workflows einzubetten — ohne die Innovation zu verlangsamen.

Enzai

Vorschriften für KI

Die KI-Haftungsrichtlinie - Ein Entwurf für KI-Verantwortlichkeit in Europa

Vorschriften für KI

Die KI-Haftungsrichtlinie - Ein Entwurf für KI-Verantwortlichkeit in Europa

Vorschriften für KI

Die KI-Haftungsrichtlinie - Ein Entwurf für KI-Verantwortlichkeit in Europa

Enzai analysiert den ersten Entwurf der EU-Richtlinie zur Haftung für KI

Belfast

Belfast

4 Minuten Lesezeit

Von

Von

Ryan Donnelly

Ryan Donnelly

Die Black-Box-Herausforderung meistern

Die Black-Box-Herausforderung meistern

Der Schutzschild der Dokumentation

Der Schutzschild der Dokumentation

Die vorgeschlagene EU-Richtlinie über die Haftung für KI (AILD) führt einheitliche Regelungen ein, um Anspruchstellern dabei zu helfen, Beweishürden zu überwinden, insbesondere durch die Einführung einer Kausalitätsvermutung und eines Rechts auf Zugang zu Beweismitteln bei Schadensersatzansprüchen im Zusammenhang mit KI.

Die vorgeschlagene EU-Richtlinie über die Haftung für KI (AILD) führt einheitliche Regelungen ein, um Anspruchstellern dabei zu helfen, Beweishürden zu überwinden, insbesondere durch die Einführung einer Kausalitätsvermutung und eines Rechts auf Zugang zu Beweismitteln bei Schadensersatzansprüchen im Zusammenhang mit KI.

Um diese strengen Haftungsvermutungen zu widerlegen, müssen Organisationen eine sorgfältige technische Dokumentation und Überwachungsprotokolle führen, da die Nichteinhaltung der Verpflichtungen aus dem EU AI Act automatisch ein Verschulden im Sinne der Richtlinie auslöst.

Um diese strengen Haftungsvermutungen zu widerlegen, müssen Organisationen eine sorgfältige technische Dokumentation und Überwachungsprotokolle führen, da die Nichteinhaltung der Verpflichtungen aus dem EU AI Act automatisch ein Verschulden im Sinne der Richtlinie auslöst.

Themen

Europäische KI-Regulierung
DSB-Richtlinien
Konformitätsbereitschaft
Governance-Praxis

Themen

Am 28. September 2022 veröffentlichte die Europäische Kommission den ersten Entwurf der vorgeschlagenen Richtlinie über die Haftung für Künstliche Intelligenz (die „AILD“). Der Zweck der AILD besteht darin, einheitliche Regeln für den Zugang zu Informationen und die Entlastung von der Beweislast in Bezug auf Schäden festzulegen, die durch KI-Systeme verursacht werden.




Die AILD ist das jüngste Element einer umfassenderen europäischen Gesetzgebungsinitiative zur Schaffung eines vertrauenswürdigen KI-Ökosystems. Zu dieser Landschaft gehören außerdem: (1) das Gesetz über Künstliche Intelligenz (das „EU AIA“), über das Sie hier mehr lesen können; und (2) eine Überarbeitung der inzwischen 40 Jahre alten Produkthaftungsrichtlinie, die die verschuldensunabhängige Haftung der Hersteller für fehlerhafte Produkte regelt.






Die Notwendigkeit

Eine EU-Umfrage aus dem Jahr 2020 ergab, dass Unklarheit in Bezug auf die Haftung zu den drei größten Hindernissen für den Einsatz von KI durch europäische Unternehmen gehört. Das überrascht angesichts des Flickenteppichs nationaler Haftungsregeln, der derzeit in der EU gilt, nicht. Viele Mitgliedstaaten haben verschuldensbasierte Regelungen eingeführt, nach denen Anspruchsteller nachweisen müssen, dass eine rechtswidrige Handlung oder Unterlassung einer Person den fraglichen Schaden verursacht hat. Die „Black-Box“-Natur von KI (mit ihrem autonomen Verhalten, ihrer begrenzten Vorhersehbarkeit, ihrer fortlaufenden Anpassung und ihrem Mangel an Transparenz) erschwert jedoch die Identifizierung der Fehlerquelle, die für einen erfolgreichen Haftungsanspruch nach den bestehenden Regelungen erforderlich ist.




*** Aufmerksame Leserinnen und Leser werden vielleicht feststellen, dass die AILD eine „Richtlinie“ ist, während der EU AI Act eine „Verordnung“ ist. Worin besteht der Unterschied? Nun, eine EU-Verordnung  tritt in allen Mitgliedstaaten automatisch in Kraft. Eine Richtlinie hingegen legt ein Ziel fest, das alle Mitgliedstaaten erreichen müssen. Es obliegt dem einzelnen Mitgliedstaat zu entscheiden, wie dieses Ziel mithilfe nationaler Rechtsvorschriften am besten erreicht werden kann. ***

Die Regeln

Mit der AILD werden zwei anspruchstellerfreundliche Schutzmechanismen als Ziele eingeführt, die die Mitgliedstaaten umsetzen sollen: (1) eine Kausalitätsvermutung; und (2) ein Recht auf Beweismittel. Diese Maßnahmen werden den Anspruchstellern helfen, die besonderen beweisrechtlichen Herausforderungen zu bewältigen, die bei der Anwendung von Haftungsregeln auf KI-Systeme entstehen.






1. Vermutung der Kausalität

Um die Schwierigkeiten beim Nachweis eines Kausalzusammenhangs in Fällen von durch KI verursachten Schäden zu adressieren, schafft die AILD eine widerlegbare Vermutung, wonach der Beklagte für den Fehler oder das Unterlassen haftet, das durch sein fehlerhaft funktionierendes KI-System verursacht wurde. Diese Vermutung, die widerlegt werden kann, greift nur, wenn die folgenden drei Voraussetzungen erfüllt sind:




A - das Verhalten des Beklagten entsprach nicht einer Sorgfaltspflicht, die in europäischen oder nationalen Rechtsvorschriften festgelegt ist und speziell dazu bestimmt war, vor dem eingetretenen Schaden zu schützen;

B - es kann unter den Umständen des Einzelfalls vernünftigerweise angenommen werden, dass der Fehler des Beklagten das vom KI-System erzeugte Ergebnis (oder das Ausbleiben eines Ergebnisses des KI-Systems) beeinflusst hat; und

C - der Anspruchsteller hat nachgewiesen, dass das vom KI-System erzeugte Ergebnis (oder das Ausbleiben eines Ergebnisses des KI-Systems) den Schaden verursacht hat.

Im Fall eines Hochrisiko-KI-Systems nach dem EU AIA gilt die unter A genannte Voraussetzung automatisch als erfüllt, wenn der Beklagte bestimmte Verpflichtungen, die ihm nach dem EU AIA auferlegt sind, nicht eingehalten hat. Zu diesen Verpflichtungen gehören unter anderem die Dokumentations- und Überwachungspflichten.






2. Recht auf Beweismittel

Die AILD versetzt potenzielle Anspruchsteller in die Lage, gerichtliche Anordnungen zu erwirken, die die Offenlegung relevanter Beweismittel in Bezug auf Hochrisiko-KI-Systeme verlangen. Zu diesen Beweismitteln würden die technische Dokumentation, die Überwachungsprotokolle und alle sonstigen Transparenzanforderungen nach dem EU AIA gehören. Entscheidend ist: Wenn der Beklagte diese Informationen nicht offenlegt, wird angenommen, dass er die einschlägige Sorgfaltspflicht nach europäischem oder nationalem Recht nicht erfüllt hat, womit die unter A genannte Voraussetzung automatisch erfüllt ist. Das bedeutet, dass die Nichtoffenlegung der relevanten Informationen es dem Beklagten erheblich erschweren würde, die Kausalitätsvermutung zu widerlegen.






Zeitleiste

Dieser Vorschlag wurde mehr als ein Jahr nach Veröffentlichung des ersten Entwurfs des EU AIA vorgelegt. Einige Kommentatoren sind darüber besorgt, weil ein zersplittertes KI-Regulierungssystem in Europa die Unklarheit erhöhen und zu Regulierungslücken führen könnte. Das ist ein berechtigter Einwand - wenn zwischen dem Inkrafttreten des EU AIA und dem Inkrafttreten der AILD ein erheblicher Abstand besteht, entsteht tatsächlich eine Regulierungslücke. Soweit ersichtlich sieht die Kommission diese Lücke nicht, und die Zeit wird es zeigen. Der Vorschlag befindet sich derzeit zur Prüfung beim Europäischen Rat und muss außerdem noch das Parlament durchlaufen.






Unsere Einschätzung

Dies unterstreicht nachdrücklich, wie wichtig eine detaillierte technische Dokumentation im Zusammenhang mit Ihren KI-Systemen ist. Da die unter der AILD geschaffene Haftungsvermutung widerlegbar ist, könnte eine detaillierte und robuste Dokumentation einen starken Schutzschild gegen etwaige Ansprüche bilden, wonach ein KI-System Schaden verursacht habe.




Bemerkenswert ist auch, dass sich die Kommission auf bestehende verschuldensbasierte Regeln in der gesamten Union stützt, und zwar über Voraussetzung A der oben genannten widerlegbaren Vermutung (es muss also eine bestehende Sorgfaltspflicht nach europäischem oder nationalem Recht verletzt worden sein), anstatt KI-spezifische Fehlertatbestände einzuführen. Die AILD enthält Überprüfungsklauseln, sodass dies womöglich ein Ansatz des „Abwartens und Beobachtens“ ist …




2023 wird ein bedeutendes Jahr für die KI-Regulierung werden. Organisationen, die irgendeine Form von KI entwickeln, die in der EU eingesetzt wird, wären gut beraten, sich jetzt mit diesen Fragen zu befassen und auf Compliance hinzuarbeiten. Enzai wurde von Anwälten gegründet und wird von Anwälten unterstützt, die Experten auf diesem Gebiet sind.

Erfahren Sie mehr über Enzais Lösungen für KI-Governance, KI-Regulierung und EU-KI-Verordnung.

Erkunden Sie mehr

Erkunden Sie mehr

Abonnieren Sie unseren Newsletter

Indem Sie sich anmelden, stimmen Sie der Enzai Datenschutzerklärung zu.

Abonnieren Sie unseren Newsletter

Indem Sie sich anmelden, stimmen Sie der Enzai Datenschutzerklärung zu.

Abonnieren Sie unseren Newsletter

Indem Sie sich anmelden, stimmen Sie der Enzai Datenschutzerklärung zu.

Abonnieren Sie unseren Newsletter

Indem Sie sich anmelden, stimmen Sie der Enzai Datenschutzerklärung zu.

Konformität durch Design

Konformität durch Design

ISO 27001

Enzai ist nach ISO 27001 zertifiziert und ist dies seit 2023. Wir verpflichten uns zu jährlichen Audits, die von NQA durchgeführt werden, und arbeiten eng mit unserem Sicherheitsberatungspartner Instil zusammen, um unsere Sicherheitslage kontinuierlich zu aktualisieren und zu verbessern.

DSGVO

ISO 27001

Enzai ist nach ISO 27001 zertifiziert und ist dies seit 2023. Wir verpflichten uns zu jährlichen Audits, die von NQA durchgeführt werden, und arbeiten eng mit unserem Sicherheitsberatungspartner Instil zusammen, um unsere Sicherheitslage kontinuierlich zu aktualisieren und zu verbessern.

DSGVO

KI-Governance

KI-Governance

Infrastruktur

Infrastruktur

Entwickelt für Vertrauen.

Entwickelt für Vertrauen.

Ermöglichen Sie Ihrer Organisation die Einführung, Steuerung und Überwachung von KI mit unternehmensgerechtem Vertrauen. Entwickelt für regulierte Organisationen, die im großen Maßstab operieren.

Verbinden Sie nahtlos Ihre bestehenden Systeme, Richtlinien und KI-Workflows – alles auf einer einheitlichen Plattform.

Verbinden Sie nahtlos Ihre bestehenden Systeme, Richtlinien und KI-Workflows – alles auf einer einheitlichen Plattform.