Enzai analysiert den ersten Entwurf der EU-Richtlinie zur Haftung für KI
•
•
4 Minuten Lesezeit
Themen
Am 28. September 2022 veröffentlichte die Europäische Kommission den ersten Entwurf der vorgeschlagenen Richtlinie zur Haftung für künstliche Intelligenz (der „AILD“). Der Zweck der AILD besteht darin, einheitliche Regeln für den Zugang zu Informationen und die Erleichterung der Beweislast in Bezug auf Schäden, die durch KI-Systeme verursacht werden, festzulegen.
Die AILD ist das neueste in einer breiteren europäischen Gesetzgebungsinitiative, um ein vertrauenswürdiges KI-Ökosystem zu schaffen. Diese Landschaft umfasst auch: (1) das Gesetz über künstliche Intelligenz (der „EU AIA“), über das Sie hier mehr lesen können; und (2) eine Überarbeitung der mittlerweile 40 Jahre alten Produkthaftungsrichtlinie, die die verschuldensunabhängige Haftung der Hersteller für fehlerhafte Produkte abdeckt.
Der Bedarf
Eine EU-Umfrage aus dem Jahr 2020 ergab, dass Unklarheiten bezüglich der Haftung zu den drei größten Hindernissen für die Nutzung von KI durch europäische Unternehmen gehören. Dies ist nicht überraschend, angesichts des Flickenteppichs nationaler Haftungsregeln, die derzeit in der EU gelten. Viele Mitgliedstaaten haben verschuldensbasierte Regime übernommen, die die Kläger dazu verpflichten, nachzuweisen, dass ein Fehlverhalten oder Unterlassen einer Person den Schaden verursacht hat. Allerdings macht die „Black Box“-Natur der KI (mit ihrem autonomen Verhalten, begrenzten Vorhersagbarkeit, kontinuierlicher Anpassung und fehlender Transparenz) es schwierig, die Quelle des Fehlers zu identifizieren, die notwendig ist, um einen erfolgreichen Haftungsanspruch nach den bestehenden Regelungen zu unterstützen.
*** Aufmerksame Leser könnten bemerken, dass die AILD eine „Richtlinie“ ist, während das EU KI Gesetz eine „Verordnung“ ist. Was ist der Unterschied? Nun, eine EU-Verordnung tritt in allen Mitgliedstaaten automatisch in Kraft. Eine Richtlinie hingegen legt ein Ziel fest, das alle Mitgliedstaaten erreichen müssen. Es liegt am einzelnen Mitgliedstaat zu entscheiden, wie dieses Ziel mit nationaler Gesetzgebung am besten erreicht werden kann. ***
Die Regeln
Die AILD führt zwei Sicherungsmaßnahmen zugunsten der Kläger als Ziele für die Umsetzung durch die Mitgliedstaaten ein: (1) eine Vermutung der Kausalität; und (2) das Recht auf Beweismittel. Diese Maßnahmen werden den Klägern helfen, die einzigartigen Beweismittelherausforderungen zu überwinden, die sich bei der Anwendung von Haftungsregeln auf KI-Systeme ergeben.
1. Vermutung der Kausalität
Um die Schwierigkeiten bei der Beweisführung eines Kausalzusammenhangs in Fällen von Schäden, die durch KI verursacht wurden, zu adressieren, schafft die AILD eine widerlegbare Vermutung, dass der Beklagte für den von seinem fehlerhaften KI-System verursachten Fehler oder das Unterlassen haftet. Diese Vermutung, die widerlegbar ist, tritt nur dann ein, wenn die folgenden drei Bedingungen erfüllt sind:
A - das Verhalten des Beklagten erfüllte eine Sorgfaltspflicht nicht, die in europäischen oder nationalen Rechtsvorschriften speziell zum Schutz vor den eingetretenen Schäden festgelegt ist;
B - es kann vernünftigerweise angenommen werden, basierend auf den Umständen des Falls, dass der Fehler des Beklagten das von dem KI-System erzeugte Ergebnis beeinflusst hat (oder das Versagen des KI-Systems, ein Ergebnis zu erzeugen); und
C - die Kläger haben nachgewiesen, dass das von dem KI-System erzeugte Ergebnis (oder das Versagen des KI-Systems, ein Ergebnis zu erzeugen) den Schaden verursacht hat.
Im Falle eines Hochrisiko-KI-Systems gemäß dem EU AIA wird die oben unter A festgelegte Anforderung automatisch als erfüllt angesehen, wenn der Beklagte bestimmte ihm auferlegte Verpflichtungen gemäß dem EU AIA nicht eingehalten hat. Diese Verpflichtungen umfassen unter anderem die Dokumentations- und Überwachungsanforderungen.
2. Recht auf Beweismittel
Die AILD ermächtigt potenzielle Kläger, gerichtliche Anordnungen zu erhalten, die die Offenlegung von relevanten Beweismitteln in Bezug auf Hochrisiko-KI-Systeme erfordern. Solche Beweismittel würden aus der technischen Dokumentation, den Überwachungsprotokollen und allen anderen Transparenzanforderungen gemäß dem EU AIA bestehen. Entscheidend ist, dass, wenn der Beklagte diese Informationen nicht offenlegt, angenommen wird, dass er die relevante Sorgfaltspflicht nach europäischem oder nationalem Recht nicht erfüllt hat, was automatisch die oben unter A festgelegte Anforderung erfüllt. Dies bedeutet, dass ein Versäumnis, die relevanten Informationen offenzulegen, es für den Beklagten erheblich schwieriger machen würde, die Vermutung der Kausalität zu entkräften.
Zeitplan
Dieser Vorschlag entstand mehr als ein Jahr nach der Veröffentlichung des ersten Entwurfs der EU AIA. Einige Kommentatoren sind darüber besorgt, da ein uneinheitliches KI-Regulierungssystem in Europa die Unklarheit erhöhen und zu regulatorischen Lücken führen könnte. Es ist ein berechtigter Punkt - wenn es eine erhebliche Lücke zwischen dem Inkrafttreten der EU AIA und dem Inkrafttreten der AILD gibt, bleibt eine regulatorische Lücke. FWIW sieht die Kommission diese Lücke nicht und nur die Zeit wird es zeigen. Derzeit befindet es sich im Europäischen Rat zur Prüfung und muss auch seinen Weg durch das Parlament machen.
Unsere Meinung
Das unterstreicht wirklich die Bedeutung, detaillierte technische Dokumentationen in Verbindung mit Ihren KI-Systemen zu führen. Da die Vermutung der Haftung, die unter der AILD geschaffen wurde, widerlegbar ist, könnten detaillierte und robuste Dokumentationen ein starkes Schutzschild gegen potenzielle Ansprüche darstellen, dass ein KI-System Schaden verursacht hat.
Es ist auch interessant, dass die Kommission beschlossen hat, sich auf bestehende verschuldensbasierte Regeln in der Union zu stützen, durch die Anforderung A der widerlegbaren Vermutung oben (eine bestehende Sorgfaltspflicht nach europäischem oder nationalem Recht muss verletzt worden sein), anstatt KI-spezifische Fehler einzuführen. Die AILD enthält Überprüfungsklauseln, daher ist dies vielleicht ein ‚Wir-warten-und-sehen‘…
2023 wird ein großes Jahr für die KI-Regulierung sein. Organisationen, die irgendeine Art von KI in der EU entwickeln, sollten gut beraten sein, jetzt über diese Themen nachzudenken und auf Konformität hinzuarbeiten. Enzai wurde von Anwälten gegründet und unterstützt, die Experten auf diesem Gebiet sind.
Lesen Sie mehr über Enzais KI-Governance, KI-Regulierung und EU-KI-Gesetz Lösungen.
Ermöglichen Sie Ihrer Organisation die Einführung, Steuerung und Überwachung von KI mit unternehmensgerechtem Vertrauen. Entwickelt für regulierte Organisationen, die im großen Maßstab operieren.

