Enzai analysiert den ersten Entwurf der EU-Richtlinie zur Haftung für KI
•
•
4 Minuten Lesezeit
Themen
Am 28. September 2022 veröffentlichte die Europäische Kommission den ersten Entwurf der vorgeschlagenen Richtlinie über die Haftung für Künstliche Intelligenz (die „AILD“). Der Zweck der AILD besteht darin, einheitliche Regeln für den Zugang zu Informationen und die Entlastung von der Beweislast in Bezug auf Schäden festzulegen, die durch KI-Systeme verursacht werden.
Die AILD ist das jüngste Element einer umfassenderen europäischen Gesetzgebungsinitiative zur Schaffung eines vertrauenswürdigen KI-Ökosystems. Zu dieser Landschaft gehören außerdem: (1) das Gesetz über Künstliche Intelligenz (das „EU AIA“), über das Sie hier mehr lesen können; und (2) eine Überarbeitung der inzwischen 40 Jahre alten Produkthaftungsrichtlinie, die die verschuldensunabhängige Haftung der Hersteller für fehlerhafte Produkte regelt.
Die Notwendigkeit
Eine EU-Umfrage aus dem Jahr 2020 ergab, dass Unklarheit in Bezug auf die Haftung zu den drei größten Hindernissen für den Einsatz von KI durch europäische Unternehmen gehört. Das überrascht angesichts des Flickenteppichs nationaler Haftungsregeln, der derzeit in der EU gilt, nicht. Viele Mitgliedstaaten haben verschuldensbasierte Regelungen eingeführt, nach denen Anspruchsteller nachweisen müssen, dass eine rechtswidrige Handlung oder Unterlassung einer Person den fraglichen Schaden verursacht hat. Die „Black-Box“-Natur von KI (mit ihrem autonomen Verhalten, ihrer begrenzten Vorhersehbarkeit, ihrer fortlaufenden Anpassung und ihrem Mangel an Transparenz) erschwert jedoch die Identifizierung der Fehlerquelle, die für einen erfolgreichen Haftungsanspruch nach den bestehenden Regelungen erforderlich ist.
*** Aufmerksame Leserinnen und Leser werden vielleicht feststellen, dass die AILD eine „Richtlinie“ ist, während der EU AI Act eine „Verordnung“ ist. Worin besteht der Unterschied? Nun, eine EU-Verordnung tritt in allen Mitgliedstaaten automatisch in Kraft. Eine Richtlinie hingegen legt ein Ziel fest, das alle Mitgliedstaaten erreichen müssen. Es obliegt dem einzelnen Mitgliedstaat zu entscheiden, wie dieses Ziel mithilfe nationaler Rechtsvorschriften am besten erreicht werden kann. ***
Die Regeln
Mit der AILD werden zwei anspruchstellerfreundliche Schutzmechanismen als Ziele eingeführt, die die Mitgliedstaaten umsetzen sollen: (1) eine Kausalitätsvermutung; und (2) ein Recht auf Beweismittel. Diese Maßnahmen werden den Anspruchstellern helfen, die besonderen beweisrechtlichen Herausforderungen zu bewältigen, die bei der Anwendung von Haftungsregeln auf KI-Systeme entstehen.
1. Vermutung der Kausalität
Um die Schwierigkeiten beim Nachweis eines Kausalzusammenhangs in Fällen von durch KI verursachten Schäden zu adressieren, schafft die AILD eine widerlegbare Vermutung, wonach der Beklagte für den Fehler oder das Unterlassen haftet, das durch sein fehlerhaft funktionierendes KI-System verursacht wurde. Diese Vermutung, die widerlegt werden kann, greift nur, wenn die folgenden drei Voraussetzungen erfüllt sind:
A - das Verhalten des Beklagten entsprach nicht einer Sorgfaltspflicht, die in europäischen oder nationalen Rechtsvorschriften festgelegt ist und speziell dazu bestimmt war, vor dem eingetretenen Schaden zu schützen;
B - es kann unter den Umständen des Einzelfalls vernünftigerweise angenommen werden, dass der Fehler des Beklagten das vom KI-System erzeugte Ergebnis (oder das Ausbleiben eines Ergebnisses des KI-Systems) beeinflusst hat; und
C - der Anspruchsteller hat nachgewiesen, dass das vom KI-System erzeugte Ergebnis (oder das Ausbleiben eines Ergebnisses des KI-Systems) den Schaden verursacht hat.
Im Fall eines Hochrisiko-KI-Systems nach dem EU AIA gilt die unter A genannte Voraussetzung automatisch als erfüllt, wenn der Beklagte bestimmte Verpflichtungen, die ihm nach dem EU AIA auferlegt sind, nicht eingehalten hat. Zu diesen Verpflichtungen gehören unter anderem die Dokumentations- und Überwachungspflichten.
2. Recht auf Beweismittel
Die AILD versetzt potenzielle Anspruchsteller in die Lage, gerichtliche Anordnungen zu erwirken, die die Offenlegung relevanter Beweismittel in Bezug auf Hochrisiko-KI-Systeme verlangen. Zu diesen Beweismitteln würden die technische Dokumentation, die Überwachungsprotokolle und alle sonstigen Transparenzanforderungen nach dem EU AIA gehören. Entscheidend ist: Wenn der Beklagte diese Informationen nicht offenlegt, wird angenommen, dass er die einschlägige Sorgfaltspflicht nach europäischem oder nationalem Recht nicht erfüllt hat, womit die unter A genannte Voraussetzung automatisch erfüllt ist. Das bedeutet, dass die Nichtoffenlegung der relevanten Informationen es dem Beklagten erheblich erschweren würde, die Kausalitätsvermutung zu widerlegen.
Zeitleiste
Dieser Vorschlag wurde mehr als ein Jahr nach Veröffentlichung des ersten Entwurfs des EU AIA vorgelegt. Einige Kommentatoren sind darüber besorgt, weil ein zersplittertes KI-Regulierungssystem in Europa die Unklarheit erhöhen und zu Regulierungslücken führen könnte. Das ist ein berechtigter Einwand - wenn zwischen dem Inkrafttreten des EU AIA und dem Inkrafttreten der AILD ein erheblicher Abstand besteht, entsteht tatsächlich eine Regulierungslücke. Soweit ersichtlich sieht die Kommission diese Lücke nicht, und die Zeit wird es zeigen. Der Vorschlag befindet sich derzeit zur Prüfung beim Europäischen Rat und muss außerdem noch das Parlament durchlaufen.
Unsere Einschätzung
Dies unterstreicht nachdrücklich, wie wichtig eine detaillierte technische Dokumentation im Zusammenhang mit Ihren KI-Systemen ist. Da die unter der AILD geschaffene Haftungsvermutung widerlegbar ist, könnte eine detaillierte und robuste Dokumentation einen starken Schutzschild gegen etwaige Ansprüche bilden, wonach ein KI-System Schaden verursacht habe.
Bemerkenswert ist auch, dass sich die Kommission auf bestehende verschuldensbasierte Regeln in der gesamten Union stützt, und zwar über Voraussetzung A der oben genannten widerlegbaren Vermutung (es muss also eine bestehende Sorgfaltspflicht nach europäischem oder nationalem Recht verletzt worden sein), anstatt KI-spezifische Fehlertatbestände einzuführen. Die AILD enthält Überprüfungsklauseln, sodass dies womöglich ein Ansatz des „Abwartens und Beobachtens“ ist …
2023 wird ein bedeutendes Jahr für die KI-Regulierung werden. Organisationen, die irgendeine Form von KI entwickeln, die in der EU eingesetzt wird, wären gut beraten, sich jetzt mit diesen Fragen zu befassen und auf Compliance hinzuarbeiten. Enzai wurde von Anwälten gegründet und wird von Anwälten unterstützt, die Experten auf diesem Gebiet sind.
Erfahren Sie mehr über Enzais Lösungen für KI-Governance, KI-Regulierung und EU-KI-Verordnung.
Ermöglichen Sie Ihrer Organisation die Einführung, Steuerung und Überwachung von KI mit unternehmensgerechtem Vertrauen. Entwickelt für regulierte Organisationen, die im großen Maßstab operieren.

