Enzai analysiert den ersten Entwurf der EU-Richtlinie zur Haftung für KI
•
•
5 Minuten Lesezeit
Themen
Am 28. September 2022 veröffentlichte die Europäische Kommission den ersten Entwurf der vorgeschlagenen Richtlinie über die Haftung für künstliche Intelligenz (Artificial Intelligence Liability Directive, „AILD“). Ziel der AILD ist es, einheitliche Regeln für den Zugang zu Informationen und die Erleichterung der Beweislast in Bezug auf durch KI-Systeme verursachte Schäden festzulegen.
Die AILD ist der jüngste Baustein einer breiteren europäischen Gesetzgebungsinitiative zur Schaffung eines vertrauenswürdigen KI-Ökosystems. Diese Landschaft umfasst außerdem: (1) den Artificial Intelligence Act („EU AIA“), über den Sie hier mehr lesen können; und (2) eine Überarbeitung der mittlerweile 40 Jahre alten Produkthaftungsrichtlinie, die die verschuldensunabhängige Haftung der Hersteller für fehlerhafte Produkte regelt.
Die Notwendigkeit
Eine EU-Umfrage aus dem Jahr 2020 ergab, dass Unklarheit hinsichtlich der Haftung eines der drei größten Hindernisse für den Einsatz von KI durch europäische Unternehmen ist. Das überrascht nicht angesichts des derzeit in der EU geltenden Flickenteppichs nationaler Haftungsregeln. Viele Mitgliedstaaten haben verschuldensbasierte Systeme eingeführt, die von den Anspruchstellern verlangen, nachzuweisen, dass die rechtswidrige Handlung oder Unterlassung einer Person den betreffenden Schaden verursacht hat. Die „Black-Box“-Natur von KI (mit ihrem autonomen Verhalten, ihrer begrenzten Vorhersehbarkeit, ihrer kontinuierlichen Anpassung und ihrem Mangel an Transparenz) erschwert es jedoch, die Quelle des Verschuldens zu identifizieren, die erforderlich ist, um einen erfolgreichen Haftungsanspruch nach den bestehenden Regelungen zu stützen.
*** Aufmerksamen Leserinnen und Lesern fällt vielleicht auf, dass die AILD eine "Richtlinie" ist, während der EU AI Act eine "Verordnung" ist. Worin liegt der Unterschied? Nun, eine EU-Verordnung gilt automatisch in allen Mitgliedstaaten. Eine Richtlinie hingegen legt ein Ziel fest, das alle Mitgliedstaaten erreichen müssen. Es liegt am jeweiligen Mitgliedstaat zu entscheiden, wie dieses Ziel mithilfe nationaler Rechtsvorschriften am besten erreicht wird. ***
Die Regeln
Die AILD führt zwei klägerfreundliche Schutzmechanismen als Ziele ein, die von den Mitgliedstaaten umzusetzen sind: (1) eine Vermutung der Kausalität und (2) ein Recht auf Beweiserhebung. Diese Maßnahmen werden den Klägern helfen, die besonderen Beweisanforderungen zu bewältigen, die sich bei der Anwendung von Haftungsregeln auf KI-Systeme ergeben.
1. Vermutung der Kausalität
Um die Schwierigkeiten beim Nachweis eines Kausalzusammenhangs in Fällen von durch KI verursachten Schäden zu adressieren, schafft die AILD eine widerlegbare Vermutung, dass der Beklagte für das von seinem fehlerhaft funktionierenden KI-System verursachte Verschulden oder die Unterlassung haftet. Diese Vermutung, die widerlegbar ist, greift nur, wenn die folgenden drei Voraussetzungen erfüllt sind:
A - das Verhalten des Beklagten erfüllte nicht eine Sorgfaltspflicht, die in europäischem oder nationalem Recht festgelegt ist und speziell dazu bestimmt ist, vor dem eingetretenen Schaden zu schützen;
B - es kann unter den Umständen des Einzelfalls vernünftigerweise angenommen werden, dass das Verschulden des Beklagten den vom KI-System erzeugten Output (oder das Ausbleiben eines Outputs des KI-Systems) beeinflusst hat; und
C - der Kläger hat nachgewiesen, dass der vom KI-System erzeugte Output (oder das Ausbleiben eines Outputs des KI-Systems) den Schaden verursacht hat.
Im Falle eines Hochrisiko-KI-Systems nach dem EU AIA gilt die unter A genannte Voraussetzung automatisch als erfüllt, wenn der Beklagte bestimmte Verpflichtungen nicht eingehalten hat, die ihm nach dem EU AIA auferlegt werden. Zu diesen Verpflichtungen gehören unter anderem die Dokumentations- und die Überwachungspflichten.
2. Recht auf Beweiserhebung
Die AILD ermächtigt potenzielle Kläger, gerichtliche Anordnungen zu erwirken, die die Offenlegung relevanter Beweismittel in Bezug auf Hochrisiko-KI-Systeme verlangen. Zu diesen Beweismitteln gehören die technische Dokumentation, die Überwachungsprotokolle und alle weiteren Transparenzanforderungen nach dem EU AIA. Entscheidend ist: Wenn der Beklagte diese Informationen nicht offenlegt, wird davon ausgegangen, dass er die einschlägige Sorgfaltspflicht nach europäischem oder nationalem Recht nicht erfüllt hat, womit die unter A genannte Voraussetzung automatisch erfüllt ist. Das bedeutet, dass die Nichtoffenlegung der relevanten Informationen es dem Beklagten erheblich erschweren würde, die Kausalitätsvermutung zu widerlegen.
Zeitplan
Dieser Vorschlag wurde mehr als ein Jahr nach Veröffentlichung des ersten Entwurfs des EU AIA vorgelegt. Einige Kommentatoren sehen das mit Sorge, denn ein zersplittertes KI-Regulierungssystem in Europa könnte die Unklarheit verstärken und zu Regulierungslücken führen. Das ist ein berechtigter Punkt – wenn zwischen dem Inkrafttreten des EU AIA und dem Inkrafttreten der AILD eine erhebliche Lücke besteht, entsteht tatsächlich eine Regulierungslücke. Die Kommission sieht diese Lücke jedoch nicht, und nur die Zeit wird es zeigen. Der Vorschlag liegt derzeit dem Europäischen Rat zur Prüfung vor und muss außerdem noch das Parlament durchlaufen.
Unsere Einschätzung
Dies unterstreicht einmal mehr, wie wichtig es ist, im Zusammenhang mit Ihren KI-Systemen eine detaillierte technische Dokumentation zu führen. Da die nach der AILD geschaffene Haftungsvermutung widerlegbar ist, kann eine detaillierte und robuste Dokumentation einen starken Schutzschild gegen potenzielle Ansprüche bilden, dass ein KI-System einen Schaden verursacht hat.
Bemerkenswert ist auch, dass sich die Kommission über die unter Punkt A genannte widerlegbare Vermutung auf bestehende verschuldensbasierte Regeln in der gesamten Union stützt (es muss also eine bestehende Sorgfaltspflicht nach europäischem oder nationalem Recht verletzt worden sein), anstatt KI-spezifische Verschuldensmaßstäbe einzuführen. Die AILD enthält Überprüfungsklauseln, also gilt vielleicht auch hier: abwarten und sehen …
2023 wird ein großes Jahr für die KI-Regulierung. Organisationen, die jegliche Art von KI entwickeln, die in der EU eingesetzt wird, sollten gut daran tun, sich jetzt mit diesen Fragen zu befassen und auf Compliance hinzuarbeiten. Enzai wurde von Anwälten gegründet und unterstützt, die Experten auf diesem Gebiet sind.
Enzai ist die führende Enterprise-KI-Governance-Plattform, die speziell entwickelt wurde, um Unternehmen beim Übergang von abstrakter Richtlinienarbeit zu operativer Aufsicht zu unterstützen. Unsere KI-Risikomanagement-Plattform bietet die spezialisierte Infrastruktur, die erforderlich ist, um agentische KI-Governance zu steuern, ein umfassendes KI-Inventar zu führen und die Einhaltung des EU AI Act sicherzustellen. Durch die Automatisierung komplexer Workflows ermöglicht Enzai Unternehmen, die Einführung von KI mit Zuversicht zu skalieren und gleichzeitig die Ausrichtung an globalen Standards wie ISO 42001 und NIST aufrechtzuerhalten.
Ermöglichen Sie Ihrer Organisation die Einführung, Steuerung und Überwachung von KI mit unternehmensgerechtem Vertrauen. Entwickelt für regulierte Organisationen, die im großen Maßstab operieren.

