Enzai analyse le premier projet de la directive européenne sur la responsabilité en matière d'IA
•
•
5 minutes de lecture
Sujets
Le 28 septembre 2022, la Commission européenne a publié le premier projet de la directive sur la responsabilité en matière d'intelligence artificielle proposée (le « AILD »). Le but de l'AILD est d'établir des règles uniformes pour l'accès à l'information et l'allègement de la charge de la preuve en relation avec les dommages causés par les systèmes d'IA.
L'AILD s'inscrit dans une démarche législative européenne plus large visant à créer un écosystème d'IA de confiance. Ce paysage comprend également : (1) la Loi sur l'intelligence artificielle (le « AI de l'UE »), que vous pouvez lire plus en détail ici ; et (2) une révision de la directive sur la responsabilité du fait des produits, vieille de 40 ans, qui couvre la responsabilité sans faute des producteurs pour les produits défectueux.
Le besoin
Une enquête de l'UE en 2020 a révélé que l'ambiguïté autour de la responsabilité est l'une des trois principales barrières à l'utilisation de l'IA par les entreprises européennes. Cela n’est guère surprenant compte tenu du patchwork de règles de responsabilité nationales actuellement en place dans l'UE. De nombreux États membres ont adopté des régimes fondés sur la faute qui exigent des demandeurs qu'ils prouvent qu'un acte ou une omission fautif d'un individu a causé le dommage en question. Cependant, la nature « boîte noire » de l'IA (avec son comportement autonome, sa prédictibilité limitée, son adaptation continue et son manque de transparence) rend difficile l'identification de la source de la faute nécessaire pour soutenir une réclamation de responsabilité réussie dans les régimes actuels.
*** Les lecteurs attentifs remarqueront peut-être que l'AILD est une "Directive", tandis que la loi européenne sur l'IA est un « Règlement ». Quelle est la différence ? Eh bien, un règlement de l'UE prend effet automatiquement dans tous les États membres. Une directive, en revanche, fixe un objectif que tous les États membres doivent atteindre. Il appartient à chaque État membre de décider comment atteindre au mieux cet objectif avec une législation nationale. ***
Les règles
L'AILD introduit deux mesures de protection pro-demandeurs comme objectifs pour les États membres : (1) une présomption de causalité ; et (2) le droit à la preuve. Ces mesures aideront les demandeurs à surmonter les défis probatoires uniques qui surviennent lors de l'application des règles de responsabilité aux systèmes d'IA.
1. Présomption de causalité
Pour répondre aux difficultés de prouver un lien de causalité dans les cas de préjudice causé par l'IA, l'AILD crée une présomption réfragable que le défendeur est responsable de la faute ou de l'omission produite par leur système d'IA défaillant. Cette présomption, qui est réfutable, ne se produira que lorsque les trois conditions suivantes sont remplies :
A - le comportement du défendeur n'a pas respecté un devoir de diligence prévu par la législation européenne ou nationale spécifiquement destinée à protéger contre le dommage survenu ;
B - il peut être raisonnablement supposé, en fonction des circonstances de l'affaire, que la faute du défendeur a influencé le résultat produit par le système d'IA (ou l'échec du système d'IA à produire un résultat) ; et
C - le demandeur a démontré que le résultat produit par le système d'IA (ou l'échec du système d'IA à produire un résultat) a causé le dommage.
Dans le cas d'un système d'IA à haut risque en vertu de l'AI de l'UE, l'exigence énoncée au point A ci-dessus sera considérée comme automatiquement satisfaite si le défendeur n'a pas respecté certaines obligations qui leur sont imposées par l'AI de l'UE. Ces obligations comprennent, entre autres, la documentation et les exigences de surveillance.
2. Droit à la preuve
L'AILD habilite les demandeurs potentiels à obtenir des ordonnances judiciaires exigeant la divulgation de preuves pertinentes concernant les systèmes d'IA à haut risque. Ce type de preuve comprendrait la documentation technique, les journaux de surveillance et toutes autres exigences de transparence prévues par l'AI de l'UE. De manière cruciale, si le défendeur ne divulgue pas ces informations, il est supposé qu'il n'a pas respecté le devoir de diligence pertinent en vertu du droit européen ou national, ce qui satisfait automatiquement à l'exigence énoncée au point A ci-dessus. Cela signifie qu'un défaut de divulgation des informations pertinentes rendrait considérablement plus difficile pour le défendeur de surmonter la présomption de causalité.
Calendrier
Cette proposition a vu le jour plus d'un an après la publication du premier projet de l'AI de l'UE. Certains commentateurs s'en inquiètent, car un système réglementaire d'IA mal articulé en Europe pourrait accroître l'ambiguïté et entraîner des lacunes réglementaires. C’est un point valable - s’il y a un écart significatif entre l'entrée en vigueur de l'AI de l'UE et l'entrée en vigueur de l'AILD, cela laisse un vide réglementaire. Pour ce que ça vaut, la Commission ne voit pas cet écart et seul le temps nous le dira. Cela se trouve actuellement avec le Conseil européen pour examen, et doit également parcourir le Parlement.
Notre avis
Ceci souligne vraiment l'importance de maintenir une documentation technique détaillée en relation avec vos systèmes d'IA. Comme la présomption de responsabilité créée par l'AILD est réfutable, une documentation détaillée et robuste pourrait constituer un rempart solide pour se protéger contre toute réclamation potentielle selon laquelle un système d'IA a causé un préjudice.
Il est également intéressant de noter que la Commission a choisi de s'appuyer sur les règles de responsabilité basées sur la faute déjà existantes au sein de l'Union, au moyen de l'exigence A de la présomption réfragable ci-dessus (un devoir de diligence existant en vertu du droit européen ou national doit avoir été violé), plutôt que d'introduire des fautes spécifiques à l'IA. L'AILD contient des dispositions de révision, donc peut-être est-ce un « attendons de voir »…
2023 va être une année importante pour la réglementation de l'IA. Les organisations construisant tout type d'IA utilisée dans l'UE seraient bien avisées de commencer à réfléchir à ces questions dès maintenant et de travailler vers la conformité. Enzai a été fondée et soutenue par des avocats qui sont des experts dans ce domaine.
En savoir plus sur les solutions d'Gouvernance de l'IAd'Enzai, de Réglementation de l'IA et de l'AI de l'UE.
Donnez à votre organisation les moyens d'adopter, de gérer et de surveiller l'IA avec une confiance de niveau entreprise. Conçu pour les organisations réglementées opérant à grande échelle.

