Enzai analyse le premier projet de la directive européenne sur la responsabilité en matière d'IA
•
•
5 minutes de lecture
Sujets
Le 28 septembre 2022, la Commission européenne a publié le premier projet de la directive proposée sur la responsabilité en matière d’intelligence artificielle (l’« AILD »). L’objectif de l’AILD est d’établir des règles uniformes relatives à l’accès aux informations et à l’allègement de la charge de la preuve en ce qui concerne les dommages causés par des systèmes d’IA.
L’AILD constitue la dernière initiative d’un mouvement législatif européen plus large visant à créer un écosystème d’IA digne de confiance. Ce paysage comprend également : (1) l’Acte sur l’intelligence artificielle de l’UE (le « EU AIA »), que vous pouvez consulter plus en détail ici ; et (2) une révision de la directive sur la responsabilité du fait des produits, vieille aujourd’hui de 40 ans, qui couvre la responsabilité sans faute des producteurs pour les produits défectueux.
La nécessité
Une enquête de l’UE menée en 2020 a révélé que l’ambiguïté entourant la responsabilité constitue l’un des trois principaux obstacles à l’utilisation de l’IA par les entreprises européennes. Cela n’a rien d’étonnant au regard de la mosaïque actuelle de règles nationales en matière de responsabilité applicables dans l’UE. De nombreux États membres ont adopté des régimes fondés sur la faute, qui exigent des demandeurs qu’ils prouvent qu’un acte ou une omission fautive d’une personne a causé le dommage en question. Toutefois, la nature de « boîte noire » de l’IA (avec son comportement autonome, sa prévisibilité limitée, son adaptation continue et son manque de transparence) rend difficile l’identification de la source de la faute nécessaire pour fonder avec succès une action en responsabilité au titre des régimes existants.
*** Les lecteurs les plus attentifs remarqueront peut-être que l’AILD est une « directive », alors que l’AI Act de l’UE est un « règlement ». Quelle est la différence ? Eh bien, un règlement de l’UE prend effet automatiquement dans tous les États membres. Une directive, en revanche, fixe un objectif que tous les États membres doivent atteindre. Il appartient à chaque État membre de déterminer la meilleure manière d’atteindre cet objectif au moyen de la législation nationale. ***
Les règles
L’AILD introduit deux garanties favorables aux demandeurs que les États membres devront mettre en œuvre : (1) une présomption de causalité ; et (2) un droit à la preuve. Ces mesures aideront les demandeurs à surmonter les difficultés probatoires particulières qui se présentent lors de l’application des règles de responsabilité aux systèmes d’IA.
1. Présomption de causalité
Pour remédier aux difficultés consistant à prouver un lien de causalité dans les cas de préjudice causé par l’IA, l’AILD instaure une présomption réfragable selon laquelle le défendeur est responsable de la faute ou de l’omission produite par son système d’IA défaillant. Cette présomption, qui peut être renversée, ne naît que lorsque les trois conditions suivantes sont réunies :
A - la conduite du défendeur ne respectait pas une obligation de diligence énoncée dans une législation européenne ou nationale spécifiquement destinée à protéger contre le dommage survenu ;
B - il peut être raisonnablement supposé, au vu des circonstances de l’espèce, que la faute du défendeur a influencé la sortie produite par le système d’IA (ou l’incapacité du système d’IA à produire une sortie) ; et
C - le demandeur a démontré que la sortie produite par le système d’IA (ou l’incapacité du système d’IA à produire une sortie) a causé le dommage.
Dans le cas d’un système d’IA à haut risque au titre de l’EU AIA, l’exigence énoncée au point A ci-dessus sera réputée satisfaite automatiquement si le défendeur ne s’est pas conformé à certaines obligations qui lui sont imposées au titre de l’EU AIA. Ces obligations comprennent notamment les exigences en matière de documentation et de surveillance.
2. Droit à la preuve
L’AILD habilite les demandeurs potentiels à obtenir des ordonnances judiciaires exigeant la divulgation d’éléments de preuve pertinents concernant les systèmes d’IA à haut risque. Ces éléments de preuve comprendraient la documentation technique, les journaux de surveillance et toutes les autres exigences de transparence prévues par l’EU AIA. Fait crucial, si le défendeur ne divulgue pas ces informations, il est alors présumé qu’il ne s’est pas acquitté de l’obligation de diligence pertinente en vertu du droit européen ou national, ce qui satisfait automatiquement à l’exigence énoncée au point A ci-dessus. Cela signifie qu’un défaut de divulgation des informations pertinentes rendrait considérablement plus difficile pour le défendeur de renverser la présomption de causalité.
Calendrier
Cette proposition a vu le jour plus d’un an après la publication du premier projet de l’EU AIA. Certains commentateurs s’en inquiètent, car un système européen de réglementation de l’IA fragmenté pourrait accroître l’ambiguïté et créer des lacunes réglementaires. C’est un point légitime - s’il existe un écart important entre l’entrée en vigueur de l’EU AIA et celle de l’AILD, cela laisse effectivement une lacune réglementaire. Pour autant, la Commission ne voit pas cette lacune, et seul l’avenir le dira. Le dossier est actuellement examiné par le Conseil européen, et il doit également encore passer devant le Parlement.
Notre analyse
Cela souligne vraiment l’importance de conserver une documentation technique détaillée relative à vos systèmes d’IA. Comme la présomption de responsabilité créée par l’AILD est réfragable, une documentation détaillée et robuste pourrait constituer un solide rempart contre toute allégation potentielle selon laquelle un système d’IA aurait causé un préjudice.
Il est également intéressant que la Commission ait choisi de s’appuyer sur les règles de faute existantes dans l’ensemble de l’Union, via l’exigence A de la présomption réfragable ci-dessus (une obligation de diligence existante au titre du droit européen ou national doit avoir été violée), plutôt que d’introduire des fautes spécifiques à l’IA. L’AILD comporte des dispositions de réexamen, il s’agit donc peut-être d’une approche consistant à « attendre pour voir »…
2023 s’annonce comme une année déterminante pour la réglementation de l’IA. Les organisations qui développent toute forme d’IA utilisée dans l’UE auraient tout intérêt à commencer dès maintenant à se pencher sur ces enjeux et à œuvrer à la mise en conformité. Enzai a été fondée et soutenue par des avocats experts dans ce domaine.
En savoir plus sur les solutions d’Enzai en matière de gouvernance de l’IA, de réglementation de l’IA et de règlement de l’UE sur l’IA.
Donnez à votre organisation les moyens d'adopter, de gérer et de surveiller l'IA avec une confiance de niveau entreprise. Conçu pour les organisations réglementées opérant à grande échelle.

