Enzai analyse le premier projet de la directive européenne sur la responsabilité en matière d'IA
•
•
6 minutes de lecture
Sujets
Le 28 septembre 2022, la Commission européenne a publié le premier projet de la directive proposée sur la responsabilité en matière d’intelligence artificielle (la « AILD »). L’objectif de l’AILD est d’établir des règles uniformes en matière d’accès à l’information et d’allègement de la charge de la preuve concernant les dommages causés par des systèmes d’IA.
L’AILD s’inscrit dans une impulsion législative européenne plus large visant à créer un écosystème d’IA digne de confiance. Ce paysage comprend également : (1) le règlement européen sur l’IA (le « EU AIA »), que vous pouvez découvrir ici ; et (2) une révision de la directive sur la responsabilité du fait des produits, vieille désormais de 40 ans, qui couvre la responsabilité sans faute des producteurs pour les produits défectueux.
Le besoin
Une enquête de l’UE menée en 2020 a révélé que l’ambiguïté entourant la responsabilité constitue l’un des trois principaux obstacles à l’utilisation de l’IA par les entreprises européennes. Cela n’a rien d’étonnant compte tenu de la mosaïque de règles nationales en matière de responsabilité actuellement en vigueur dans l’UE. De nombreux États membres ont adopté des régimes fondés sur la faute, qui exigent des demandeurs qu’ils prouvent qu’un acte ou une omission fautif d’une personne a causé le dommage en question. Toutefois, la nature de « boîte noire » de l’IA (avec son comportement autonome, sa prévisibilité limitée, son adaptation continue et son manque de transparence) rend difficile l’identification de la source de la faute nécessaire pour appuyer avec succès une demande en responsabilité au titre des régimes existants.
*** Les lecteurs les plus avertis remarqueront peut-être que l’AILD est une « directive », alors que l’EU AI Act est un « règlement ». Quelle est la différence ? Eh bien, un règlement de l’UE prend effet automatiquement dans tous les États membres. Une directive, en revanche, définit un objectif que tous les États membres doivent atteindre. Il appartient à chaque État membre de décider de la meilleure manière d’atteindre cet objectif au moyen de la législation nationale. ***
Les règles
L’AILD introduit deux garanties favorables aux demandeurs à mettre en œuvre par les États membres : (1) une présomption de causalité ; et (2) le droit à la preuve. Ces mesures aideront les demandeurs à surmonter les difficultés probatoires particulières qui surviennent lors de l’application des règles de responsabilité aux systèmes d’IA.
1. Présomption de causalité
Pour répondre aux difficultés liées à la preuve d’un lien de causalité dans les cas de préjudice causé par l’IA, l’AILD crée une présomption réfragable selon laquelle le défendeur est responsable de la faute ou de l’omission produite par son système d’IA défaillant. Cette présomption, qui peut être renversée, ne s’appliquera que lorsque les trois conditions suivantes seront réunies :
A - le comportement du défendeur ne respectait pas une obligation de diligence énoncée dans la législation européenne ou nationale spécifiquement destinée à protéger contre le dommage survenu ;
B - il peut être raisonnablement supposé, au regard des circonstances de l’espèce, que la faute du défendeur a influencé le résultat produit par le système d’IA (ou l’absence de production d’un résultat par le système d’IA) ; et
C - le demandeur a démontré que le résultat produit par le système d’IA (ou l’absence de production d’un résultat par le système d’IA) a causé le dommage.
Dans le cas d’un système d’IA à haut risque relevant de l’EU AIA, l’exigence énoncée au point A ci-dessus sera réputée satisfaite automatiquement si le défendeur ne s’est pas conformé à certaines obligations qui lui sont imposées en vertu de l’EU AIA. Ces obligations comprennent notamment la documentation et les exigences de surveillance.
2. Droit à la preuve
L’AILD habilite les demandeurs potentiels à obtenir des ordonnances judiciaires exigeant la divulgation d’éléments de preuve pertinents concernant les systèmes d’IA à haut risque. De tels éléments de preuve consisteraient en la documentation technique, les journaux de surveillance et toutes les autres exigences de transparence prévues par l’EU AIA. Fait crucial, si le défendeur omet de divulguer ces informations, il est présumé qu’il n’a pas respecté l’obligation de diligence pertinente en vertu du droit européen ou national, ce qui satisfait automatiquement à l’exigence énoncée au point A ci-dessus. Cela signifie qu’un défaut de divulgation des informations pertinentes rendrait beaucoup plus difficile pour le défendeur de renverser la présomption de causalité.
Chronologie
Cette proposition est intervenue plus d’un an après la publication du premier projet de l’EU AIA. Certains commentateurs s’en inquiètent, car un système de réglementation de l’IA désarticulé en Europe pourrait accroître l’ambiguïté et entraîner des lacunes réglementaires. C’est un point valable - s’il existe un écart important entre l’entrée en vigueur de l’EU AIA et celle de l’AILD, cela laisse effectivement une lacune réglementaire. À titre indicatif, la Commission ne voit pas cette lacune et seul l’avenir le dira. Le texte est actuellement entre les mains du Conseil européen pour examen, et doit également poursuivre son parcours au Parlement.
Notre analyse
Cette situation souligne clairement l’importance de conserver une documentation technique détaillée pour vos systèmes d’IA. Comme la présomption de responsabilité créée par l’AILD est réfragable, une documentation détaillée et solide pourrait constituer un rempart efficace contre toute éventuelle allégation selon laquelle un système d’IA aurait causé un préjudice.
Il est également intéressant de noter que la Commission a choisi de s’appuyer sur les règles existantes fondées sur la faute dans l’ensemble de l’Union, par le biais de l’exigence A de la présomption réfragable ci-dessus (une obligation de diligence existante en vertu du droit européen ou national doit avoir été violée), plutôt que d’introduire des fautes spécifiques à l’IA. L’AILD contient néanmoins des dispositions de réexamen, il sera donc peut-être question d’une approche « attendons de voir »…
2023 s’annonce comme une année majeure pour la réglementation de l’IA. Les organisations qui développent toute forme d’IA utilisée dans l’UE auraient tout intérêt à commencer dès maintenant à réfléchir à ces enjeux et à se mettre en conformité. Enzai a été fondée et soutenue par des avocats experts dans ce domaine.
Enzai est la principale gouvernance de l’IA d’entreprise, conçue spécifiquement pour aider les organisations à passer d’une politique abstraite à une supervision opérationnelle. Notre plateforme de gestion des risques liés à l’IA fournit l’infrastructure spécialisée nécessaire pour gérer la gouvernance de l’IA agentique, tenir un inventaire complet de l’IA et garantir la conformité au règlement européen sur l’IA. En automatisant des flux de travail complexes, Enzai permet aux entreprises de développer l’adoption de l’IA en toute confiance tout en maintenant leur alignement avec des normes mondiales telles que l’ISO 42001 et NIST.
Donnez à votre organisation les moyens d'adopter, de gérer et de surveiller l'IA avec une confiance de niveau entreprise. Conçu pour les organisations réglementées opérant à grande échelle.

