Découvrez la gamme complète de produits de gouvernance de l'IA d'Enzai, conçus pour aider les organisations à gérer, surveiller et faire évoluer l'IA en toute confiance. Des processus d'intégration structurés et des inventaires centralisés d'IA aux évaluations automatisées et à la surveillance en temps réel, Enzai fournit les éléments nécessaires pour intégrer la gouvernance directement dans les flux de travail quotidiens de l'IA, sans freiner l'innovation.

Enzai

Réglementations sur l'IA

La Directive sur la Responsabilité de l'IA - Un Plan pour la Responsabilisation de l'IA en Europe

Réglementations sur l'IA

La Directive sur la Responsabilité de l'IA - Un Plan pour la Responsabilisation de l'IA en Europe

Réglementations sur l'IA

La Directive sur la Responsabilité de l'IA - Un Plan pour la Responsabilisation de l'IA en Europe

Enzai analyse le premier projet de la directive européenne sur la responsabilité en matière d'IA

Belfast

Belfast

5 minutes de lecture

Par

Par

Ryan Donnelly

Ryan Donnelly

Surmonter le défi de la « boîte noire »

Surmonter le défi de la « boîte noire »

Le bouclier de la documentation

Le bouclier de la documentation

La proposition de directive de l’UE sur la responsabilité liée à l’IA (AILD) introduit des règles uniformes afin d’aider les demandeurs à surmonter les obstacles probatoires, en établissant notamment une présomption de causalité et un droit d’accès aux éléments de preuve dans le cadre des demandes d’indemnisation pour dommages causés par l’IA.

La proposition de directive de l’UE sur la responsabilité liée à l’IA (AILD) introduit des règles uniformes afin d’aider les demandeurs à surmonter les obstacles probatoires, en établissant notamment une présomption de causalité et un droit d’accès aux éléments de preuve dans le cadre des demandes d’indemnisation pour dommages causés par l’IA.

Pour réfuter ces strictes présomptions de responsabilité, les organisations doivent conserver une documentation technique rigoureuse ainsi que des journaux de surveillance, car le non-respect des obligations de l’AI Act de l’UE déclenche automatiquement une faute au titre de la directive.

Pour réfuter ces strictes présomptions de responsabilité, les organisations doivent conserver une documentation technique rigoureuse ainsi que des journaux de surveillance, car le non-respect des obligations de l’AI Act de l’UE déclenche automatiquement une faute au titre de la directive.

Sujets

Réglementation européenne sur l'IA
Conseils pour le DPD
Préparation à la conformité
Pratiques de gouvernance

Sujets

Le 28 septembre 2022, la Commission européenne a publié le premier projet de la directive proposée sur la responsabilité en matière d’intelligence artificielle (l’« AILD »). L’objectif de l’AILD est d’établir des règles uniformes relatives à l’accès aux informations et à l’allègement de la charge de la preuve en ce qui concerne les dommages causés par des systèmes d’IA.




L’AILD constitue la dernière initiative d’un mouvement législatif européen plus large visant à créer un écosystème d’IA digne de confiance. Ce paysage comprend également : (1) l’Acte sur l’intelligence artificielle de l’UE (le « EU AIA »), que vous pouvez consulter plus en détail ici ; et (2) une révision de la directive sur la responsabilité du fait des produits, vieille aujourd’hui de 40 ans, qui couvre la responsabilité sans faute des producteurs pour les produits défectueux.






La nécessité

Une enquête de l’UE menée en 2020 a révélé que l’ambiguïté entourant la responsabilité constitue l’un des trois principaux obstacles à l’utilisation de l’IA par les entreprises européennes. Cela n’a rien d’étonnant au regard de la mosaïque actuelle de règles nationales en matière de responsabilité applicables dans l’UE. De nombreux États membres ont adopté des régimes fondés sur la faute, qui exigent des demandeurs qu’ils prouvent qu’un acte ou une omission fautive d’une personne a causé le dommage en question. Toutefois, la nature de « boîte noire » de l’IA (avec son comportement autonome, sa prévisibilité limitée, son adaptation continue et son manque de transparence) rend difficile l’identification de la source de la faute nécessaire pour fonder avec succès une action en responsabilité au titre des régimes existants.




*** Les lecteurs les plus attentifs remarqueront peut-être que l’AILD est une « directive », alors que l’AI Act de l’UE est un « règlement ». Quelle est la différence ? Eh bien, un règlement de l’UE prend effet automatiquement dans tous les États membres. Une directive, en revanche, fixe un objectif que tous les États membres doivent atteindre. Il appartient à chaque État membre de déterminer la meilleure manière d’atteindre cet objectif au moyen de la législation nationale. ***

Les règles

L’AILD introduit deux garanties favorables aux demandeurs que les États membres devront mettre en œuvre : (1) une présomption de causalité ; et (2) un droit à la preuve. Ces mesures aideront les demandeurs à surmonter les difficultés probatoires particulières qui se présentent lors de l’application des règles de responsabilité aux systèmes d’IA.






1. Présomption de causalité

Pour remédier aux difficultés consistant à prouver un lien de causalité dans les cas de préjudice causé par l’IA, l’AILD instaure une présomption réfragable selon laquelle le défendeur est responsable de la faute ou de l’omission produite par son système d’IA défaillant. Cette présomption, qui peut être renversée, ne naît que lorsque les trois conditions suivantes sont réunies :




A - la conduite du défendeur ne respectait pas une obligation de diligence énoncée dans une législation européenne ou nationale spécifiquement destinée à protéger contre le dommage survenu ;

B - il peut être raisonnablement supposé, au vu des circonstances de l’espèce, que la faute du défendeur a influencé la sortie produite par le système d’IA (ou l’incapacité du système d’IA à produire une sortie) ; et

C - le demandeur a démontré que la sortie produite par le système d’IA (ou l’incapacité du système d’IA à produire une sortie) a causé le dommage.

Dans le cas d’un système d’IA à haut risque au titre de l’EU AIA, l’exigence énoncée au point A ci-dessus sera réputée satisfaite automatiquement si le défendeur ne s’est pas conformé à certaines obligations qui lui sont imposées au titre de l’EU AIA. Ces obligations comprennent notamment les exigences en matière de documentation et de surveillance.






2. Droit à la preuve

L’AILD habilite les demandeurs potentiels à obtenir des ordonnances judiciaires exigeant la divulgation d’éléments de preuve pertinents concernant les systèmes d’IA à haut risque. Ces éléments de preuve comprendraient la documentation technique, les journaux de surveillance et toutes les autres exigences de transparence prévues par l’EU AIA. Fait crucial, si le défendeur ne divulgue pas ces informations, il est alors présumé qu’il ne s’est pas acquitté de l’obligation de diligence pertinente en vertu du droit européen ou national, ce qui satisfait automatiquement à l’exigence énoncée au point A ci-dessus. Cela signifie qu’un défaut de divulgation des informations pertinentes rendrait considérablement plus difficile pour le défendeur de renverser la présomption de causalité.






Calendrier

Cette proposition a vu le jour plus d’un an après la publication du premier projet de l’EU AIA. Certains commentateurs s’en inquiètent, car un système européen de réglementation de l’IA fragmenté pourrait accroître l’ambiguïté et créer des lacunes réglementaires. C’est un point légitime - s’il existe un écart important entre l’entrée en vigueur de l’EU AIA et celle de l’AILD, cela laisse effectivement une lacune réglementaire. Pour autant, la Commission ne voit pas cette lacune, et seul l’avenir le dira. Le dossier est actuellement examiné par le Conseil européen, et il doit également encore passer devant le Parlement.






Notre analyse

Cela souligne vraiment l’importance de conserver une documentation technique détaillée relative à vos systèmes d’IA. Comme la présomption de responsabilité créée par l’AILD est réfragable, une documentation détaillée et robuste pourrait constituer un solide rempart contre toute allégation potentielle selon laquelle un système d’IA aurait causé un préjudice.




Il est également intéressant que la Commission ait choisi de s’appuyer sur les règles de faute existantes dans l’ensemble de l’Union, via l’exigence A de la présomption réfragable ci-dessus (une obligation de diligence existante au titre du droit européen ou national doit avoir été violée), plutôt que d’introduire des fautes spécifiques à l’IA. L’AILD comporte des dispositions de réexamen, il s’agit donc peut-être d’une approche consistant à « attendre pour voir »…




2023 s’annonce comme une année déterminante pour la réglementation de l’IA. Les organisations qui développent toute forme d’IA utilisée dans l’UE auraient tout intérêt à commencer dès maintenant à se pencher sur ces enjeux et à œuvrer à la mise en conformité. Enzai a été fondée et soutenue par des avocats experts dans ce domaine.

En savoir plus sur les solutions d’Enzai en matière de gouvernance de l’IA, de réglementation de l’IA et de règlement de l’UE sur l’IA.

Découvrez davantage

Découvrez davantage

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Conformité Intégrée Dès la Conception

Conformité Intégrée Dès la Conception

ISO 27001

Enzai est certifiée ISO 27001, et lest depuis 2023. Nous nous engageons à réaliser des audits annuels effectués par NQA et collaborons étroitement avec nos partenaires consultants en sécurité, Instil, afin de mettre à jour et de renforcer en continu notre posture de sécurité.

RGPD

ISO 27001

Enzai est certifiée ISO 27001, et lest depuis 2023. Nous nous engageons à réaliser des audits annuels effectués par NQA et collaborons étroitement avec nos partenaires consultants en sécurité, Instil, afin de mettre à jour et de renforcer en continu notre posture de sécurité.

RGPD

Gouvernance de l'IA

Gouvernance de l'IA

Infrastructure

Infrastructure

conçu pour la Confiance.

conçu pour la Confiance.

Donnez à votre organisation les moyens d'adopter, de gérer et de surveiller l'IA avec une confiance de niveau entreprise. Conçu pour les organisations réglementées opérant à grande échelle.

Connectez sans effort vos systèmes existants, vos politiques et vos flux de travail d'IA — le tout sur une plateforme unifiée.

Connectez sans effort vos systèmes existants, vos politiques et vos flux de travail d'IA — le tout sur une plateforme unifiée.