Découvrez la gamme complète de produits de gouvernance de l'IA d'Enzai, conçus pour aider les organisations à gérer, surveiller et faire évoluer l'IA en toute confiance. Des processus d'intégration structurés et des inventaires centralisés d'IA aux évaluations automatisées et à la surveillance en temps réel, Enzai fournit les éléments nécessaires pour intégrer la gouvernance directement dans les flux de travail quotidiens de l'IA, sans freiner l'innovation.

Enzai

Réglementations sur l'IA

La Directive sur la Responsabilité de l'IA - Un Plan pour la Responsabilisation de l'IA en Europe

Réglementations sur l'IA

La Directive sur la Responsabilité de l'IA - Un Plan pour la Responsabilisation de l'IA en Europe

Réglementations sur l'IA

La Directive sur la Responsabilité de l'IA - Un Plan pour la Responsabilisation de l'IA en Europe

Enzai analyse le premier projet de la directive européenne sur la responsabilité en matière d'IA

Belfast

Belfast

5 minutes de lecture

Réglementation

Réglementation

Responsabilité de l'IA dans l'UE

Responsabilité de l'IA dans l'UE

Sujet

Sujet

Responsabilité

Responsabilité

The proposed EU AI Liability Directive (AILD) introduces uniform rules to help claimants overcome evidentiary barriers, specifically establishing a presumption of causality and a right to access evidence in AI damage claims.

The proposed EU AI Liability Directive (AILD) introduces uniform rules to help claimants overcome evidentiary barriers, specifically establishing a presumption of causality and a right to access evidence in AI damage claims.

To rebut these strict presumptions of liability, organizations must maintain rigorous technical documentation and monitoring logs, as non-compliance with EU AI Act obligations automatically triggers fault under the directive.

To rebut these strict presumptions of liability, organizations must maintain rigorous technical documentation and monitoring logs, as non-compliance with EU AI Act obligations automatically triggers fault under the directive.

Sujets

Réglementation européenne sur l'IA
Conseils pour le DPD
Préparation à la conformité
Pratiques de gouvernance

Sujets

Le 28 septembre 2022, la Commission européenne a publié le premier projet de la directive sur la responsabilité en matière d'intelligence artificielle proposée (le « AILD »). Le but de l'AILD est d'établir des règles uniformes pour l'accès à l'information et l'allègement de la charge de la preuve en relation avec les dommages causés par les systèmes d'IA.


L'AILD s'inscrit dans une démarche législative européenne plus large visant à créer un écosystème d'IA de confiance. Ce paysage comprend également : (1) la Loi sur l'intelligence artificielle (le « AI de l'UE »), que vous pouvez lire plus en détail ici ; et (2) une révision de la directive sur la responsabilité du fait des produits, vieille de 40 ans, qui couvre la responsabilité sans faute des producteurs pour les produits défectueux.




Le besoin

Une enquête de l'UE en 2020 a révélé que l'ambiguïté autour de la responsabilité est l'une des trois principales barrières à l'utilisation de l'IA par les entreprises européennes. Cela n’est guère surprenant compte tenu du patchwork de règles de responsabilité nationales actuellement en place dans l'UE. De nombreux États membres ont adopté des régimes fondés sur la faute qui exigent des demandeurs qu'ils prouvent qu'un acte ou une omission fautif d'un individu a causé le dommage en question. Cependant, la nature « boîte noire » de l'IA (avec son comportement autonome, sa prédictibilité limitée, son adaptation continue et son manque de transparence) rend difficile l'identification de la source de la faute nécessaire pour soutenir une réclamation de responsabilité réussie dans les régimes actuels.


*** Les lecteurs attentifs remarqueront peut-être que l'AILD est une "Directive", tandis que la loi européenne sur l'IA est un « Règlement ». Quelle est la différence ? Eh bien, un règlement de l'UE prend effet automatiquement dans tous les États membres. Une directive, en revanche, fixe un objectif que tous les États membres doivent atteindre. Il appartient à chaque État membre de décider comment atteindre au mieux cet objectif avec une législation nationale. ***

Les règles

L'AILD introduit deux mesures de protection pro-demandeurs comme objectifs pour les États membres : (1) une présomption de causalité ; et (2) le droit à la preuve. Ces mesures aideront les demandeurs à surmonter les défis probatoires uniques qui surviennent lors de l'application des règles de responsabilité aux systèmes d'IA.




1. Présomption de causalité

Pour répondre aux difficultés de prouver un lien de causalité dans les cas de préjudice causé par l'IA, l'AILD crée une présomption réfragable que le défendeur est responsable de la faute ou de l'omission produite par leur système d'IA défaillant. Cette présomption, qui est réfutable, ne se produira que lorsque les trois conditions suivantes sont remplies :


A - le comportement du défendeur n'a pas respecté un devoir de diligence prévu par la législation européenne ou nationale spécifiquement destinée à protéger contre le dommage survenu ;

B - il peut être raisonnablement supposé, en fonction des circonstances de l'affaire, que la faute du défendeur a influencé le résultat produit par le système d'IA (ou l'échec du système d'IA à produire un résultat) ; et

C - le demandeur a démontré que le résultat produit par le système d'IA (ou l'échec du système d'IA à produire un résultat) a causé le dommage.

Dans le cas d'un système d'IA à haut risque en vertu de l'AI de l'UE, l'exigence énoncée au point A ci-dessus sera considérée comme automatiquement satisfaite si le défendeur n'a pas respecté certaines obligations qui leur sont imposées par l'AI de l'UE. Ces obligations comprennent, entre autres, la documentation et les exigences de surveillance.




2. Droit à la preuve

L'AILD habilite les demandeurs potentiels à obtenir des ordonnances judiciaires exigeant la divulgation de preuves pertinentes concernant les systèmes d'IA à haut risque. Ce type de preuve comprendrait la documentation technique, les journaux de surveillance et toutes autres exigences de transparence prévues par l'AI de l'UE. De manière cruciale, si le défendeur ne divulgue pas ces informations, il est supposé qu'il n'a pas respecté le devoir de diligence pertinent en vertu du droit européen ou national, ce qui satisfait automatiquement à l'exigence énoncée au point A ci-dessus. Cela signifie qu'un défaut de divulgation des informations pertinentes rendrait considérablement plus difficile pour le défendeur de surmonter la présomption de causalité.




Calendrier

Cette proposition a vu le jour plus d'un an après la publication du premier projet de l'AI de l'UE. Certains commentateurs s'en inquiètent, car un système réglementaire d'IA mal articulé en Europe pourrait accroître l'ambiguïté et entraîner des lacunes réglementaires. C’est un point valable - s’il y a un écart significatif entre l'entrée en vigueur de l'AI de l'UE et l'entrée en vigueur de l'AILD, cela laisse un vide réglementaire. Pour ce que ça vaut, la Commission ne voit pas cet écart et seul le temps nous le dira. Cela se trouve actuellement avec le Conseil européen pour examen, et doit également parcourir le Parlement.




Notre avis

Ceci souligne vraiment l'importance de maintenir une documentation technique détaillée en relation avec vos systèmes d'IA. Comme la présomption de responsabilité créée par l'AILD est réfutable, une documentation détaillée et robuste pourrait constituer un rempart solide pour se protéger contre toute réclamation potentielle selon laquelle un système d'IA a causé un préjudice.


Il est également intéressant de noter que la Commission a choisi de s'appuyer sur les règles de responsabilité basées sur la faute déjà existantes au sein de l'Union, au moyen de l'exigence A de la présomption réfragable ci-dessus (un devoir de diligence existant en vertu du droit européen ou national doit avoir été violé), plutôt que d'introduire des fautes spécifiques à l'IA. L'AILD contient des dispositions de révision, donc peut-être est-ce un « attendons de voir »…


2023 va être une année importante pour la réglementation de l'IA. Les organisations construisant tout type d'IA utilisée dans l'UE seraient bien avisées de commencer à réfléchir à ces questions dès maintenant et de travailler vers la conformité. Enzai a été fondée et soutenue par des avocats qui sont des experts dans ce domaine.

En savoir plus sur les solutions d'Gouvernance de l'IAd'Enzai, de Réglementation de l'IA et de l'AI de l'UE.

Découvrez davantage

Découvrez davantage

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Conformité Intégrée Dès la Conception

Conformité Intégrée Dès la Conception

ISO 27001

Enzai est certifiée ISO 27001, et lest depuis 2023. Nous nous engageons à réaliser des audits annuels effectués par NQA et collaborons étroitement avec nos partenaires consultants en sécurité, Instil, afin de mettre à jour et de renforcer en continu notre posture de sécurité.

RGPD

ISO 27001

Enzai est certifiée ISO 27001, et lest depuis 2023. Nous nous engageons à réaliser des audits annuels effectués par NQA et collaborons étroitement avec nos partenaires consultants en sécurité, Instil, afin de mettre à jour et de renforcer en continu notre posture de sécurité.

RGPD

Gouvernance de l'IA

Gouvernance de l'IA

Infrastructure

Infrastructure

conçu pour la Confiance.

conçu pour la Confiance.

Donnez à votre organisation les moyens d'adopter, de gérer et de surveiller l'IA avec une confiance de niveau entreprise. Conçu pour les organisations réglementées opérant à grande échelle.

Connectez sans effort vos systèmes existants, vos politiques et vos flux de travail d'IA — le tout sur une plateforme unifiée.

Connectez sans effort vos systèmes existants, vos politiques et vos flux de travail d'IA — le tout sur une plateforme unifiée.