Découvrez la gamme complète de produits de gouvernance de l'IA d'Enzai, conçus pour aider les organisations à gérer, surveiller et faire évoluer l'IA en toute confiance. Des processus d'intégration structurés et des inventaires centralisés d'IA aux évaluations automatisées et à la surveillance en temps réel, Enzai fournit les éléments nécessaires pour intégrer la gouvernance directement dans les flux de travail quotidiens de l'IA, sans freiner l'innovation.

Enzai

Réglementations sur l'IA

La Directive sur la Responsabilité de l'IA - Un Plan pour la Responsabilisation de l'IA en Europe

Réglementations sur l'IA

La Directive sur la Responsabilité de l'IA - Un Plan pour la Responsabilisation de l'IA en Europe

Réglementations sur l'IA

La Directive sur la Responsabilité de l'IA - Un Plan pour la Responsabilisation de l'IA en Europe

Enzai analyse le premier projet de la directive européenne sur la responsabilité en matière d'IA

Belfast

Belfast

6 minutes de lecture

Par

Par

Ryan Donnelly

Ryan Donnelly

Surmonter le défi de la « boîte noire »

Surmonter le défi de la « boîte noire »

Le bouclier de la documentation

Le bouclier de la documentation

La proposition de directive de l’UE sur la responsabilité liée à l’IA (AILD) introduit des règles uniformes afin d’aider les demandeurs à surmonter les obstacles probatoires, en établissant notamment une présomption de causalité et un droit d’accès aux éléments de preuve dans le cadre des demandes d’indemnisation pour dommages causés par l’IA.

La proposition de directive de l’UE sur la responsabilité liée à l’IA (AILD) introduit des règles uniformes afin d’aider les demandeurs à surmonter les obstacles probatoires, en établissant notamment une présomption de causalité et un droit d’accès aux éléments de preuve dans le cadre des demandes d’indemnisation pour dommages causés par l’IA.

Pour réfuter ces strictes présomptions de responsabilité, les organisations doivent conserver une documentation technique rigoureuse ainsi que des journaux de surveillance, car le non-respect des obligations de l’AI Act de l’UE déclenche automatiquement une faute au titre de la directive.

Pour réfuter ces strictes présomptions de responsabilité, les organisations doivent conserver une documentation technique rigoureuse ainsi que des journaux de surveillance, car le non-respect des obligations de l’AI Act de l’UE déclenche automatiquement une faute au titre de la directive.

Sujets

Réglementation européenne sur l'IA
Conseils pour le DPD
Préparation à la conformité
Pratiques de gouvernance

Sujets

Le 28 septembre 2022, la Commission européenne a publié le premier projet de la directive proposée sur la responsabilité en matière d’intelligence artificielle (la « AILD »). L’objectif de l’AILD est d’établir des règles uniformes en matière d’accès à l’information et d’allègement de la charge de la preuve concernant les dommages causés par des systèmes d’IA.





L’AILD s’inscrit dans une impulsion législative européenne plus large visant à créer un écosystème d’IA digne de confiance. Ce paysage comprend également : (1) le règlement européen sur l’IA (le « EU AIA »), que vous pouvez découvrir ici ; et (2) une révision de la directive sur la responsabilité du fait des produits, vieille désormais de 40 ans, qui couvre la responsabilité sans faute des producteurs pour les produits défectueux.







Le besoin

Une enquête de l’UE menée en 2020 a révélé que l’ambiguïté entourant la responsabilité constitue l’un des trois principaux obstacles à l’utilisation de l’IA par les entreprises européennes. Cela n’a rien d’étonnant compte tenu de la mosaïque de règles nationales en matière de responsabilité actuellement en vigueur dans l’UE. De nombreux États membres ont adopté des régimes fondés sur la faute, qui exigent des demandeurs qu’ils prouvent qu’un acte ou une omission fautif d’une personne a causé le dommage en question. Toutefois, la nature de « boîte noire » de l’IA (avec son comportement autonome, sa prévisibilité limitée, son adaptation continue et son manque de transparence) rend difficile l’identification de la source de la faute nécessaire pour appuyer avec succès une demande en responsabilité au titre des régimes existants.





*** Les lecteurs les plus avertis remarqueront peut-être que l’AILD est une « directive », alors que l’EU AI Act est un « règlement ». Quelle est la différence ? Eh bien, un règlement de l’UE prend effet automatiquement dans tous les États membres. Une directive, en revanche, définit un objectif que tous les États membres doivent atteindre. Il appartient à chaque État membre de décider de la meilleure manière d’atteindre cet objectif au moyen de la législation nationale. ***

Les règles

L’AILD introduit deux garanties favorables aux demandeurs à mettre en œuvre par les États membres : (1) une présomption de causalité ; et (2) le droit à la preuve. Ces mesures aideront les demandeurs à surmonter les difficultés probatoires particulières qui surviennent lors de l’application des règles de responsabilité aux systèmes d’IA.







1. Présomption de causalité

Pour répondre aux difficultés liées à la preuve d’un lien de causalité dans les cas de préjudice causé par l’IA, l’AILD crée une présomption réfragable selon laquelle le défendeur est responsable de la faute ou de l’omission produite par son système d’IA défaillant. Cette présomption, qui peut être renversée, ne s’appliquera que lorsque les trois conditions suivantes seront réunies :





A - le comportement du défendeur ne respectait pas une obligation de diligence énoncée dans la législation européenne ou nationale spécifiquement destinée à protéger contre le dommage survenu ;

B - il peut être raisonnablement supposé, au regard des circonstances de l’espèce, que la faute du défendeur a influencé le résultat produit par le système d’IA (ou l’absence de production d’un résultat par le système d’IA) ; et

C - le demandeur a démontré que le résultat produit par le système d’IA (ou l’absence de production d’un résultat par le système d’IA) a causé le dommage.

Dans le cas d’un système d’IA à haut risque relevant de l’EU AIA, l’exigence énoncée au point A ci-dessus sera réputée satisfaite automatiquement si le défendeur ne s’est pas conformé à certaines obligations qui lui sont imposées en vertu de l’EU AIA. Ces obligations comprennent notamment la documentation et les exigences de surveillance.







2. Droit à la preuve

L’AILD habilite les demandeurs potentiels à obtenir des ordonnances judiciaires exigeant la divulgation d’éléments de preuve pertinents concernant les systèmes d’IA à haut risque. De tels éléments de preuve consisteraient en la documentation technique, les journaux de surveillance et toutes les autres exigences de transparence prévues par l’EU AIA. Fait crucial, si le défendeur omet de divulguer ces informations, il est présumé qu’il n’a pas respecté l’obligation de diligence pertinente en vertu du droit européen ou national, ce qui satisfait automatiquement à l’exigence énoncée au point A ci-dessus. Cela signifie qu’un défaut de divulgation des informations pertinentes rendrait beaucoup plus difficile pour le défendeur de renverser la présomption de causalité.







Chronologie

Cette proposition est intervenue plus d’un an après la publication du premier projet de l’EU AIA. Certains commentateurs s’en inquiètent, car un système de réglementation de l’IA désarticulé en Europe pourrait accroître l’ambiguïté et entraîner des lacunes réglementaires. C’est un point valable - s’il existe un écart important entre l’entrée en vigueur de l’EU AIA et celle de l’AILD, cela laisse effectivement une lacune réglementaire. À titre indicatif, la Commission ne voit pas cette lacune et seul l’avenir le dira. Le texte est actuellement entre les mains du Conseil européen pour examen, et doit également poursuivre son parcours au Parlement.







Notre analyse

Cette situation souligne clairement l’importance de conserver une documentation technique détaillée pour vos systèmes d’IA. Comme la présomption de responsabilité créée par l’AILD est réfragable, une documentation détaillée et solide pourrait constituer un rempart efficace contre toute éventuelle allégation selon laquelle un système d’IA aurait causé un préjudice.





Il est également intéressant de noter que la Commission a choisi de s’appuyer sur les règles existantes fondées sur la faute dans l’ensemble de l’Union, par le biais de l’exigence A de la présomption réfragable ci-dessus (une obligation de diligence existante en vertu du droit européen ou national doit avoir été violée), plutôt que d’introduire des fautes spécifiques à l’IA. L’AILD contient néanmoins des dispositions de réexamen, il sera donc peut-être question d’une approche « attendons de voir »…





2023 s’annonce comme une année majeure pour la réglementation de l’IA. Les organisations qui développent toute forme d’IA utilisée dans l’UE auraient tout intérêt à commencer dès maintenant à réfléchir à ces enjeux et à se mettre en conformité. Enzai a été fondée et soutenue par des avocats experts dans ce domaine.

Enzai est la principale gouvernance de l’IA d’entreprise, conçue spécifiquement pour aider les organisations à passer d’une politique abstraite à une supervision opérationnelle. Notre plateforme de gestion des risques liés à l’IA fournit l’infrastructure spécialisée nécessaire pour gérer la gouvernance de l’IA agentique, tenir un inventaire complet de l’IA et garantir la conformité au règlement européen sur l’IA. En automatisant des flux de travail complexes, Enzai permet aux entreprises de développer l’adoption de l’IA en toute confiance tout en maintenant leur alignement avec des normes mondiales telles que l’ISO 42001 et NIST.

Découvrez davantage

Découvrez davantage

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Conformité Intégrée Dès la Conception

Conformité Intégrée Dès la Conception

ISO 27001

Enzai est certifiée ISO 27001, et lest depuis 2023. Nous nous engageons à réaliser des audits annuels effectués par NQA et collaborons étroitement avec nos partenaires consultants en sécurité, Instil, afin de mettre à jour et de renforcer en continu notre posture de sécurité.

RGPD

ISO 27001

Enzai est certifiée ISO 27001, et lest depuis 2023. Nous nous engageons à réaliser des audits annuels effectués par NQA et collaborons étroitement avec nos partenaires consultants en sécurité, Instil, afin de mettre à jour et de renforcer en continu notre posture de sécurité.

RGPD

Gouvernance de l'IA

Gouvernance de l'IA

Infrastructure

Infrastructure

conçu pour la Confiance.

conçu pour la Confiance.

Donnez à votre organisation les moyens d'adopter, de gérer et de surveiller l'IA avec une confiance de niveau entreprise. Conçu pour les organisations réglementées opérant à grande échelle.

Connectez sans effort vos systèmes existants, vos politiques et vos flux de travail d'IA — le tout sur une plateforme unifiée.

Connectez sans effort vos systèmes existants, vos politiques et vos flux de travail d'IA — le tout sur une plateforme unifiée.