Découvrez la gamme complète de produits de gouvernance de l'IA d'Enzai, conçus pour aider les organisations à gérer, surveiller et faire évoluer l'IA en toute confiance. Des processus d'intégration structurés et des inventaires centralisés d'IA aux évaluations automatisées et à la surveillance en temps réel, Enzai fournit les éléments nécessaires pour intégrer la gouvernance directement dans les flux de travail quotidiens de l'IA, sans freiner l'innovation.

Enzai

Réglementations sur l'IA

Le Comité Européen de la Protection des Données adopte un avis sur les modèles d'intelligence artificielle

Réglementations sur l'IA

Le Comité Européen de la Protection des Données adopte un avis sur les modèles d'intelligence artificielle

Réglementations sur l'IA

Le Comité Européen de la Protection des Données adopte un avis sur les modèles d'intelligence artificielle

L'avis 28/2024 de l'EDPB aborde des sujets clés à l'intersection de la confidentialité et de l'IA.

Belfast

Belfast

3 minutes de lecture

Par

Par

Var Shankar

Var Shankar

RGPD et entraînement de l’IA

RGPD et entraînement de l’IA

L’avis 28/2024 du CEPD précise que les entreprises peuvent utiliser l’« intérêt légitime » comme base juridique pour entraîner des modèles d’IA sur des données à caractère personnel, à condition qu’elles satisfassent à un test rigoureux fondé sur trois critères : la finalité, la nécessité et la mise en balance des intérêts.

L’avis 28/2024 du CEPD précise que les entreprises peuvent utiliser l’« intérêt légitime » comme base juridique pour entraîner des modèles d’IA sur des données à caractère personnel, à condition qu’elles satisfassent à un test rigoureux fondé sur trois critères : la finalité, la nécessité et la mise en balance des intérêts.

Définition de l’anonymat du modèle

Définition de l’anonymat du modèle

L’orientation établit un seuil élevé en matière d’anonymat, exigeant une faible probabilité d’identifier des personnes ou d’extraire des données personnelles au moyen de requêtes, ce qui influencera la manière dont les États membres hiérarchiseront les futures actions d’application.

L’orientation établit un seuil élevé en matière d’anonymat, exigeant une faible probabilité d’identifier des personnes ou d’extraire des données personnelles au moyen de requêtes, ce qui influencera la manière dont les États membres hiérarchiseront les futures actions d’application.

Sujets

IA Médicale
Directive de la FDA
Gestion du Cycle de Vie
Conformité Sanitaire

Sujets

Le 17 décembre 2024, le Comité européen de protection des données (CEPD) a adopté l'avis 28/2024 du CEPD concernant l'utilisation des données personnelles pour entraîner et déployer des modèles d'IA. Cet avis fait suite à une demande de l'autorité de protection des données (APD) d'Irlande. 

Les développeurs de grands modèles, y compris Meta et OpenAI, qui fournissent des modèles d'IA au sein de l'UE ont fait l'objet d'un examen par les décideurs politiques et les régulateurs de l'UE. Ces développeurs, les entreprises utilisant leurs produits, et les autorités réglementaires des pays de l'UE ont tous recherché des directives claires sur la manière d'entraîner et de déployer des modèles d'IA sur des données personnelles sans violer le RGPD.

L'avis 28/2024 du CEPD fournit des orientations sur ces questions. Bien qu'il ne soit pas contraignant pour les entreprises, les APD s'aligneront vraisemblablement sur ses orientations lors de l'interprétation du RGPD et de la priorisation des actions de mise en application. 

Quand un modèle est-il considéré comme anonyme – et donc non soumis au RGPD ?

Bien que les modèles d'IA anonymes ne soient pas soumis au RGPD, les analystes ont jusqu'à présent eu des avis divergents sur le caractère anonyme d'un modèle d'IA fondation entraîné.

L'avis 28/2024 du CEPD indique qu'un tel modèle peut être considéré comme anonyme s'il existe une faible probabilité de pouvoir « (1) identifier directement ou indirectement les personnes dont les données ont été utilisées pour créer le modèle, et (2) extraire ces données personnelles du modèle par requêtes. » L'avis précise que cette analyse doit être menée au cas par cas et inclut une liste non prescriptive et non exclusive de méthodes pouvant aider à atteindre l'anonymat.

Quand un développeur IA peut-il traiter des données personnelles ?

Selon le RGPD, les entreprises ont besoin d'une base légale pour traiter des données personnelles. Les analystes ont noté que parmi les bases légales disponibles, seul l'« intérêt légitime » semble pertinent pour la manière dont les développeurs majeurs entraînent les modèles d'IA fondation. L'avis 28/2024 du CEPD confirme qu'une entreprise peut utiliser « l'intérêt légitime » comme base pour entraîner des modèles d'IA en utilisant des données personnelles, après une analyse de trois facteurs: 

Objectif : si l'intérêt est légal, clairement et précisément articulé, réel et actuel;

Nécessité : si les données personnelles sont nécessaires pour atteindre l'objectif;

Équilibrage : basé sur une analyse des avantages, des inconvénients et des attentes des individus dont les données sont traitées, si les intérêts et les droits de ces individus ne l'emportent pas sur l'intérêt légitime de l'entreprise

L'avis 28/2024 du CEPD décrit également comment un modèle d'IA développé sur des données personnelles en violation du RGPD pourrait ne pas être déployé ou être déployé de manière limitée sous réserve d'évaluations et de mesures de sauvegarde.

Quelles sont les prochaines étapes ?

L'UE continuera à fournir des interprétations et des orientations sur la manière dont le RGPD, la loi sur l'IA de l'UE (AIA), et d'autres lois de l'UE s'appliqueront aux modèles d'IA fondation, même alors que les développeurs de grands modèles continuent de sortir de nouveaux modèles impressionnants.

L'avis 28/2024 du CEPD ne fournit pas de clarté sur de nombreux autres points d'intersection entre la vie privée et l'IA, y compris la protection de la vie privée dès la conception ou le traitement d'autres informations sensibles (comme l'état d'esprit de l'utilisateur ou les opinions politiques).

Les entreprises utilisant des systèmes d'IA devraient surveiller attentivement les évolutions réglementaires dans l'UE et dans le monde entier et intégrer les interprétations et orientations pertinentes dans leurs programmes de gouvernance de l'IA.

Enzai est là pour aider

La plateforme GRC d'IA d'Enzai peut aider votre entreprise à déployer l'IA en conformité avec les meilleures pratiques et les réglementations, normes et cadres émergents, tels que la loi sur l'IA de l'UE, la loi sur l'IA du Colorado, le cadre RMF d'IA du NIST et ISO/IEC 42001. Pour en savoir plus, contactez-nous ici.

Découvrez davantage

Découvrez davantage

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Conformité Intégrée Dès la Conception

Conformité Intégrée Dès la Conception

ISO 27001

Enzai est certifiée ISO 27001, et lest depuis 2023. Nous nous engageons à réaliser des audits annuels effectués par NQA et collaborons étroitement avec nos partenaires consultants en sécurité, Instil, afin de mettre à jour et de renforcer en continu notre posture de sécurité.

RGPD

ISO 27001

Enzai est certifiée ISO 27001, et lest depuis 2023. Nous nous engageons à réaliser des audits annuels effectués par NQA et collaborons étroitement avec nos partenaires consultants en sécurité, Instil, afin de mettre à jour et de renforcer en continu notre posture de sécurité.

RGPD

Gouvernance de l'IA

Gouvernance de l'IA

Infrastructure

Infrastructure

conçu pour la Confiance.

conçu pour la Confiance.

Donnez à votre organisation les moyens d'adopter, de gérer et de surveiller l'IA avec une confiance de niveau entreprise. Conçu pour les organisations réglementées opérant à grande échelle.

Connectez sans effort vos systèmes existants, vos politiques et vos flux de travail d'IA — le tout sur une plateforme unifiée.

Connectez sans effort vos systèmes existants, vos politiques et vos flux de travail d'IA — le tout sur une plateforme unifiée.