Découvrez la gamme complète de produits de gouvernance de l'IA d'Enzai, conçus pour aider les organisations à gérer, surveiller et faire évoluer l'IA en toute confiance. Des processus d'intégration structurés et des inventaires centralisés d'IA aux évaluations automatisées et à la surveillance en temps réel, Enzai fournit les éléments nécessaires pour intégrer la gouvernance directement dans les flux de travail quotidiens de l'IA, sans freiner l'innovation.

Enzai

Réglementations sur l'IA

Classification des risques selon l’AI Act de l’UE : comment déterminer le niveau de risque de votre système d’IA

Réglementations sur l'IA

Classification des risques selon l’AI Act de l’UE : comment déterminer le niveau de risque de votre système d’IA

Réglementations sur l'IA

Classification des risques selon l’AI Act de l’UE : comment déterminer le niveau de risque de votre système d’IA

Un guide sous forme d’arbre décisionnel pour la classification des risques au titre du règlement européen sur l’IA : quatre niveaux de risque, catégories de l’annexe III, cas limites et processus de classification.

Belfast

Belfast

19 minutes de lecture

Par

Par

Ryan Donnelly

Ryan Donnelly

La passerelle vers la conformité

La passerelle vers la conformité

Une classification précise des risques au titre de l’AI Act de l’Union européenne est essentielle, car une mauvaise classification d’un système d’IA peut soit mobiliser inutilement des ressources dans des obligations de conformité superflues, soit exposer l’entreprise à des mesures d’exécution assorties d’amendes pouvant atteindre 35 millions d’euros ou 7 % du chiffre d’affaires mondial.

Une classification précise des risques au titre de l’AI Act de l’Union européenne est essentielle, car une mauvaise classification d’un système d’IA peut soit mobiliser inutilement des ressources dans des obligations de conformité superflues, soit exposer l’entreprise à des mesures d’exécution assorties d’amendes pouvant atteindre 35 millions d’euros ou 7 % du chiffre d’affaires mondial.

Prise de décision structurée

Prise de décision structurée

Les organisations doivent utiliser un arbre de décision séquentiel — en vérifiant les interdictions, les composants de sécurité, les catégories de l’annexe III et les règles de transparence — tout en documentant de manière exhaustive le raisonnement transversal afin de justifier leurs classifications auprès des auditeurs et des autorités de surveillance.

Les organisations doivent utiliser un arbre de décision séquentiel — en vérifiant les interdictions, les composants de sécurité, les catégories de l’annexe III et les règles de transparence — tout en documentant de manière exhaustive le raisonnement transversal afin de justifier leurs classifications auprès des auditeurs et des autorités de surveillance.

Sujets

Gouvernance de l’IA
Règlement européen sur l’IA
Classification des risques
Conformité

Sujets

Tout système d’IA déployé dans l’Union européenne, ou ayant des incidences sur celle-ci, se situe désormais dans un spectre de risque à quatre niveaux. Cette classification n’est pas un exercice théorique. Elle détermine si une organisation est soumise à aucune charge réglementaire, à un ensemble limité d’obligations de transparence, à un régime de conformité complet coûtant des centaines de milliers d’euros, ou à une interdiction pure et simple. Une erreur de classification dans un sens comme dans l’autre entraîne des conséquences substantielles : une surestimation détourne des ressources vers une infrastructure de conformité qui n’était pas requise ; une sous-estimation expose l’organisation à des mesures d’exécution, à des amendes pouvant atteindre 35 millions d’euros ou 7 % du chiffre d’affaires mondial, ainsi qu’à un préjudice réputationnel qu’aucun plan de remédiation ne peut rapidement effacer [1].

Le cadre de classification des risques du règlement européen sur l’IA semble, en surface, simple. En pratique, les frontières entre les niveaux sont moins nettes que ne le suggère le texte législatif. Des systèmes qui paraissent relever clairement d’une catégorie peuvent, à y regarder de plus près, en recouper deux. Ce guide propose une démarche structurée pour naviguer dans cette complexité.

Les quatre niveaux de risque

Le règlement sur l’IA établit quatre niveaux de risque, chacun assorti d’un ensemble distinct d’obligations. Comprendre les exigences propres à chaque niveau est un prérequis à une classification exacte.

Risque inacceptable (interdit)

L’article 5 du règlement sur l’IA identifie des pratiques d’IA considérées comme si fondamentalement menaçantes pour la sécurité, les moyens de subsistance et les droits qu’elles sont interdites sans condition. Il s’agit notamment des systèmes de notation sociale exploités par des autorités publiques ou pour leur compte, de l’identification biométrique à distance en temps réel dans les espaces accessibles au public à des fins répressives (sous réserve d’exceptions strictes), des systèmes d’IA qui exploitent les vulnérabilités de groupes spécifiques fondées sur l’âge, le handicap ou la situation sociale, ainsi que des systèmes recourant à des techniques subliminales hors de la conscience d’une personne afin de modifier sensiblement son comportement d’une manière préjudiciable [2].

Aucune voie de mise en conformité n’existe pour les systèmes interdits. La seule réponse licite consiste à cesser le déploiement.

Risque élevé

Les systèmes à risque élevé constituent le cœur de la régulation. Ils sont soumis aux obligations les plus détaillées : systèmes de gestion des risques, exigences de gouvernance des données, documentation technique, tenue de registres, dispositions relatives à la transparence, mécanismes de supervision humaine, ainsi qu’exigences en matière d’exactitude, de robustesse et de cybersécurité [3]. Deux voies conduisent à une classification en risque élevé, examinées en détail ci-dessous.

C’est sur ce niveau que se concentre l’essentiel des efforts de conformité des grandes entreprises, et celui où les erreurs de classification ont le coût le plus élevé.

Risque limité

Les systèmes classés à risque limité sont uniquement soumis à des obligations de transparence. L’exigence principale est la divulgation : les utilisateurs doivent être informés qu’ils interagissent avec un système d’IA. Ce niveau couvre les chatbots, les systèmes de reconnaissance des émotions ne relevant pas de la catégorie interdite, les générateurs de deepfakes et les systèmes d’IA qui génèrent ou manipulent du texte, de l’audio ou des images [4].

Le risque limité est le mécanisme prévu par le règlement pour encadrer la tromperie sans imposer l’arsenal complet de conformité.

Risque minimal

L’immense majorité des systèmes d’IA se situe ici. Les filtres anti-spam, les jeux vidéo intégrant de l’IA, les algorithmes de gestion des stocks — ceux-ci n’imposent aucune obligation spécifique au titre du règlement, bien que des codes de conduite volontaires soient encouragés [5].

Le risque minimal constitue le niveau par défaut. Un système ne remonte le spectre que s’il satisfait aux critères définis pour l’un des niveaux supérieurs.

L’arbre de décision : classer étape par étape

La classification des risques au titre du règlement européen sur l’IA exige une analyse séquentielle. L’arbre de décision ci-dessous reflète la logique des articles 5, 6 et 7, et fournit le même processus reproductible que les workflows de classification d’Enzai automatisent pour les équipes d’entreprise qui examinent des dizaines ou des centaines de systèmes.

Étape 1 : le système relève-t-il des interdictions de l’article 5 ?

Examinez la finalité et le mécanisme du système au regard de chaque pratique interdite. Si le système procède à une identification biométrique en temps réel dans des espaces publics à des fins répressives, manipule des personnes au moyen de techniques subliminales causant un préjudice, exploite des vulnérabilités spécifiques ou permet une notation sociale par des autorités publiques, il est interdit.

Si oui : le système est à Risque inacceptable. Arrêtez-vous ici.

Si non : passez à l’étape 2.

Étape 2 : le système est-il un composant de sécurité d’un produit couvert par la législation d’harmonisation de l’UE énumérée à l’annexe I, ou le système constitue-t-il lui-même un tel produit ?

L’annexe I répertorie les directives et règlements existants de l’UE relatifs à la sécurité des produits, notamment ceux portant sur les machines, les jouets, les dispositifs médicaux, l’aviation civile, les véhicules à moteur et les systèmes ferroviaires [6]. Si le système d’IA sert de composant de sécurité au sein de l’un de ces produits réglementés, ou si le système lui-même constitue le produit réglementé, il est qualifié de risque élevé au titre de l’article 6(1). Fait crucial, ces systèmes requièrent également une évaluation de conformité par un tiers en vertu de la législation sectorielle applicable.

Si oui : le système est à Risque élevé au titre de l’article 6(1). Passez aux obligations postérieures à la classification.

Si non : passez à l’étape 3.

Étape 3 : le système relève-t-il de l’une des catégories d’usage énumérées à l’annexe III ?

L’annexe III énumère huit domaines d’application à risque élevé. Si la finalité prévue du système correspond à l’une de ces catégories, il est provisoirement considéré comme à risque élevé au titre de l’article 6(2). C’est à ce stade que l’analyse exige le plus de précision, car les catégories de l’annexe III sont larges et dépendent fortement des faits.

Si oui : passez à l’étape 4.

Si non : passez à l’étape 5.

Étape 4 : l’exception de l’article 6(3) s’applique-t-elle ?

L’article 6(3) a introduit une qualification importante dans le texte final. Même si un système relève de l’annexe III, il n’est pas considéré comme à risque élevé s’il ne présente pas de risque significatif de préjudice pour la santé, la sécurité ou les droits fondamentaux. Plus précisément, un système est exempté s’il exécute une tâche procédurale étroite, améliore le résultat d’une activité humaine déjà achevée, détecte des schémas de prise de décision sans remplacer ni influencer l’appréciation humaine, ou exécute une tâche préparatoire à une évaluation pertinente pour les cas d’usage de l’annexe III [7].

Le fournisseur doit documenter les raisons pour lesquelles l’exception s’applique et notifier l’autorité nationale compétente avant la mise sur le marché du système. Si l’autorité n’est pas d’accord, le système redevient classé à risque élevé.

Si l’article 6(3) s’applique : le système n’est pas à risque élevé, mais les obligations de documentation et de notification subsistent. Classez-le en risque limité ou minimal selon les critères de transparence.

Si l’article 6(3) ne s’applique pas : le système est à Risque élevé au titre de l’article 6(2). Passez aux obligations postérieures à la classification.

Étape 5 : le système requiert-il des informations de transparence ?

Si le système interagit directement avec des personnes physiques (chatbots), génère ou manipule du contenu image, audio ou vidéo (deepfakes, IA générative), ou réalise de la reconnaissance des émotions ou une catégorisation biométrique en dehors des contextes interdits, il relève des obligations de transparence associées au risque limité [4].

Si oui : le système est à Risque limité.

Si non : le système est à Risque minimal. Aucune obligation spécifique ne s’applique.

La classification n’est fiable que dans la mesure où la rigueur appliquée à chaque nœud l’est également. Pour les équipes qui examinent plusieurs systèmes, le tableau ci-dessous peut être copié et rempli pour chaque système d’IA de l’inventaire :





Étape

Question

Votre réponse

Niveau résultant

Responsable

1

Le système relève-t-il des interdictions de l’article 5 ?

Oui / Non

Si oui : interdit





2

S’agit-il d’un composant de sécurité d’un produit de l’annexe I ?

Oui / Non

Si oui : risque élevé (article 6(1))





3

Relève-t-il d’une catégorie d’usage de l’annexe III ?

Oui / Non / Catégorie : ___

Si oui : provisoirement à risque élevé





4

L’exception de l’article 6(3) s’applique-t-elle ?

Oui / Non / Justification : ___

Si oui : pas à risque élevé





5

Requiert-il des informations de transparence ?

Oui / Non

Si oui : risque limité





Final

Résultat de la classification

___

___





Catégories de l’annexe III : exemples concrets pour l’entreprise

L’annexe III constitue, pour la plupart des systèmes d’IA d’entreprise, la porte d’entrée vers la classification à risque élevé. Chacun des huit domaines mérite un examen au moyen d’exemples concrets, car le texte législatif emploie un langage large qui gagne à être illustré par des cas pratiques.

1. Identification et catégorisation biométriques

Cela couvre les systèmes d’identification biométrique à distance (et non en temps réel à des fins répressives, ce qui est interdit) ainsi que les systèmes de catégorisation biométrique qui attribuent des personnes physiques à des catégories sur la base de données biométriques. Exemple en entreprise : un aéroport déployant la reconnaissance faciale pour la vérification automatisée de l’embarquement, ou un détaillant utilisant la catégorisation biométrique pour inférer des attributs démographiques de ses clients.

2. Gestion et exploitation des infrastructures critiques

Systèmes d’IA utilisés comme composants de sécurité dans la gestion et l’exploitation du trafic routier, de l’eau, du gaz, du chauffage et de l’électricité, ainsi que des infrastructures numériques. Parmi les exemples figurent un système d’IA gérant l’équilibrage de la charge d’un réseau électrique, un algorithme de maintenance prédictive pour des installations de traitement de l’eau, ou un système d’optimisation des feux de circulation déployé par une autorité municipale.

3. Éducation et formation professionnelle

Les systèmes qui déterminent l’accès aux établissements d’enseignement ou l’affectation au sein de ceux-ci, ou qui évaluent les résultats d’apprentissage. Une université utilisant un outil de notation des admissions alimenté par l’IA, un système automatisé de correction de dissertations, ou une plateforme déterminant l’orientation des étudiants dans des filières académiques relèvent tous de cette catégorie.

4. Emploi, gestion des travailleurs et accès au travail indépendant

Systèmes d’IA utilisés pour le recrutement, la sélection, les décisions d’embauche, l’affectation des tâches, le suivi des performances ou les décisions de licenciement. Il s’agit de l’une des catégories les plus fréquemment déclenchées dans les contextes d’entreprise. Un outil de présélection de CV alimenté par l’IA qui classe ou filtre les candidats, un algorithme de planification des effectifs qui attribue les horaires en fonction de la productivité attendue, ou un système d’évaluation des performances qui signale des employés en vue d’un éventuel licenciement entrent tous dans le champ d’application.

5. Accès aux services privés et publics essentiels et jouissance de ceux-ci

Cela englobe les systèmes d’IA utilisés pour évaluer l’éligibilité à des prestations publiques, la notation de crédit, l’évaluation des risques dans l’assurance vie et santé, ainsi que la priorisation des services d’urgence. Un algorithme de notation de crédit utilisé par une banque pour déterminer l’éligibilité à un prêt, un système d’IA qui trie les demandes de logement social, ou un modèle de souscription d’assurance qui fixe les primes sur la base de profils de risque individuels relèvent tous de cette catégorie à risque élevé.

6. Maintien de l’ordre

Systèmes d’IA utilisés par les services répressifs pour l’évaluation individuelle des risques, l’analyse de polygraphes, l’évaluation de la fiabilité des éléments de preuve, la prévision de la criminalité concernant des personnes physiques, et le profilage dans les enquêtes pénales. Un outil de police prédictive qui identifie les personnes susceptibles de commettre des infractions, ou un système d’IA qui évalue la fiabilité d’un témoignage, sont couverts ici.

7. Migration, asile et contrôle des frontières

Systèmes utilisés pour évaluer les risques de sécurité posés par les personnes entrant dans l’UE, pour assister l’examen des demandes d’asile, ou pour détecter, reconnaître ou identifier des personnes dans le contexte de la migration. Un outil de notation des risques utilisé aux frontières pour signaler des voyageurs nécessitant un contrôle complémentaire, ou un système d’IA qui analyse la cohérence des demandes des demandeurs d’asile, relèvent de cette catégorie.

8. Administration de la justice et processus démocratiques

Systèmes d’IA destinés à assister les autorités judiciaires dans la recherche et l’interprétation des faits et du droit, ou systèmes utilisés pour influencer l’issue des élections. Un outil de recherche juridique qui recommande des issues d’affaires aux juges, ou un système utilisé pour micro-cibler la publicité politique sur la base du profilage des électeurs, relèvent de cette catégorie.

C’est la spécificité de la finalité prévue, et non la technologie sous-jacente, qui détermine la classification.

Cas limites et zones grises

Les frontières des niveaux de risque du règlement sur l’IA sont particulièrement mises à l’épreuve dans plusieurs scénarios récurrents que rencontrent systématiquement les organisations utilisant des plateformes comme Enzai pour la gouvernance de l’IA.

Détection des émotions : le contexte détermine tout

La reconnaissance des émotions dans les environnements de travail et d’enseignement déclenche des interdictions spécifiques ou une classification à risque élevé. En revanche, la détection des émotions déployée dans un contexte de service client, par exemple un outil d’IA qui analyse le ressenti des appelants afin d’acheminer les demandes d’assistance, ne relève pas de l’interdiction applicable au lieu de travail. Elle peut néanmoins relever du risque limité au titre des dispositions relatives à la transparence, ce qui impose d’en informer l’appelant. Le facteur déterminant n’est pas la technologie, mais le contexte du déploiement et l’asymétrie de pouvoir entre les parties concernées [8].

Recommandations de l’IA versus décisions de l’IA

Un système qui recommande une décision à l’examen humain se trouve dans une situation différente de celle d’un système qui exécute cette décision de manière autonome. Un outil d’IA qui classe des candidats à un emploi et présente une liste restreinte à un recruteur humain peut néanmoins relever du risque élevé au titre de l’annexe III (catégorie emploi), mais la nature de la supervision humaine influe sur les obligations spécifiques applicables. À l’inverse, un système qui rejette automatiquement des demandes de prêt sans intervention humaine significative supporte l’intégralité des exigences liées au risque élevé. La question essentielle est de savoir si l’humain peut, en pratique et de manière régulière, annuler le résultat de l’IA, ou si la recommandation du système fonctionne de facto comme une décision [9].

La voie d’auto-détermination de l’article 6(3)

L’article 6(3) offre une possibilité de sortir de la classification à risque élevé, mais son champ est plus étroit que ne l’estiment initialement de nombreuses organisations. Un outil de présélection de CV qui se contente de reformater les candidatures dans une présentation standardisée pourrait relever de l’exception, car il exécute une tâche préparatoire. Le même outil configuré pour classer les candidats ne le peut pas. Les organisations doivent résister à la tentation de présenter la fonction de leur système sous son angle le plus favorable. Les autorités nationales conservent le pouvoir de reclasser, et la charge de la documentation incombe au fournisseur. Les workflows de classification d’Enzai sont conçus pour soumettre les allégations fondées sur l’article 6(3) à un test de résistance au regard des critères du règlement avant qu’une organisation n’arrête sa position.

Modèles d’IA à usage général dans les systèmes à risque élevé

Lorsqu’un modèle d’IA à usage général est intégré dans un système à risque élevé, les obligations s’attachent au déployeur qui configure le système pour le cas d’usage spécifique à risque élevé, et pas uniquement au fournisseur du modèle. Une organisation qui affine un modèle de fondation pour la notation de crédit hérite des obligations applicables aux systèmes à risque élevé, même si le modèle sous-jacent a été développé par un tiers [10].

L’emplacement d’un système dans le spectre de risque est rarement aussi évident qu’il n’y paraît au premier abord.

Le processus de classification : gouvernance et documentation

La classification des risques au titre du règlement européen sur l’IA n’est pas une tâche relevant d’une seule fonction. Elle exige des contributions structurées de plusieurs disciplines ainsi qu’une chaîne documentaire capable de résister à l’examen réglementaire.

Qui doit être impliqué

Au minimum, le processus de classification devrait associer un conseil juridique disposant d’une expertise réglementaire, l’équipe technique responsable de la conception du système et de sa finalité, un expert métier qui comprend le contexte opérationnel du déploiement, un responsable des risques ou de la conformité, et, lorsque le système affecte les salariés, des représentants du personnel ou la direction des ressources humaines.

Une erreur fréquente consiste à déléguer la classification entièrement au service juridique ou entièrement à l’ingénierie. Les équipes juridiques peuvent ne pas disposer de la compréhension technique nécessaire pour déterminer si un système prend réellement des décisions autonomes ; les équipes d’ingénierie peuvent sous-estimer l’importance réglementaire du contexte opérationnel d’un système.

Comment documenter

La justification de la classification doit être consignée sous une forme pouvant être présentée à une autorité de surveillance nationale. La documentation devrait inclure une description claire de la finalité prévue du système, les articles et annexes spécifiques examinés, le raisonnement ayant conduit au niveau attribué, une analyse de l’article 6(3) le cas échéant, l’identification des personnes et des fonctions ayant participé à l’évaluation, ainsi que la date de la classification et les déclencheurs de réexamen prévus.

Gestion des désaccords

Lorsque les parties prenantes internes ne sont pas d’accord sur la classification, la position la plus prudente doit prévaloir dans l’attente d’une analyse complémentaire. Une organisation qui classe provisoirement un système à risque élevé puis le rétrograde ultérieurement s’expose à un risque bien moindre que celle qui le classe à un niveau inférieur avant d’être ensuite jugée non conforme. Les désaccords doivent être consignés dans la documentation, car ils démontrent la rigueur du processus et protègent l’organisation en cas d’enquête réglementaire.

La classification est un acte de gouvernance, et non une simple formalité administrative.

Que se passe-t-il après la classification ?

Le niveau de risque attribué à un système détermine les obligations de conformité qui s’ensuivent. L’écart entre les niveaux est substantiel.

Systèmes interdits

L’obligation est absolue : ne pas développer, déployer ni mettre à disposition sur le marché de l’UE. Les systèmes existants doivent être mis hors service. Il n’existe aucune période de transition pour les pratiques interdites [2].

Systèmes à risque élevé

Les fournisseurs doivent mettre en place un système de gestion des risques qui fonctionne tout au long du cycle de vie du système. Les pratiques de gouvernance des données doivent garantir que les jeux de données d’entraînement, de validation et de test sont pertinents, représentatifs et exempts d’erreurs. Une documentation technique complète doit être préparée avant la mise sur le marché du système. Le système doit être conçu pour permettre l’enregistrement automatique des événements. Les exigences de transparence imposent des instructions claires aux déployeurs. Les mesures de supervision humaine doivent permettre aux personnes physiques de comprendre, de surveiller et de prévaloir sur le système. Les exigences en matière d’exactitude, de robustesse et de cybersécurité doivent être respectées et maintenues [3].

Les déployeurs de systèmes à risque élevé ont leurs propres obligations : réaliser des évaluations d’incidence sur les droits fondamentaux, garantir que la supervision humaine est opérationnellement efficace, surveiller le système conformément aux instructions du fournisseur et signaler les incidents graves.

Systèmes à risque limité

L’obligation principale est la transparence. Les utilisateurs doivent être informés qu’ils interagissent avec une IA. Le contenu généré ou manipulé par une IA doit être signalé comme tel. Les systèmes de reconnaissance des émotions doivent divulguer leur fonctionnement aux personnes concernées [4].

Systèmes à risque minimal

Aucune obligation contraignante ne s’applique. Les organisations sont encouragées à adopter des codes de conduite volontaires traitant, entre autres, de la durabilité environnementale et de la culture de l’IA [5].

Les obligations à chaque niveau ne relèvent pas d’une simple aspiration. Ce sont des exigences exécutoires assorties de sanctions définies en cas de non-conformité.

Passer de la classification à la conformité

Déterminer le niveau de risque d’un système est le premier acte d’un programme de conformité plus vaste, mais c’est celui dont tout le reste dépend. Une classification inexacte se répercute sur toutes les décisions ultérieures, depuis les ressources allouées à la documentation jusqu’à la voie d’évaluation de la conformité retenue.

Les organisations qui gèrent des portefeuilles de systèmes d’IA dans plusieurs juridictions et unités opérationnelles font face à ce défi à grande échelle. Le suivi des décisions de classification, la surveillance des évolutions réglementaires susceptibles de faire évoluer le niveau d’un système et la tenue d’un registre auditable des raisons ayant fondé chaque détermination exigent une infrastructure conçue à cet effet.

Pour les organisations qui souhaitent opérationnaliser la classification des risques du règlement européen sur l’IA sur l’ensemble de leur inventaire d’IA, Enzai fournit le cadre de gouvernance nécessaire pour classer, documenter et surveiller les systèmes d’IA au regard de l’évolution des exigences réglementaires. Demandez une démonstration pour découvrir comment des workflows de classification structurés réduisent à la fois le risque de non-conformité et les efforts inutiles.

Enzai est la plateforme de référence en gouvernance de l’IA en entreprise, conçue pour aider les organisations à passer d’une politique abstraite à une supervision opérationnelle. Notre plateforme de gestion des risques liés à l’IA fournit l’infrastructure spécialisée nécessaire pour gérer la gouvernance de l’IA agentique, maintenir un inventaire de l’IA complet et assurer la conformité au règlement européen sur l’IA. En automatisant des workflows complexes, Enzai permet aux entreprises de déployer l’IA à grande échelle avec confiance, tout en restant alignées sur des normes mondiales telles que ISO 42001 et NIST.

Références

[1] Règlement (UE) 2024/1689, article 99 - Amendes.

[2] Règlement (UE) 2024/1689, article 5 - Pratiques d’intelligence artificielle interdites.

[3] Règlement (UE) 2024/1689, articles 8 à 15 - Exigences applicables aux systèmes d’IA à risque élevé.

[4] Règlement (UE) 2024/1689, article 50 - Obligations de transparence pour les systèmes d’IA à risque limité.

[5] Règlement (UE) 2024/1689, article 95 - Codes de conduite relatifs aux engagements volontaires des fournisseurs de systèmes d’IA non à risque élevé.

[6] Règlement (UE) 2024/1689, annexe I - Législation d’harmonisation de l’Union.

[7] Règlement (UE) 2024/1689, article 6(3) - Règles de classification des systèmes d’IA à risque élevé.

[8] Règlement (UE) 2024/1689, considérants 44 à 46 - Champ d’application des interdictions relatives à la reconnaissance des émotions.

[9] Règlement (UE) 2024/1689, article 14 - Supervision humaine.

[10] Règlement (UE) 2024/1689, articles 51 à 56 - Obligations des fournisseurs de modèles d’IA à usage général.

Découvrez davantage

Découvrez davantage

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Conformité Intégrée Dès la Conception

Conformité Intégrée Dès la Conception

ISO 27001

Enzai est certifiée ISO 27001, et lest depuis 2023. Nous nous engageons à réaliser des audits annuels effectués par NQA et collaborons étroitement avec nos partenaires consultants en sécurité, Instil, afin de mettre à jour et de renforcer en continu notre posture de sécurité.

RGPD

ISO 27001

Enzai est certifiée ISO 27001, et lest depuis 2023. Nous nous engageons à réaliser des audits annuels effectués par NQA et collaborons étroitement avec nos partenaires consultants en sécurité, Instil, afin de mettre à jour et de renforcer en continu notre posture de sécurité.

RGPD

Gouvernance de l'IA

Gouvernance de l'IA

Infrastructure

Infrastructure

conçu pour la Confiance.

conçu pour la Confiance.

Donnez à votre organisation les moyens d'adopter, de gérer et de surveiller l'IA avec une confiance de niveau entreprise. Conçu pour les organisations réglementées opérant à grande échelle.

Connectez sans effort vos systèmes existants, vos politiques et vos flux de travail d'IA — le tout sur une plateforme unifiée.

Connectez sans effort vos systèmes existants, vos politiques et vos flux de travail d'IA — le tout sur une plateforme unifiée.