Découvrez la gamme complète de produits de gouvernance de l'IA d'Enzai, conçus pour aider les organisations à gérer, surveiller et faire évoluer l'IA en toute confiance. Des processus d'intégration structurés et des inventaires centralisés d'IA aux évaluations automatisées et à la surveillance en temps réel, Enzai fournit les éléments nécessaires pour intégrer la gouvernance directement dans les flux de travail quotidiens de l'IA, sans freiner l'innovation.

Enzai

Réglementations sur l'IA

Classification des risques selon l’AI Act de l’UE : comment déterminer le niveau de risque de votre système d’IA

Réglementations sur l'IA

Classification des risques selon l’AI Act de l’UE : comment déterminer le niveau de risque de votre système d’IA

Réglementations sur l'IA

Classification des risques selon l’AI Act de l’UE : comment déterminer le niveau de risque de votre système d’IA

Un guide sous forme d’arbre décisionnel pour la classification des risques au titre du règlement européen sur l’IA : quatre niveaux de risque, catégories de l’annexe III, cas limites et processus de classification.

Belfast

Belfast

18 minutes de lecture

Sujets

Gouvernance de l’IA
Règlement européen sur l’IA
Classification des risques
Conformité

Sujets

Tout système d’IA déployé dans l’Union européenne, ou ayant un effet sur celle-ci, se situe désormais quelque part sur un spectre de risque à quatre niveaux. Ce positionnement n’est pas un exercice théorique. Il détermine si une organisation ne supporte aucune charge réglementaire, un ensemble restreint d’obligations de transparence, un régime complet de conformité coûtant des centaines de milliers d’euros, ou une interdiction pure et simple. Une erreur de classification, dans un sens comme dans l’autre, entraîne des conséquences substantielles : surclassifier détourne des ressources vers une infrastructure de conformité qui n’était pas requise ; sous-classifier expose l’organisation à des mesures d’exécution, à des amendes pouvant atteindre 35 millions d’euros ou 7 % du chiffre d’affaires mondial, ainsi qu’à un préjudice réputationnel qu’aucun plan correctif ne peut rapidement effacer [1].

Le cadre de classification des risques de l’AI Act de l’UE paraît, en surface, simple. En pratique, les frontières entre les niveaux sont moins nettes que ne le laisse entendre le texte législatif. Des systèmes qui semblent relever clairement d’une catégorie peuvent, après examen approfondi, chevaucher deux catégories. Ce guide propose un parcours structuré dans cette complexité.

Les quatre niveaux de risque

L’AI Act établit quatre niveaux de risque, chacun assorti d’un ensemble distinct d’obligations. Comprendre les exigences propres à chaque niveau est un préalable à une classification précise.

Risque inacceptable (interdit)

L’article 5 de l’AI Act identifie des pratiques d’IA considérées comme si fondamentalement menaçantes pour la sécurité, les moyens de subsistance et les droits qu’elles sont interdites sans exception. Celles-ci incluent les systèmes de notation sociale exploités par des autorités publiques ou pour leur compte, l’identification biométrique à distance en temps réel dans les espaces accessibles au public à des fins répressives (sous réserve d’exceptions limitées), les systèmes d’IA exploitant les vulnérabilités de groupes spécifiques en raison de l’âge, du handicap ou de la situation sociale, ainsi que les systèmes recourant à des techniques subliminales au-delà de la conscience d’une personne pour altérer matériellement son comportement de manière dommageable [2].

Aucune voie de conformité n’existe pour les systèmes interdits. La seule réponse licite consiste à cesser le déploiement.

Risque élevé

Les systèmes à haut risque constituent le centre de gravité réglementaire. Ils sont soumis aux obligations les plus détaillées : systèmes de gestion des risques, exigences de gouvernance des données, documentation technique, tenue de registres, dispositions de transparence, mécanismes de supervision humaine, et exigences en matière d’exactitude, de robustesse et de cybersécurité [3]. Deux voies conduisent à une classification à haut risque, détaillées ci-dessous.

C’est à ce niveau que se concentre l’essentiel des efforts de conformité des entreprises, et que les erreurs de classification coûtent le plus cher.

Risque limité

Les systèmes classés à risque limité ne sont soumis qu’à des obligations de transparence. L’exigence principale est la divulgation : les utilisateurs doivent être informés qu’ils interagissent avec un système d’IA. Ce niveau couvre les chatbots, les systèmes de reconnaissance des émotions n’entrant pas dans la catégorie interdite, les générateurs de deepfakes, ainsi que les systèmes d’IA qui génèrent ou manipulent des contenus textuels, audio ou visuels [4].

Le risque limité constitue le mécanisme de l’Acte pour encadrer la tromperie sans imposer l’appareil complet de conformité.

Risque minimal

La grande majorité des systèmes d’IA se situent ici. Filtres anti-spam, jeux vidéo assistés par IA, algorithmes de gestion des stocks : ceux-ci ne supportent aucune obligation spécifique au titre de l’Acte, bien que des codes de conduite volontaires soient encouragés [5].

Le risque minimal est la catégorie par défaut. Un système ne remonte le spectre que s’il satisfait à des critères définis pour l’un des niveaux supérieurs.

L’arbre de décision : classifier étape par étape

La classification des risques au titre de l’AI Act de l’UE exige une analyse séquentielle. L’arbre de décision suivant reflète la logique des articles 5, 6 et 7, et fournit le même processus reproductible que les flux de travail de classification de Enzai automatisent pour les équipes d’entreprise traitant des dizaines voire des centaines de systèmes.

Étape 1 : Le système relève-t-il des interdictions de l’article 5 ?

Examinez l’objectif et le mécanisme du système au regard de chaque pratique interdite. Si le système réalise une identification biométrique en temps réel dans des espaces publics à des fins répressives, manipule des personnes au moyen de techniques subliminales causant un préjudice, exploite des vulnérabilités spécifiques, ou permet la notation sociale par des autorités publiques, il est interdit.

Si oui : le système est à risque inacceptable. Arrêtez-vous ici.

Si non : passez à l’étape 2.

Étape 2 : Le système est-il un composant de sécurité d’un produit couvert par la législation d’harmonisation de l’UE figurant à l’annexe I, ou le système est-il lui-même un tel produit ?

L’annexe I recense les directives et règlements existants de l’UE en matière de sécurité des produits, notamment ceux couvrant les machines, les jouets, les dispositifs médicaux, l’aviation civile, les véhicules à moteur et les systèmes ferroviaires [6]. Si le système d’IA sert de composant de sécurité au sein de l’un de ces produits réglementés, ou si le système est lui-même le produit réglementé, il est qualifié de haut risque au titre de l’article 6(1). Point essentiel : ces systèmes exigent également une évaluation de conformité par un tiers au titre de la législation sectorielle pertinente.

Si oui : le système est à haut risque via l’article 6(1). Passez aux obligations post-classification.

Si non : passez à l’étape 3.

Étape 3 : Le système relève-t-il de l’une des catégories de cas d’usage listées à l’annexe III ?

L’annexe III énumère huit domaines d’application à haut risque. Si l’objectif prévu du système correspond à l’une de ces catégories, il est provisoirement à haut risque au titre de l’article 6(2). C’est à ce stade que l’analyse exige la plus grande précision, car les catégories de l’annexe III sont larges et factuelles.

Si oui : passez à l’étape 4.

Si non : passez à l’étape 5.

Étape 4 : L’exception de l’article 6(3) s’applique-t-elle ?

L’article 6(3) a introduit une nuance majeure dans le texte final. Même si un système relève de l’annexe III, il n’est pas considéré comme à haut risque s’il ne présente pas un risque significatif d’atteinte à la santé, à la sécurité ou aux droits fondamentaux. Plus précisément, un système est exempté s’il accomplit une tâche procédurale étroite, améliore le résultat d’une activité humaine déjà réalisée, détecte des schémas de prise de décision sans remplacer ni influencer l’évaluation humaine, ou accomplit une tâche préparatoire à une évaluation pertinente pour les cas d’usage de l’annexe III [7].

Le fournisseur doit documenter les raisons de l’application de l’exception et notifier l’autorité nationale compétente avant la mise sur le marché du système. Si l’autorité n’est pas d’accord, le système redevient à haut risque.

Si l’article 6(3) s’applique : le système n’est pas à haut risque, mais les obligations de documentation et de notification demeurent. Classez-le en risque limité ou minimal selon les critères de transparence.

Si l’article 6(3) ne s’applique pas : le système est à haut risque via l’article 6(2). Passez aux obligations post-classification.

Étape 5 : Le système requiert-il des obligations de transparence ?

Si le système interagit directement avec des personnes physiques (chatbots), génère ou manipule des contenus image, audio ou vidéo (deepfakes, IA générative), ou réalise une reconnaissance des émotions ou une catégorisation biométrique hors des contextes interdits, il relève des obligations de transparence du risque limité [4].

Si oui : le système est à risque limité.

Si non : le système est à risque minimal. Aucune obligation spécifique ne s’applique.

La classification n’est fiable qu’à hauteur de la rigueur appliquée à chaque nœud de décision. Pour les équipes traitant plusieurs systèmes, la grille suivante peut être copiée et complétée pour chaque système d’IA de l’inventaire :


Étape

Question

Votre réponse

Niveau résultant

Responsable

1

Le système relève-t-il des interdictions de l’article 5 ?

Oui / Non

Si oui : Interdit


2

S’agit-il d’un composant de sécurité d’un produit de l’annexe I ?

Oui / Non

Si oui : Haut risque (article 6(1))


3

Relève-t-il d’une catégorie de cas d’usage de l’annexe III ?

Oui / Non / Catégorie : ___

Si oui : Haut risque provisoire


4

L’exception de l’article 6(3) s’applique-t-elle ?

Oui / Non / Justification : ___

Si oui : Pas à haut risque


5

Exige-t-il des obligations de transparence ?

Oui / Non

Si oui : Risque limité


Final

Résultat de la classification

___

___


Catégories de l’annexe III : exemples concrets en entreprise

L’annexe III est la porte d’entrée vers la classification à haut risque pour la plupart des systèmes d’IA en entreprise. Chacun des huit domaines mérite un examen au moyen d’exemples concrets, car le texte législatif emploie une formulation large qui bénéficie d’illustrations pratiques.

1. Identification et catégorisation biométriques

Cette catégorie couvre les systèmes d’identification biométrique à distance (hors temps réel pour les forces de l’ordre, qui est interdit) ainsi que les systèmes de catégorisation biométrique attribuant des personnes physiques à des catégories sur la base de données biométriques. Exemple en entreprise : un aéroport déployant la reconnaissance faciale pour la vérification automatisée de l’embarquement, ou un distributeur utilisant la catégorisation biométrique pour inférer des attributs démographiques des clients.

2. Gestion et exploitation des infrastructures critiques

Systèmes d’IA utilisés comme composants de sécurité dans la gestion et l’exploitation du trafic routier, de l’approvisionnement en eau, gaz, chauffage et électricité, ainsi que des infrastructures numériques. Exemples : un système d’IA gérant l’équilibrage de charge d’un réseau électrique, un algorithme de maintenance prédictive pour des installations de traitement de l’eau, ou un système d’optimisation des feux de circulation déployé par une autorité municipale.

3. Éducation et formation professionnelle

Systèmes qui déterminent l’accès à des établissements d’enseignement ou l’affectation en leur sein, ou qui évaluent les résultats d’apprentissage. Une université utilisant un outil de notation des admissions fondé sur l’IA, un système automatisé de correction de dissertations, ou une plateforme déterminant l’orientation des étudiants dans des parcours académiques sont tous concernés.

4. Emploi, gestion des travailleurs et accès au travail indépendant

Systèmes d’IA utilisés pour le recrutement, la sélection, les décisions d’embauche, l’allocation des tâches, le suivi de performance ou les décisions de cessation d’emploi. C’est l’une des catégories les plus fréquemment déclenchées en contexte entreprise. Un outil de tri de CV fondé sur l’IA qui classe ou filtre des candidats, un algorithme de planification des effectifs qui attribue des créneaux selon une productivité prédite, ou un système d’évaluation de performance qui signale des employés en vue d’un licenciement potentiel entrent tous dans le périmètre.

5. Accès aux services privés et publics essentiels et jouissance de ceux-ci

Cette catégorie englobe les systèmes d’IA utilisés pour évaluer l’éligibilité aux prestations publiques, le scoring de crédit, l’évaluation du risque en assurance vie et santé, et la priorisation de l’envoi des services d’urgence. Un algorithme de scoring de crédit utilisé par une banque pour déterminer l’éligibilité à un prêt, un système d’IA qui priorise des demandes de logement social, ou un modèle de souscription d’assurance qui fixe les primes selon des profils de risque individuels sont tous à haut risque au titre de cette catégorie.

6. Application de la loi

Systèmes d’IA utilisés par les autorités répressives pour l’évaluation du risque individuel, l’analyse polygraphique, l’évaluation de la fiabilité des preuves, la prédiction de la criminalité concernant des personnes physiques, et le profilage dans les enquêtes pénales. Un outil de police prédictive identifiant des personnes susceptibles de commettre des infractions, ou un système d’IA évaluant la fiabilité d’un témoignage, sont couverts ici.

7. Migration, asile et contrôle aux frontières

Systèmes utilisés pour évaluer les risques de sécurité posés par des personnes entrant dans l’UE, pour assister l’examen des demandes d’asile, ou pour détecter, reconnaître ou identifier des personnes dans le contexte migratoire. Un outil de notation du risque utilisé au contrôle aux frontières pour signaler des voyageurs nécessitant un contrôle supplémentaire, ou un système d’IA analysant la cohérence des déclarations des demandeurs d’asile, sont concernés.

8. Administration de la justice et processus démocratiques

Systèmes d’IA destinés à assister les autorités judiciaires dans la recherche et l’interprétation des faits et du droit, ou systèmes utilisés pour influencer l’issue d’élections. Un outil de recherche juridique recommandant des issues de litiges à des juges, ou un système utilisé pour micro-cibler la publicité politique sur la base du profilage des électeurs, relèvent de cette catégorie.

C’est la spécificité de l’objectif prévu, et non la technologie sous-jacente, qui détermine la classification.

Cas limites et zones grises

Les frontières des niveaux de risque de l’AI Act sont mises à l’épreuve avec le plus d’acuité dans plusieurs scénarios récurrents que rencontrent systématiquement les organisations utilisant des plateformes telles que Enzai pour la gouvernance de l’IA.

Détection des émotions : le contexte est déterminant

La reconnaissance des émotions dans les environnements professionnels et éducatifs déclenche des interdictions spécifiques ou une classification à haut risque. Mais la détection des émotions déployée dans un contexte de service client, tel qu’un outil d’IA analysant le sentiment d’un appelant pour orienter les tickets d’assistance, ne relève pas de l’interdiction applicable au lieu de travail. Elle peut néanmoins relever du risque limité au titre des obligations de transparence, imposant une information de l’appelant. Le facteur déterminant n’est pas la technologie mais le contexte de déploiement et l’asymétrie de pouvoir entre les parties concernées [8].

Recommandations de l’IA versus décisions de l’IA

Un système qui recommande une décision pour revue humaine occupe une position différente de celui qui exécute cette décision de manière autonome. Un outil d’IA qui classe des candidats et présente une liste restreinte à un recruteur humain peut toujours être à haut risque au titre de l’annexe III (catégorie emploi), mais la nature de la supervision humaine influe sur les obligations spécifiques applicables. À l’inverse, un système qui rejette automatiquement des demandes de prêt sans intervention humaine significative supporte l’intégralité des exigences du haut risque. La question critique est de savoir si l’humain peut, de manière réaliste et habituelle, annuler la sortie de l’IA, ou si la recommandation du système fonctionne de facto comme une décision [9].

La voie d’auto-détermination de l’article 6(3)

L’article 6(3) offre une voie de sortie de la classification à haut risque, mais elle est plus étroite que ce que beaucoup d’organisations supposent initialement. Un outil de tri de CV qui se contente de reformater les candidatures dans une mise en page standardisée peut relever de l’exception, car il accomplit une tâche préparatoire. Le même outil configuré pour classer les candidats n’y relève pas. Les organisations doivent résister à la tentation de présenter la fonction de leur système sous son jour le plus favorable. Les autorités nationales conservent le pouvoir de reclassification, et la charge de la documentation incombe au fournisseur. Les flux de travail de classification de Enzai sont conçus pour éprouver de manière rigoureuse les revendications fondées sur l’article 6(3) au regard des critères du règlement avant qu’une organisation n’arrête sa position.

Modèles d’IA à usage général dans des systèmes à haut risque

Lorsqu’un modèle d’IA à usage général est intégré dans un système à haut risque, les obligations incombent au déployeur qui configure le système pour le cas d’usage spécifique à haut risque, et pas uniquement au fournisseur du modèle. Une organisation qui affine un modèle de fondation pour le scoring de crédit hérite des obligations du haut risque, même si le modèle sous-jacent a été développé par un tiers [10].

La position d’un système sur le spectre de risque est rarement aussi évidente qu’elle ne le paraît au premier abord.

Le processus de classification : gouvernance et documentation

La classification des risques au titre de l’AI Act de l’UE n’est pas une tâche relevant d’une seule fonction. Elle requiert des contributions structurées de plusieurs disciplines et une piste documentaire capable de résister à un contrôle réglementaire.

Qui doit être impliqué

Au minimum, le processus de classification doit impliquer un conseil juridique doté d’une expertise réglementaire, l’équipe technique responsable de la conception du système et de son objectif prévu, un expert métier comprenant le contexte opérationnel du déploiement, un responsable risques ou conformité, et, lorsque le système affecte des employés, des représentants des travailleurs ou la direction des ressources humaines.

Un mode d’échec fréquent consiste à déléguer la classification entièrement au juridique ou entièrement à l’ingénierie. Les équipes juridiques peuvent manquer de compréhension technique pour évaluer si un système prend réellement des décisions autonomes ; les équipes d’ingénierie peuvent sous-estimer la portée réglementaire du contexte opérationnel d’un système.

Comment documenter

Le raisonnement de classification doit être consigné sous une forme pouvant être présentée à une autorité nationale de supervision. La documentation doit inclure une description claire de l’objectif prévu du système, les articles et annexes spécifiques examinés, la justification du niveau attribué, une analyse de l’article 6(3) le cas échéant, l’identification des personnes et des rôles impliqués dans l’évaluation, ainsi que la date de la classification et tout déclencheur de revue planifié.

Gestion des désaccords

Lorsque les parties prenantes internes sont en désaccord sur la classification, la position la plus prudente doit prévaloir dans l’attente d’une analyse complémentaire. Une organisation qui classe provisoirement un système en haut risque puis le déclasse ultérieurement court un risque bien moindre qu’une organisation qui le classe bas risque et se révèle ensuite non conforme. Les désaccords doivent être consignés dans la documentation, car ils démontrent la rigueur du processus et protègent l’organisation en cas d’enquête réglementaire.

La classification est un acte de gouvernance, non une formalité administrative.

Ce qui se passe après la classification

Le niveau de risque attribué à un système détermine les obligations de conformité qui s’ensuivent. L’écart entre les niveaux est substantiel.

Systèmes interdits

L’obligation est absolue : ne pas développer, déployer ni mettre à disposition sur le marché de l’UE. Les systèmes existants doivent être retirés du service. Il n’existe pas de période transitoire pour les pratiques interdites [2].

Systèmes à haut risque

Les fournisseurs doivent mettre en œuvre un système de gestion des risques opérant tout au long du cycle de vie du système. Les pratiques de gouvernance des données doivent garantir que les jeux de données d’entraînement, de validation et de test sont pertinents, représentatifs et exempts d’erreurs. Une documentation technique complète doit être préparée avant la mise sur le marché du système. Le système doit être conçu pour permettre la journalisation automatique des événements. Les exigences de transparence imposent des instructions claires pour les déployeurs. Les mesures de supervision humaine doivent permettre aux personnes physiques de comprendre, surveiller et neutraliser le système. Les exigences d’exactitude, de robustesse et de cybersécurité doivent être satisfaites et maintenues [3].

Les déployeurs de systèmes à haut risque assument leurs propres obligations : réaliser des évaluations d’impact sur les droits fondamentaux, garantir l’effectivité opérationnelle de la supervision humaine, surveiller le système conformément aux instructions du fournisseur et signaler les incidents graves.

Systèmes à risque limité

L’obligation principale est la transparence. Les utilisateurs doivent être informés qu’ils interagissent avec une IA. Les contenus générés ou manipulés par l’IA doivent être étiquetés comme tels. Les systèmes de reconnaissance des émotions doivent divulguer leur fonctionnement aux personnes concernées [4].

Systèmes à risque minimal

Aucune obligation contraignante ne s’applique. Les organisations sont encouragées à adopter des codes de conduite volontaires portant, entre autres, sur la durabilité environnementale et la culture de l’IA [5].

Les obligations associées à chaque niveau ne sont pas aspiratoires. Ce sont des exigences exécutoires assorties de sanctions définies en cas de non-conformité.

Passer de la classification à la conformité

Déterminer le niveau de risque d’un système constitue le premier acte d’un programme de conformité plus long, mais c’est l’acte dont dépend tout le reste. Une classification inexacte se répercute sur chaque décision ultérieure, des ressources allouées à la documentation jusqu’à la voie d’évaluation de conformité retenue.

Les organisations qui gèrent des portefeuilles de systèmes d’IA dans plusieurs juridictions et unités d’activité font face à ce défi à grande échelle. Le suivi des décisions de classification, la veille des mises à jour réglementaires susceptibles de modifier le niveau d’un système, et le maintien d’un registre auditable des justifications de chaque décision exigent une infrastructure conçue à cet effet.

Pour les organisations souhaitant opérationnaliser la classification des risques de l’AI Act de l’UE sur l’ensemble de leur inventaire d’IA, Enzai fournit le cadre de gouvernance permettant de classifier, documenter et surveiller les systèmes d’IA au regard d’exigences réglementaires en évolution. Demander une démonstration pour découvrir comment des flux de classification structurés réduisent à la fois le risque de non-conformité et les efforts inutiles.

Références

[1] Règlement (UE) 2024/1689, article 99 - Amendes.

[2] Règlement (UE) 2024/1689, article 5 - Pratiques d’intelligence artificielle interdites.

[3] Règlement (UE) 2024/1689, articles 8-15 - Exigences applicables aux systèmes d’IA à haut risque.

[4] Règlement (UE) 2024/1689, article 50 - Obligations de transparence pour les systèmes d’IA à risque limité.

[5] Règlement (UE) 2024/1689, article 95 - Codes de conduite pour les engagements volontaires des fournisseurs de systèmes d’IA non à haut risque.

[6] Règlement (UE) 2024/1689, annexe I - Législation d’harmonisation de l’Union.

[7] Règlement (UE) 2024/1689, article 6(3) - Règles de classification des systèmes d’IA à haut risque.

[8] Règlement (UE) 2024/1689, considérants 44-46 - Portée des interdictions relatives à la reconnaissance des émotions.

[9] Règlement (UE) 2024/1689, article 14 - Supervision humaine.

[10] Règlement (UE) 2024/1689, articles 51-56 - Obligations des fournisseurs de modèles d’IA à usage général.

Découvrez davantage

Découvrez davantage

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Conformité Intégrée Dès la Conception

Conformité Intégrée Dès la Conception

ISO 27001

Enzai est certifiée ISO 27001, et lest depuis 2023. Nous nous engageons à réaliser des audits annuels effectués par NQA et collaborons étroitement avec nos partenaires consultants en sécurité, Instil, afin de mettre à jour et de renforcer en continu notre posture de sécurité.

RGPD

ISO 27001

Enzai est certifiée ISO 27001, et lest depuis 2023. Nous nous engageons à réaliser des audits annuels effectués par NQA et collaborons étroitement avec nos partenaires consultants en sécurité, Instil, afin de mettre à jour et de renforcer en continu notre posture de sécurité.

RGPD

Gouvernance de l'IA

Gouvernance de l'IA

Infrastructure

Infrastructure

conçu pour la Confiance.

conçu pour la Confiance.

Donnez à votre organisation les moyens d'adopter, de gérer et de surveiller l'IA avec une confiance de niveau entreprise. Conçu pour les organisations réglementées opérant à grande échelle.

Connectez sans effort vos systèmes existants, vos politiques et vos flux de travail d'IA — le tout sur une plateforme unifiée.

Connectez sans effort vos systèmes existants, vos politiques et vos flux de travail d'IA — le tout sur une plateforme unifiée.