Découvrez la gamme complète de produits de gouvernance de l'IA d'Enzai, conçus pour aider les organisations à gérer, surveiller et faire évoluer l'IA en toute confiance. Des processus d'intégration structurés et des inventaires centralisés d'IA aux évaluations automatisées et à la surveillance en temps réel, Enzai fournit les éléments nécessaires pour intégrer la gouvernance directement dans les flux de travail quotidiens de l'IA, sans freiner l'innovation.

Enzai

Réglementations sur l'IA

La loi sur l'IA de l'UE s'adapte à l'IA agentique. Elle n'a pas besoin de se casser.

Réglementations sur l'IA

La loi sur l'IA de l'UE s'adapte à l'IA agentique. Elle n'a pas besoin de se casser.

Réglementations sur l'IA

La loi sur l'IA de l'UE s'adapte à l'IA agentique. Elle n'a pas besoin de se casser.

La loi européenne sur l'IA couvre-t-elle l'IA agentielle ? Découvrez comment l'Article 3(1) se compare aux systèmes autonomes et pourquoi le cadre opérationnel fait face à un "problème des nombreuses mains". Apprenez comment Enzai aide les organisations à naviguer dans le paysage réglementaire européen en évolution.

Belfast

Belfast

15 minutes de lecture

Par

Par

Ryan Donnelly

Ryan Donnelly

Résilience définitionnelle

Résilience définitionnelle

La définition du « système d’IA » à l’article 3, paragraphe 1, de l’AI Act de l’UE englobe déjà l’IA agentique, en prenant en compte son degré d’autonomie variable, ses objectifs implicites et sa capacité à influencer des environnements, sans nécessiter de modification législative.

La définition du « système d’IA » à l’article 3, paragraphe 1, de l’AI Act de l’UE englobe déjà l’IA agentique, en prenant en compte son degré d’autonomie variable, ses objectifs implicites et sa capacité à influencer des environnements, sans nécessiter de modification législative.

Adaptation opérationnelle

Adaptation opérationnelle

Bien que le cadre opérationnel du règlement (évaluations de conformité, responsabilités au sein de la chaîne de valeur, supervision humaine) soit mis à rude épreuve par la nature dynamique des agents, les instruments juridiques secondaires existants, tels que les normes harmonisées et les actes délégués, offrent une voie crédible d’adaptation.

Bien que le cadre opérationnel du règlement (évaluations de conformité, responsabilités au sein de la chaîne de valeur, supervision humaine) soit mis à rude épreuve par la nature dynamique des agents, les instruments juridiques secondaires existants, tels que les normes harmonisées et les actes délégués, offrent une voie crédible d’adaptation.

Sujets

réglementation

Sujets

En deux ans, l’IA agentique est passée de curiosité de recherche à réalité de production. À la fin de 2025, quatre-vingts pour cent des entreprises du Fortune 500 faisaient fonctionner au moins un agent d’IA dans leurs opérations quotidiennes.[1] Ces systèmes sont qualitativement différents de l’IA qui dominait les discussions lorsque l’AI Act de l’UE (l’«Acte») a été rédigé entre 2021 et 2023. Là où un chatbot génère du texte et où un classifieur attribue des étiquettes, un système agentique poursuit des objectifs : planifier, sélectionner des outils, exécuter des actions, observer les résultats et itérer - souvent sur des dizaines d’étapes avec une intervention humaine minimale.

Un corpus croissant de commentaires soutient que l’Acte n’est pas adapté à cette ère. Jones a avancé que le cadre de conformité est «structurellement inadapté» pour des agents qui invoquent de manière autonome des outils tiers au-delà des juridictions, forgeant le concept de «souveraineté agentique des outils».[2] Le Comité de politique technologique Europe de l’ACM a appelé à une «refonte fondamentale», en soutenant que l’Acte suppose que l’IA se comporte comme un logiciel traditionnel - «prévisible, borné et sous commandement humain».[3] The Future Society a conclu que les normes techniques en cours d’élaboration «ne permettront probablement pas de traiter pleinement les risques liés aux agents».[4]

Ces critiques sont sérieuses, et les difficultés opérationnelles qu’elles identifient sont réelles. Mais elles tendent à traiter l’adéquation de l’Acte comme une question unique, alors qu’elle est mieux comprise comme deux questions distinctes. Cet article propose une analyse à deux niveaux. Au niveau définitionnel - savoir si l’IA agentique entre dans le périmètre réglementaire de l’Acte - l’Acte se révèle remarquablement résilient. Au niveau opérationnel - les obligations, les procédures d’évaluation et les exigences de surveillance - les critiques ont l’argument le plus solide.

Cette distinction compte davantage qu’il n’y paraît au premier abord. Si le niveau définitionnel était défaillant, l’Acte devrait faire l’objet d’une révision en profondeur. Comme il tient, le défi devient celui de l’adaptation opérationnelle - et les propres instruments secondaires de l’Acte nous offrent une base de travail substantielle.

Le niveau définitionnel : l’article 3, paragraphe 1, et sa résilience

L’article 3, paragraphe 1, définit un «système d’IA» comme :

un système basé sur une machine qui est conçu pour fonctionner avec différents niveaux d’autonomie et qui peut faire preuve d’adaptabilité après son déploiement et qui, pour des objectifs explicites ou implicites, déduit, à partir des données qu’il reçoit, la manière de générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions pouvant influencer des environnements physiques ou virtuels.

Cette définition est le fruit d’une négociation considérable, reflétant des choix délibérés quant au champ d’application et au niveau d’abstraction.[6] Pour voir comment elle s’applique à l’IA agentique, il est utile d’examiner chaque élément séparément.

«Différents niveaux d’autonomie»

Cette formule envisage explicitement un spectre, allant de systèmes nécessitant une intervention humaine constante à ceux fonctionnant avec une indépendance substantielle. Le considérant 12 précise que l’autonomie désigne «un certain degré d’indépendance des actions par rapport à l’intervention humaine et de capacité à fonctionner sans intervention humaine».[7] Un système qui planifie des appels d’outils, les exécute, évalue les résultats et ajuste son approche - le tout sans qu’un humain intervienne à chaque étape - fonctionne clairement à un niveau élevé d’autonomie au sens de cette définition.

«Objectifs explicites ou implicites»

Un chatbot fonctionne au service d’objectifs explicites : répondre à cette question, classer cette image. Les systèmes agentiques fonctionnent souvent au service d’objectifs implicites, insuffisamment spécifiés ou émergents. Une instruction telle que «trouver le meilleur candidat pour ce poste» exige que l’agent décompose l’objectif, sélectionne des outils et prenne lui-même des décisions d’appréciation. Si la définition s’était limitée aux «objectifs explicites», les systèmes agentiques poursuivant des sous-objectifs émergents auraient très probablement échappé au champ d’application. L’inclusion des objectifs «implicites» écarte cet argument.

Les «décisions» comme catégorie de sortie 

Parmi les quatre catégories de sortie de la définition - prédictions, contenu, recommandations et décisions - la dernière est essentielle. Une «décision» implique quelque chose d’actif : un choix entre plusieurs options ayant des conséquences. Lorsqu’un agent décide quel outil invoquer ou comment allouer les ressources, il prend manifestement des décisions au sens de cette définition

«Influencer des environnements physiques ou virtuels» 

Cette dernière clause est peut-être la plus déterminante. Elle va au-delà du paradigme entrée-sortie, en envisageant explicitement des systèmes dont les sorties modifient l’état du monde. Un agent qui envoie des courriels, exécute du code, modifie des bases de données ou commande des actionneurs influence son environnement. En privilégiant l’«influence sur l’environnement» plutôt qu’une simple génération de sortie, les rédacteurs ont construit une définition intrinsèquement compatible avec les systèmes prenant des actions.

Pris ensemble, la définition décrit ce que font les systèmes d’IA (déduire, décider, influencer) et la manière dont ils fonctionnent (de façon autonome, adaptative, orientée vers des objectifs), plutôt que la façon dont ils sont construits. C’est cette approche fonctionnelle et technologiquement neutre qui lui confère sa résilience. Une définition fondée sur des techniques spécifiques - apprentissage automatique, réseaux neuronaux - aurait été liée à un moment technologique donné. Une définition centrée sur la «prise de décision automatisée» (comme à l’article 22 du RGPD) aurait manqué le caractère autonome, multi-étapes et façonnant l’environnement qui distingue les agents.

Cette résilience était-elle délibérée ? Ou bien le fruit heureux d’une abstraction négociée ? Probablement un peu des deux. Le passage de la proposition initiale plus techniquement spécifique de la Commission reflétait des pressions venues de plusieurs directions : des États membres en quête de flexibilité, du Parlement en quête d’ampleur et le cadre de l’OCDE offrant un modèle de haut niveau.[8] Le résultat relève peut-être davantage de la logique du compromis que d’une conception clairvoyante. Mais quelles qu’en soient les origines, une définition réglementaire qui résiste à un changement de paradigme n’est pas chose anodine.

Le niveau opérationnel : là où le cadre se tend

Si le niveau définitionnel tient, le niveau opérationnel est l’endroit où résident les véritables difficultés. Les obligations de l’Acte ont été conçues pour des systèmes plus statiques et plus bornés, et trois problèmes se distinguent.

Conformité statique contre systèmes dynamiques

L’architecture à haut risque de l’Acte repose sur l’évaluation de la conformité, inspirée du droit de l’UE en matière de sécurité des produits - un modèle dans lequel les fournisseurs évaluent leurs propres systèmes au regard des exigences applicables avant de les mettre sur le marché.[9] Cela fonctionne suffisamment bien lorsque les capacités d’un système sont globalement connues au moment de l’évaluation. L’IA agentique bouleverse cette logique. Un agent qui sélectionne des outils dans des registres mis à jour dynamiquement à l’exécution invoquera des capacités qui n’existaient tout simplement pas lorsqu’il a été évalué. La notion de «modification substantielle» à l’article 3, point 23 - un changement «non prévu ou non planifié dans l’évaluation initiale de la conformité»[10] - met le problème en pleine lumière. Lorsqu’un agent appelle de manière autonome un nouveau service tiers, s’agit-il d’une modification substantielle ? Si oui, chaque invocation d’outil nouvelle déclenche une réévaluation - manifestement absurde. Si non, des changements matériels du profil de risque du système passent complètement au travers.

Le binôme fournisseur-déployeur contre une chaîne de valeur fragmentée 

L’Acte répartit les obligations entre deux rôles : les fournisseurs et les déployeurs.[11] La chaîne de valeur agentique ne correspond pas à cette répartition. Elle implique au moins quatre acteurs : le fournisseur du modèle de fondation ; le fournisseur du cadre agentique ; le déployeur ; et les fournisseurs d’outils dont les API sont appelées à l’exécution, souvent à leur insu. L’article 25, paragraphe 4, exige des accords écrits entre les fournisseurs et les prestataires tiers,[12] mais cela suppose des relations préétablies - ce qui ne peut tout simplement pas exister lorsque les agents sélectionnent des outils à la volée. Comme Jones l’a documenté en détail, la responsabilité se fragmente tout au long de la chaîne, sans que personne ne dispose à un instant donné d’une vision complète des décisions de l’agent, des flux de données ou de l’état de conformité - ce qu’il qualifie à juste titre de «problème des multiples mains».[13]

Le paradoxe de la surveillance humaine  

L’article 14 exige des mesures de supervision «proportionnées aux risques, au niveau d’autonomie et au contexte d’utilisation».[14] Mais tout l’intérêt de l’IA agentique réside précisément dans un fonctionnement autonome avec une intervention humaine minimale. Un agent prenant des dizaines de micro-décisions par seconde fonctionne à des vitesses qui peuvent simplement dépasser toute intervention humaine significative. L’Acte ne fournit aucune indication sur ce à quoi ressemble concrètement une supervision «proportionnée» dans le haut du spectre d’autonomie,[15] et le code de pratiques GPAI finalisé à la fin de 2025 ne résout pas entièrement cette question non plus.

Ce ne sont pas là les seuls défis opérationnels - la surveillance post-commercialisation prévue à l’article 72, paragraphe 2, se heurte à des difficultés similaires en matière de champ d’application, d’accès et de temporalité[16] - mais ils illustrent la tension centrale : un cadre opérationnel conçu pour des systèmes prévisibles et bornés est désormais confronté à une technologie qui n’est ni l’un ni l’autre.

Les instruments secondaires : une voie crédible pour aller de l’avant

Les défis opérationnels sont réels, mais ils ne sont pas tous également insolubles. Les instruments secondaires de l’Acte offrent une voie crédible, bien qu’incomplète, d’adaptation.

Normes harmonisées

Le CEN et le CENELEC élaborent des normes par l’intermédiaire du comité technique conjoint 21, dans le cadre d’un mandat modifié en juin 2025, les deux organisations ayant adopté en octobre 2025 des mesures d’accélération exceptionnelles.[17] C’est sans doute la voie la plus prometteuse. Le langage de proportionnalité de l’article 14 constitue, en pratique, une invitation ouverte à expliciter ce à quoi ressemble une supervision adéquate pour des systèmes hautement autonomes - espaces d’action bornés, points de contrôle structurés, pistes d’audit et mécanismes d’intervention - sans exiger la présence d’un humain dans la boucle à chaque instant.

Actes délégués 

L’article 7 habilite la Commission à modifier l’annexe III - la liste des cas d’usage à haut risque - par actes délégués, sous réserve d’une objection du Parlement et du Conseil.[18] Cela signifie que des catégories spécifiques de systèmes agentiques peuvent être intégrées au cadre à haut risque à mesure que les risques apparaissent, sans modification législative. L’article 6, paragraphe 3, permet aussi un calibrage dans l’autre sens.[19]

Orientations de la Commission et codes de pratiques

La Commission a déjà publié des orientations interprétatives sur la définition d’un système d’IA,[20] et d’autres orientations pourraient traiter de la manière dont le cadre fournisseur-déployeur s’applique aux chaînes de valeur agentiques, ainsi que de la question de savoir quand l’appel d’outils à l’exécution constitue une «modification substantielle». Les codes de pratiques au titre de l’article 56 offrent un autre levier, en traitant les risques spécifiques aux agents au niveau des modèles GPAI - fonctionnalités de contrôlabilité, journalisation de l’utilisation des outils et contraintes sur l’espace d’action - et en ciblant les risques à un point d’étranglement naturel de la chaîne de valeur.[21]

Le Digital Omnibus de la Commission sur l’IA, proposé en novembre 2025, constitue un premier indice que cette mécanique adaptative fonctionne en pratique.[22] L’Omnibus propose de reporter les obligations liées au haut risque jusqu’à ce que des normes harmonisées soient effectivement disponibles, de prolonger les délais relatifs aux exigences de transparence pour l’IA générative, de simplifier la conformité pour les PME et de centraliser l’application des systèmes fondés sur le GPAI au niveau de l’AI Office. Il fait tout cela sans toucher à la définition de l’article 3, paragraphe 1 - le niveau définitionnel reste intact tandis que le niveau opérationnel est ajusté. Tout aussi révélateur, toutefois, l’Omnibus ne traite pas spécifiquement de l’IA agentique, ce qui suggère que les instruments secondaires évoqués ci-dessus ont encore un travail important devant eux.

Deux caractéristiques structurelles devront probablement, à terme, faire l’objet d’une modification législative. Le binôme fournisseur-déployeur ne peut pas être étiré par des instruments secondaires pour couvrir des fournisseurs d’outils à l’exécution qui ignorent peut-être même faire partie d’un système agentique - cela exige une nouvelle base législative. Et un véritable passage d’une évaluation de conformité ponctuelle à une évaluation continue dépasse ce que des normes ou des orientations peuvent fournir à elles seules. Ce sont des domaines où l’Acte devra évoluer, et ses propres mécanismes de réexamen - y compris l’article 112 - offrent une voie pour y parvenir.[23]

Un cadre qui se plie

Le récit dominant présente l’AI Act de l’UE comme une relique de l’ère pré-agentique. Cet article a soutenu que ce récit est, de manière importante, incomplet.

Au niveau définitionnel, l’Acte fait preuve d’une véritable résilience. Les références de l’article 3, paragraphe 1, aux différents niveaux d’autonomie, aux objectifs implicites, à la prise de décision et à l’influence sur l’environnement délimitent un périmètre réglementaire qui englobe l’IA agentique sans tension excessive. Au niveau opérationnel, les critiques ont raison de souligner l’existence de lacunes réelles. Mais ces lacunes s’inscrivent dans un cadre qui a été délibérément conçu avec l’adaptabilité à l’esprit. La proposition de Digital Omnibus montre déjà la volonté de l’UE d’ajuster le niveau opérationnel tout en laissant intacte la base définitionnelle, et les instruments secondaires plus larges de l’Acte peuvent traiter une grande partie du défi agentique sans modification législative complète.

L’UE devrait résister à deux tentations : (i) la complaisance, qui consisterait à supposer que le cadre tiendra sans adaptation active ; et (ii) la panique, qui conduirait à conclure qu’il faut le démanteler. L’AI Act n’a pas été conçu pour l’IA agentique. Mais il l’a été suffisamment bien pour pouvoir l’absorber - et cette distinction compte énormément pour l’avenir de la gouvernance de l’IA en Europe. Le cadre se plie. Il n’a pas besoin de se briser.

Pour les organisations qui déploient aujourd’hui des systèmes agentiques, l’implication pratique est claire : la conformité n’est pas un problème futur à remettre à plus tard jusqu’à ce que le droit se mette à jour. Le périmètre définitionnel englobe déjà ces systèmes, et les obligations opérationnelles arrivent. La tâche consiste désormais à intégrer la gouvernance dans les flux de travail agentiques dès le départ : inventorier les systèmes d’IA au moment de leur déploiement, les rattacher aux classifications de risques en évolution et maintenir le type de supervision continue que les instruments secondaires de l’Acte exigeront de plus en plus. Chez Enzai, c’est précisément le défi que notre plateforme a été conçue pour aider les organisations à relever. Pour en savoir plus, prenez contact ici.

Enzai est la plateforme de référence de gouvernance de l’IA pour les entreprises, spécialement conçue pour aider les organisations à passer de politiques abstraites à une supervision opérationnelle. Notre plateforme de gestion des risques liés à l’IA fournit l’infrastructure spécialisée nécessaire pour gérer la gouvernance de l’IA agentique, tenir un inventaire complet de l’IA et garantir la conformité à l’AI Act de l’UE. En automatisant des flux de travail complexes, Enzai permet aux entreprises de déployer l’IA à grande échelle en toute confiance, tout en restant alignées sur des normes mondiales telles que ISO 42001 et NIST.


Références

[1] Microsoft Security Blog, «80 % des entreprises Fortune 500 utilisent des agents d’IA actifs : l’observabilité, la gouvernance et la sécurité façonnent la nouvelle frontière» (février 2026), disponible à https://www.microsoft.com/en-us/security/blog/2026/02/10/80-of-fortune-500-use-active-ai-agents-observability-governance-and-security-shape-the-new-frontier/.

[2] L. Jones, «Souveraineté agentique des outils», European Law Blog (2025), disponible à https://www.europeanlawblog.eu/pub/dq249o3c.

[3] ACM Europe Technology Policy Committee, «Risques systémiques associés à l’IA agentique : note d’orientation» (octobre 2025), disponible à https://www.acm.org/binaries/content/assets/public-policy/europe-tpc/systemic_risks_agentic_ai_policy-brief_final.pdf.

[4] M.L. Miller Nguyen, «Comment les agents d’IA sont gouvernés au titre de l’AI Act de l’UE», The Future Society (juin 2025), disponible à https://thefuturesociety.org/aiagentsintheeu/.

[5] Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle (AI Act), art. 3, paragraphe 1.

[6] La définition de l’AI Act s’appuie sur la définition des systèmes d’IA de l’OCDE adoptée en 2023, tout en s’en écartant. Voir les lignes directrices de la Commission européenne sur la définition d’un système d’IA (février 2025).

[7] AI Act, considérant 12.

[8] Voir la proposition initiale de la Commission européenne, COM(2021) 206 final, ainsi que les positions ultérieures du Conseil et du Parlement au cours des négociations en trilogue (2022-2023).

[9] Le cadre d’évaluation de la conformité s’inspire du «nouveau cadre législatif» de l’UE en matière de sécurité des produits, y compris la décision n° 768/2008/CE.

[10] AI Act, art. 3, point 23.

[11] AI Act, arts. 16 à 27 (obligations des fournisseurs) et art. 26 (obligations des déployeurs).

[12] AI Act, art. 25, paragraphe 4.

[13] Jones (n 2) ; AI Act, considérant 88, qui se contente d’«encourager» la coopération dans la chaîne de valeur sans créer d’obligations contraignantes.

[14] AI Act, art. 14, paragraphe 1 ; art. 14, paragraphe 4, points a) et d).

[15] M. Fink, «La supervision humaine au titre de l’article 14 de l’AI Act de l’UE», SSRN (2025), disponible à https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5147196.

[16] AI Act, art. 72, paragraphe 2. Voir Jones (n 2), qui examine le décalage temporel du modèle d’exécution par rapport aux opérations agentiques.

[17] Commission européenne, demande de normalisation M/593, telle que modifiée par M/613 (juin 2025) ; CEN-CENELEC, «Mise à jour sur la décision du CEN et du CENELEC d’accélérer l’élaboration de normes pour l’intelligence artificielle» (octobre 2025).

[18] AI Act, arts. 7 et 97. La délégation court pendant cinq ans à compter du 1er août 2024, avec une période d’objection de trois mois.

[19] AI Act, art. 6, paragraphe 3.

[20] Voir Orrick, «La Commission européenne clarifie la définition des systèmes d’IA» (avril 2025). La députée européenne Lagodinsky a formellement demandé à la Commission de clarifier la réglementation des agents en septembre 2025, signalant un appétit politique pour de nouvelles orientations : voir Jones (n 2).

[21] AI Act, art. 56.

[22] Commission européenne, Proposition de règlement modifiant les règlements (UE) 2024/1689 et (UE) 2024/1689 (Digital Omnibus sur l’IA), 19 novembre 2025. Voir également European Parliament Think Tank, «Digital Omnibus sur l’IA : la législation européenne en cours d’élaboration» (février 2026).

[23] AI Act, art. 112.

Découvrez davantage

Découvrez davantage

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Conformité Intégrée Dès la Conception

Conformité Intégrée Dès la Conception

ISO 27001

Enzai est certifiée ISO 27001, et lest depuis 2023. Nous nous engageons à réaliser des audits annuels effectués par NQA et collaborons étroitement avec nos partenaires consultants en sécurité, Instil, afin de mettre à jour et de renforcer en continu notre posture de sécurité.

RGPD

ISO 27001

Enzai est certifiée ISO 27001, et lest depuis 2023. Nous nous engageons à réaliser des audits annuels effectués par NQA et collaborons étroitement avec nos partenaires consultants en sécurité, Instil, afin de mettre à jour et de renforcer en continu notre posture de sécurité.

RGPD

Gouvernance de l'IA

Gouvernance de l'IA

Infrastructure

Infrastructure

conçu pour la Confiance.

conçu pour la Confiance.

Donnez à votre organisation les moyens d'adopter, de gérer et de surveiller l'IA avec une confiance de niveau entreprise. Conçu pour les organisations réglementées opérant à grande échelle.

Connectez sans effort vos systèmes existants, vos politiques et vos flux de travail d'IA — le tout sur une plateforme unifiée.

Connectez sans effort vos systèmes existants, vos politiques et vos flux de travail d'IA — le tout sur une plateforme unifiée.