La loi européenne sur l'IA couvre-t-elle l'IA agentielle ? Découvrez comment l'Article 3(1) se compare aux systèmes autonomes et pourquoi le cadre opérationnel fait face à un "problème des nombreuses mains". Apprenez comment Enzai aide les organisations à naviguer dans le paysage réglementaire européen en évolution.
•
•
14 minutes de lecture
Sujets
En deux ans, l'IA agentique est passée d'une curiosité de recherche à une réalité de production. D'ici la fin de 2025, quatre-vingts pour cent des entreprises du Fortune 500 utilisaient au moins un agent AI dans leurs opérations quotidiennes.[1] Ces systèmes sont qualitativement différents de l'IA qui dominait la discussion lorsque l'Acte sur l'IA de l'UE (l'« Acte ») a été rédigé entre 2021 et 2023. Là où un chatbot génère du texte et un classificateur attribue des étiquettes, un système agentique poursuit des objectifs : planifier, sélectionner des outils, exécuter des actions, observer les résultats et itérer - souvent sur des dizaines d'étapes avec une intervention humaine minimale.
Un ensemble croissant de commentaires soutient que l'Acte n'est pas adapté à cette époque. Jones a soutenu que le cadre de conformité est « structurellement inadéquat » pour les agents qui invoquent de manière autonome des outils tiers à travers les juridictions, en forgeant le concept de « Souveraineté des Outils Agentiques. »[2] Le Comité de Politique Technologique de l'Europe de l'ACM a appelé à une « révision fondamentale », arguant que l'Acte suppose que l'IA se comporte comme un logiciel traditionnel - « prévisible, limité et sous contrôle humain. »[3] La Future Society a conclu que les normes techniques en cours de développement « échoueront probablement à traiter pleinement les risques des agents ».[4]
Ces critiques sont sérieuses, et les difficultés opérationnelles qu'elles identifient sont réelles. Mais elles ont tendance à traiter l'adéquation de l'Acte comme une seule question, alors qu'elle est mieux comprise comme deux. Cet article propose une analyse à deux niveaux. Au niveau définitionnel - si l'IA agentique entre dans le périmètre réglementaire de l'Acte - l'Acte prouve être remarquablement résilient. Au niveau opérationnel - les obligations, les procédures d'évaluation et les exigences de surveillance - les critiques ont un cas plus fort.
Cette distinction est plus importante qu'elle n'y paraît. Si le niveau définitionnel était défaillant, l'Acte nécessiterait une révision complète. Parce qu'il tient, le défi devient celui de l'adaptation opérationnelle - et les instruments secondaires propres à l'Acte nous offrent beaucoup de matériel avec lequel travailler.
Le Niveau Définitionnel : Article 3(1) et sa Résilience
L'article 3(1) définit un « système d'IA » comme :
un système basé sur une machine conçu pour fonctionner avec des niveaux d'autonomie variables et qui peut faire preuve d'adaptabilité après le déploiement et qui, pour des objectifs explicites ou implicites, déduit, à partir des données qu'il reçoit, comment générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions susceptibles de influencer des environnements physiques ou virtuels.
Cette définition a été le produit d'une négociation considérable, reflétant des choix délibérés sur la portée et l'abstraction.[6] Pour voir comment cela s'étend à l'IA agentique, il est utile de prendre chaque élément à son tour.
« Niveaux d'autonomie variables »
Cette phrase considère explicitement un spectre, depuis des systèmes nécessitant un apport humain constant jusqu'à ceux fonctionnant avec une indépendance substantielle. Le considérant 12 développe que l'autonomie se réfère à « un certain degré d'indépendance des actions par rapport à l'implication humaine et des capacités à fonctionner sans intervention humaine ».[7] Un système qui planifie des invocations d'outils, les exécute, évalue les résultats et ajuste son approche - tout cela sans intervention humaine à chaque étape - fonctionne clairement à un haut niveau d'autonomie dans cette définition.
« Objectifs explicites ou implicites »
Un chatbot fonctionne vers des objectifs explicites : répondre à cette question, classer cette image. Les systèmes agentiques fonctionnent souvent vers des objectifs qui sont implicites, non spécifiés ou émergents. Une instruction pour « trouver le meilleur candidat pour ce rôle » exige que l'agent décompose l'objectif, sélectionne des outils et prenne des décisions de manière indépendante. Si la définition s'était arrêtée à « objectifs explicites », les systèmes agentiques poursuivant des sous-objectifs émergents pourraient bien sortir du cadre. L'inclusion de « implicites » empêche cet argument.
« Décisions » en tant que catégorie de résultats
Parmi les quatre catégories de résultats de la définition - prédictions, contenu, recommandations et décisions - la dernière est clé. Une « décision » implique quelque chose d'actif : un choix parmi des alternatives avec des conséquences. Lorsqu'un agent décide quel outil invoquer ou comment allouer des ressources, il prend clairement des décisions dans ce sens
« Influencer des environnements physiques ou virtuels »
Cette clause finale peut être la plus conséquente. Elle va au-delà du paradigme entrée-sortie, envisageant explicitement des systèmes dont les résultats changent l'état du monde. Un agent qui envoie des emails, exécute du code, modifie des bases de données ou contrôle des actionneurs influence son environnement. En visant « l'influence environnementale » plutôt que la simple génération de sortie, les rédacteurs ont construit une définition qui est intrinsèquement compatible avec des systèmes prenant des actions.
Ensemble, la définition décrit ce que font les systèmes d'IA (inférer, décider, influencer) et comment ils fonctionnent (de manière autonome, adaptative, vers des objectifs), plutôt que comment ils sont construits. Cette approche fonctionnelle et technologiquement neutre est ce qui lui donne sa résilience. Une définition construite autour de techniques spécifiques - apprentissage machine, réseaux neuronaux - aurait été enchaînée à un moment technologique. Une définition focalisée sur la « prise de décision automatisée » (comme dans l'Article 22 du RGPD) aurait manqué le caractère autonome, multi-niveaux et façonnant l'environnement qui distingue les agents.
Cette résilience était-elle délibérée ? Ou était-ce un heureux sous-produit de l'abstraction négociée ? Probablement un peu des deux. Le passage de la proposition initiale plus techniquement spécifique de la Commission a reflété des pressions de multiples directions : des États membres cherchant de la flexibilité, le Parlement cherchant à s'étendre et le cadre de l'OCDE offrant un modèle de haut niveau.[8] Le résultat doit peut-être plus à la logique du compromis qu'à une conception clairvoyante. Mais quelle qu'en soit l'origine, une définition réglementaire qui résiste à un changement de paradigme n'est pas une mince affaire.
Le Niveau Opérationnel : Là où le Cadre Se Tendent
Si le niveau définitionnel tient, c'est au niveau opérationnel que résident les vraies difficultés. Les obligations de l'Acte étaient conçues pour des systèmes plus statiques et limités, et trois problèmes se démarquent.
Conformité statique versus systèmes dynamiques
L'architecture à haut risque de l'Acte repose sur une évaluation de conformité tirée du droit de la sécurité des produits de l'UE - un modèle dans lequel les fournisseurs évaluent leurs propres systèmes par rapport aux exigences applicables avant de les mettre sur le marché.[9] Cela fonctionne suffisamment bien lorsque les capacités d'un système sont globalement connues au moment de l'évaluation. L'IA agentique bouleverse cela. Un agent sélectionnant des outils à partir de registres se mettant à jour dynamiquement à l'exécution invoquera des capacités qui n'existaient tout simplement pas lorsqu'il a été évalué. Le concept de « modification substantielle » de l'Article 3(23) - un changement « non prévu ou planifié lors de l'évaluation initiale de conformité »[10] - met le problème en évidence. Lorsqu'un agent appelle de manière autonome un nouveau service tiers, est-ce une modification substantielle ? Si oui, toute nouvelle invocation d'outil déclenche une réévaluation - manifestement absurde. Si non, les changements matériels du profil de risque du système passent complètement inaperçus.
La dichotomie fournisseur-exploitant versus une chaîne de valeur fragmentée
L'Acte divise les obligations entre deux rôles : fournisseurs et exploitants.[11] La chaîne de valeur agentique ne correspond pas à cette division. Elle implique au moins quatre acteurs : le fournisseur de modèle de base ; le fournisseur de cadre d'agent ; l'exploitant ; et les fournisseurs d'outils dont les API sont appelées à l'exécution, souvent à leur insu. L'Article 25(4) exige des accords écrits entre les fournisseurs et les fournisseurs tiers,[12] mais cela suppose des relations préétablies - qui ne peuvent tout simplement pas exister lorsque les agents choisissent les outils à la volée. Comme Jones l'a documenté en détail, la responsabilité se fragmente à travers la chaîne, avec personne ne détenant un aperçu complet des décisions de l'agent, des flux de données ou de la posture de conformité à un moment donné - ce qu'il a judicieusement appelé un « problème de nombreuses mains ».[13]
Le paradoxe de la surveillance humaine
L'article 14 exige des mesures de surveillance « proportionnées aux risques, au niveau d'autonomie et au contexte d'utilisation ».[14] Mais le principe même de l'IA agentique est un fonctionnement autonome avec une implication humaine minimale. Un agent prenant des douzaines de micro-décisions par seconde fonctionne à des vitesses qui peuvent tout simplement dépasser toute intervention humaine significative. L'Acte ne donne aucune orientation sur ce à quoi ressemble une surveillance « proportionnée » dans la partie haute du spectre d'autonomie,[15] et le Code de Pratique de la GPAI finalisé à la fin de 2025 ne résout pas entièrement cela non plus.
Ce ne sont pas les seuls défis opérationnels - la surveillance post-marché en vertu de l'Article 72(2) rencontre des difficultés similaires en termes de portée, d'accès et de temporalité[16] - mais ils illustrent la tension centrale : un cadre opérationnel construit pour des systèmes prévisibles et limités confronté maintenant à une technologie qui n'est ni l'un ni l'autre.
Les Instruments Secondaires : Un Chemin Crédible à Suivre
Les défis opérationnels sont réels, mais ils ne sont pas tous également insolubles. Les instruments secondaires de l'Acte offrent une voie crédible, quoique incomplète, vers l'adaptation.
Normes harmonisées
Le CEN et le CENELEC développent des normes par le biais du Comité Technique Commun 21, sous un mandat amendé en juin 2025, les deux organisations adoptant des mesures d'accélération exceptionnelles en octobre 2025.[17] C'est arguablement l'avenue la plus prometteuse. Le langage de proportionnalité de l'Article 14 est, en pratique, une invitation ouverte à clarifier à quoi ressemble une surveillance adéquate pour les systèmes hautement autonomes - espaces d'action limités, points de contrôle structurés, traces d'audit et mécanismes d'intervention - sans exiger une présence humaine à chaque tournant.
Actes délégués
L'article 7 autorise la Commission à modifier l'Annexe III - la liste des cas d'utilisation à haut risque - par des actes délégués, sous réserve d'objection du Parlement et du Conseil.[18] Cela signifie que des catégories spécifiques de système agentique peuvent être intégrées dans le cadre à haut risque à mesure que les risques émergent, sans amendement législatif. L'article 6(3) permet également un calibrage dans l'autre sens.[19]
Orientations de la Commission et codes de pratique
La Commission a déjà émis des orientations d'interprétation sur la définition des systèmes d'IA,[20] et d'autres orientations pourraient aborder comment le cadre fournisseur-exploitant s'applique aux chaînes de valeur agentiques, et quand l'appel d'outil à l'exécution compte comme « modification substantielle ». Les codes de pratique en vertu de l'Article 56 offrent un autre levier, répondant aux risques spécifiques aux agents au niveau du modèle GPAI - fonctionnalités de contrôlabilité, journalisation de l'utilisation des outils et contraintes d'espace d'action - et ciblant les risques à un point d'étranglement naturel de la chaîne de valeur.[21]
Le Digital Omnibus de la Commission sur l'IA, proposé en novembre 2025, est une preuve précoce que cette machinerie adaptative fonctionne dans la pratique.[22] L'Omnibus propose de reporter les obligations à haut risque jusqu'à ce que des normes harmonisées soient réellement disponibles, en prolongeant les délais pour les exigences de transparence des IA génératives, en simplifiant la conformité pour les PME et en centralisant l'application des systèmes basés sur la GPAI au niveau du Bureau de l'IA. Il fait tout cela sans toucher à la définition de l'Article 3(1) - le niveau définitionnel reste intact tandis que le niveau opérationnel est ajusté. Pourtant, l'Omnibus n'aborde pas spécifiquement l'IA agentique, ce qui suggère que les instruments secondaires discutés ci-dessus ont encore beaucoup de travail devant eux.
Deux caractéristiques structurelles nécessiteront probablement un amendement législatif à terme. La dichotomie fournisseur-exploitant ne peut être étendue par des instruments secondaires pour couvrir les fournisseurs d'outils d'exécution qui peuvent même ne pas savoir qu'ils font partie d'un système agentique - cela nécessite une nouvelle base législative. Et un véritable passage d'une évaluation de conformité ponctuelle à une évaluation continue va au-delà de ce que les normes ou les orientations peuvent assurer seules. Ce sont des domaines où l'Acte devra évoluer, et ses propres mécanismes de révision - y compris l'Article 112 - fournissent une voie pour y parvenir.[23]
Un Cadre Qui Se Plie
Le récit dominant positionne l'Acte sur l'IA de l'UE comme un vestige de l'ère pré-agentique. Cet article a soutenu que ce récit est largement incomplet.
Au niveau définitionnel, l'Acte montre une véritable résilience. Les références de l'Article 3(1) à une autonomie variable, à des objectifs implicites, à la prise de décision et à l'influence environnementale tracent un périmètre réglementaire qui inclut l'IA agentique sans difficulté. Au niveau opérationnel, les critiques ont raison de souligner qu'il existe de véritables lacunes. Mais ces lacunes se situent dans un cadre qui a été délibérément construit avec l'adaptabilité à l'esprit. La proposition du Digital Omnibus montre déjà la volonté de l'UE d'ajuster le niveau opérationnel tout en laissant le fondement définitionnel intact, et les instruments secondaires plus larges de l'Acte peuvent répondre à une bonne partie des défis agentiques sans amendement législatif complet.
L'UE devrait résister à deux tentations : (i) la complaisance, en supposant que le cadre tiendra sans adaptation active ; et (ii) la panique, en concluant qu'il doit être déchiré. L'Acte sur l'IA n'a pas été conçu pour l'IA agentique. Mais il a été conçu suffisamment bien pour l'accueillir - et cette distinction est d'une importance capitale pour l'avenir de la gouvernance de l'IA en Europe. Le cadre se plie. Il n'a pas besoin de se casser.
Pour les organisations déployant aujourd'hui des systèmes agentiques, l'implication pratique est claire : la conformité n'est pas un problème à reporter jusqu'à ce que la législation s'aligne. Le périmètre définitionnel capture déjà ces systèmes, et les obligations opérationnelles arrivent. La tâche maintenant est d'introduire la gouvernance dans les flux de travail agentiques dès le départ : inventorier les systèmes d'IA lors de leur déploiement, les mapper contre les classifications de risque évolutives et maintenir le type de surveillance continue que les instruments secondaires de l'Acte demanderont de plus en plus. Chez Enzai, c'est le défi que notre plateforme est conçue pour aider les organisations à naviguer. Pour en savoir plus, contactez-nous ici.
Références
[1] Blog Microsoft Security, « 80 % des entreprises du Fortune 500 utilisent des agents AI actifs : l'observabilité, la gouvernance et la sécurité façonnent la nouvelle frontière » (février 2026), disponible à https://www.microsoft.com/en-us/security/blog/2026/02/10/80-of-fortune-500-use-active-ai-agents-observability-governance-and-security-shape-the-new-frontier/.
[2] L. Jones, « Souveraineté des Outils Agentiques, » Blog de Droit Européen (2025), disponible à https://www.europeanlawblog.eu/pub/dq249o3c.
[3] Comité de Politique Technologique de l'Europe de l'ACM, « Risques Systémiques Associés à l'IA Agentique : Un Bref de Politique » (octobre 2025), disponible à https://www.acm.org/binaries/content/assets/public-policy/europe-tpc/systemic_risks_agentic_ai_policy-brief_final.pdf.
[4] M.L. Miller Nguyen, « Comment les Agents AI Sont Gouvernés en Vertu de l'Acte sur l'IA de l'UE, » La Future Society (juin 2025), disponible à https://thefuturesociety.org/aiagentsintheeu/.
[5] Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées sur l'intelligence artificielle (Acte sur l'Intelligence Artificielle), Art. 3(1).
[6] La définition de l'Acte sur l'IA s'appuie sur, mais diverge de celle de l'OCDE adoptée en 2023. Voir les lignes directrices de la Commission européenne sur la définition d'un système d'IA (février 2025).
[7] Acte sur l'IA, Considérant 12.
[8] Voir la proposition initiale de la Commission européenne, COM(2021) 206 final, et les positions subséquentes du Conseil et du Parlement lors des négociations en trilogue (2022-2023).
[9] Le cadre d'évaluation de conformité s'appuie sur le « Nouveau Cadre Législatif » de l'UE pour la sécurité des produits, y compris la Décision No 768/2008/CE.
[10] Acte sur l'IA, Art. 3(23).
[11] Acte sur l'IA, Arts. 16-27 (obligations du fournisseur) et Art. 26 (obligations de l'exploitant).
[12] Acte sur l'IA, Art. 25(4).
[13] Jones (n 2) ; Acte sur l'IA, Considérant 88, qui « encourage » simplement la coopération dans la chaîne de valeur sans créer d'obligations contraignantes.
[14] Acte sur l'IA, Art. 14(1) ; Art. 14(4)(a) et (d).
[15] M. Fink, « Surveillance Humaine dans le Cadre de l'Article 14 de l'Acte sur l'IA de l'UE, » SSRN (2025), disponible à https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5147196.
[16] Acte sur l'IA, Art. 72(2). Voir Jones (n 2), discutant de la discordance temporelle du modèle d'application avec les opérations agentiques.
[17] Commission européenne, Demande de Normalisation M/593, telle que modifiée par M/613 (juin 2025) ; CEN-CENELEC, « Mise à jour sur la Décision du CEN et du CENELEC d'Accélérer le Développement de Normes pour l'Intelligence Artificielle » (octobre 2025).
[18] Acte sur l'IA, Arts. 7 et 97. La délégation est pour cinq ans à partir du 1er août 2024, avec une période d'objection de trois mois.
[19] Acte sur l'IA, Art. 6(3).
[20] Voir Orrick, « La Commission de l'UE Clarifie la Définition des Systèmes d'IA » (avril 2025). MEP Lagodinsky a formellement demandé à la Commission de clarifier la réglementation des agents en septembre 2025, signalant un appétit politique pour des orientations supplémentaires : voir Jones (n 2).
[21] Acte sur l'IA, Art. 56.
[22] Commission européenne, Proposition de Règlement modifiant les Règlements (UE) 2024/1689 et (UE) 2024/1689 (Digital Omnibus sur l'IA), 19 novembre 2025. Voir aussi European Parliament Think Tank, « Digital Omnibus sur l'IA : Législation en Cours de l'UE » (février 2026).
[23] Acte sur l'IA, Art. 112.
Donnez à votre organisation les moyens d'adopter, de gérer et de surveiller l'IA avec une confiance de niveau entreprise. Conçu pour les organisations réglementées opérant à grande échelle.

