Une définition claire de la gouvernance de l’IA agentique, en quoi elle diffère de la gouvernance traditionnelle de l’IA, pourquoi elle revêt une importance particulière aujourd’hui, ainsi que les cadres émergents conçus pour y répondre — notamment le Top 10 OWASP pour les applications agentiques et l’AI Act de l’UE.
•
•
19 minutes de lecture
Sujets
Gouvernance de l’IA agentique est l’ensemble des politiques, contrôles et mécanismes de supervision qui garantissent que les systèmes d’IA autonomes poursuivent leurs objectifs dans des limites de risque acceptables. Contrairement à la gouvernance de l’IA traditionnelle, qui se concentre sur la qualité et l’équité des résultats des modèles, la gouvernance de l’IA agentique se concentre sur les actions que ces systèmes entreprennent dans le monde — y compris les outils qu’ils invoquent, les données auxquelles ils accèdent et les conséquences que leurs décisions produisent.
La plupart des organisations ont passé les trois dernières années à élaborer des programmes de gouvernance conçus pour une génération antérieure d’IA : des classificateurs qui étiquettent, des modèles qui prédisent et des chatbots qui génèrent du texte. Ces programmes reposaient sur l’hypothèse qu’un système d’IA produit une sortie, qu’un humain l’évalue, puis que cet humain décide de la suite à donner. L’IA agentique remet en cause cette hypothèse. Un système d’IA agentique reçoit un objectif de haut niveau, le décompose en sous-tâches, sélectionne et invoque des outils pour accomplir chaque étape, évalue les résultats intermédiaires et ajuste son approche — souvent au travers de dizaines de décisions, avec une intervention humaine minimale à chaque étape.
Ce changement n’est plus hypothétique. Le rapport State of AI 2025 de McKinsey, publié en novembre 2025, a révélé que 23 % des organisations déploient désormais l’IA agentique à l’échelle dans au moins une fonction de l’entreprise, tandis que 39 % supplémentaires sont en phase d’expérimentation active.[1] À la fin de 2025, les capacités agentiques étaient passées des démonstrations de recherche à Salesforce, Microsoft Copilot, ServiceNow, SAP et à des dizaines d’autres plateformes d’entreprise. La question pour les entreprises n’est plus de savoir s’il faut déployer des agents d’IA, mais si elles disposent d’une gouvernance en place avant qu’un incident ne survienne.
L’objet de cet article est d’offrir aux dirigeants d’entreprise — cadres exécutifs, membres du conseil d’administration, responsables GRC et responsables de l’IA — une définition claire et opérationnelle de la gouvernance de l’IA agentique : ce qu’elle est, en quoi elle diffère de la gouvernance de l’IA que leurs organisations pratiquent peut-être déjà, pourquoi elle est désormais essentielle, quels cadres émergent pour y répondre et par où commencer. Pour un guide de mise en œuvre plus approfondi, fondé sur un cadre, consultez le guide Enzai Gouvernance de l’IA agentique : le guide de référence pour l’entreprise.
Qu’est-ce qu’un agent d’IA ?
Avant d’aller plus loin, il est utile d’être précis sur le terme « agent d’IA ». Cette appellation est employée de manière assez lâche dans les contenus marketing, ce qui obscurcit ce qui change réellement du point de vue de la gouvernance.
Dans le cadre de cet article, un agent d’IA est un système qui combine quatre éléments :
Un modèle fondationnel (généralement un grand modèle de langage) qui fournit une capacité de raisonnement
Un objectif — explicite (indiqué par un utilisateur) ou implicite (décomposé à partir d’un objectif de niveau supérieur)
Des outils — API, bases de données, environnements d’exécution de code ou autres systèmes que l’agent peut invoquer pour recueillir des informations ou agir
Une boucle d’exécution dans laquelle l’agent planifie, agit, observe les résultats de ses actions et itère
Un chatbot qui répond à des questions n’est pas un agent au sens strict — il génère une sortie, mais n’agit pas. Un flux de travail qui appelle un LLM pour résumer un e-mail n’est pas un agent — il ne dispose d’aucune boucle de décision autonome. Un agent est un système qui, à partir de l’instruction « trouver le meilleur candidat pour ce poste ouvert », peut décider de manière indépendante quelles bases de données interroger, quels candidats présélectionner, quelles communications adresser à qui et à quel moment escalader vers un humain. C’est cette autonomie qui rend les agents utiles. C’est aussi ce qui les rend difficiles à gouverner.
En quoi la gouvernance de l’IA agentique diffère-t-elle de la gouvernance de l’IA ?
L’élément le plus important à comprendre au sujet de la gouvernance de l’IA agentique est qu’il ne s’agit pas simplement de « plus de la même chose ». Trois différences structurelles modifient profondément le paysage de la gouvernance, d’une manière que les cadres conventionnels n’ont jamais été conçus pour traiter.
Le risque principal se déplace de la sortie vers l’action. La gouvernance traditionnelle de l’IA s’inquiète de ce que dit un modèle — si ses sorties sont exactes, équitables et exemptes de contenu préjudiciable. La gouvernance de l’IA agentique s’inquiète de ce qu’un agent fait — et nombre de ces actions sont irréversibles. Une image mal classée peut être renommée. Un e-mail envoyé au mauvais destinataire, un enregistrement de base de données supprimé ou une transaction financière exécutée par erreur ne peuvent pas simplement être annulés.
Des décisions uniques deviennent des chaînes en plusieurs étapes. Une instruction de haut niveau peut déclencher des dizaines de décisions intermédiaires : quelles bases de données interroger, quels critères pondérer, quelles actions entreprendre ensuite. Les cadres de gouvernance conçus pour des systèmes à décision unique peinent à gérer cette complexité cumulative. Une piste d’audit qui ne capture que les entrées et les sorties passe à côté du raisonnement qui les a produites.
L’accès statique aux outils devient une invocation dynamique des outils. Les architectures agentiques modernes permettent aux agents de découvrir et d’invoquer des outils à l’exécution — API, bases de données, services web — qui n’avaient peut-être pas été anticipés lors de la conception ou de l’évaluation du système. Les capacités du système le lundi peuvent différer sensiblement de ses capacités le vendredi. Cela crée une cible mouvante pour l’évaluation des risques, l’évaluation de conformité et la mise en conformité.
Les différences se cumulent. Une comparaison côte à côte rend le basculement en matière de gouvernance plus concret :
Dimension | Gouvernance traditionnelle de l’IA | Gouvernance de l’IA agentique |
|---|---|---|
Risque principal | Ce que le modèle dit (qualité de la sortie, biais, exactitude) | Ce que l’agent fait (actions, conséquences, irréversibilité) |
Schéma de décision | Une seule décision par requête | Chaînes de raisonnement en plusieurs étapes ; des dizaines de décisions par tâche |
Accès aux outils / aux données | Statique au déploiement | Dynamique à l’exécution — les agents découvrent et invoquent des outils |
Rôle humain | Relecteur des résultats | Concepteur des limites d’action, approbateur des escalades |
Modèle d’autorité | Ouvert par défaut | Liste d’autorisation par défaut |
Mode de défaillance | Mauvaise recommandation | Mauvaise action — souvent irréversible |
Validation | Évaluation avant déploiement | Surveillance continue + garde-fous à l’exécution |
Piste d’audit | Entrées et sorties | Chaîne de raisonnement complète, invocations d’outils, étapes intermédiaires |
Amplitude des dommages | Limitée par la sortie | Illimitée — les agents peuvent enchaîner des actions sur plusieurs systèmes |
Chaque ligne de ce tableau représente un point où les pratiques de gouvernance existantes seront insuffisantes si elles sont appliquées aux agents sans adaptation. Les entreprises qui avancent le plus rapidement aujourd’hui n’abandonnent pas leurs programmes de gouvernance de l’IA — elles les enrichissent avec les disciplines supplémentaires qu’exige ce tableau.
Pourquoi la gouvernance de l’IA agentique est-elle essentielle maintenant ?
Trois forces ont fait passer la gouvernance de l’IA agentique d’une préoccupation prospective à une priorité immédiate pour l’entreprise.
La première est l’ampleur du déploiement. Les capacités d’IA agentique sont désormais intégrées aux plateformes que la plupart des entreprises utilisent déjà. Microsoft, Salesforce, ServiceNow, SAP et des dizaines d’autres ont intégré des fonctionnalités agentiques à leurs produits d’entreprise au cours des dix-huit derniers mois. Selon McKinsey, 23 % des organisations déploient l’IA agentique à l’échelle dans au moins une fonction, et 39 % supplémentaires expérimentent.[1] Les systèmes agentiques déjà en fonctionnement dans la plupart des entreprises ne sont pas toujours autorisés ni visibles — beaucoup sont des fonctionnalités intégrées dans des plateformes SaaS, ou des déploiements d’IA fantôme par des équipes individuelles.
La deuxième est l’arrivée du cadre réglementaire. La définition d’un système d’IA dans l’AI Act de l’UE, à l’article 3(1), envisage explicitement des « niveaux variables d’autonomie » et des sorties qui « influencent les environnements physiques ou virtuels » — un libellé qui couvre sans difficulté les systèmes agentiques. L’ensemble complet des obligations applicables aux systèmes à haut risque en vertu des articles 9 à 15 entre en vigueur en août 2026, la proposition de Digital Omnibus pouvant potentiellement prolonger certains délais de l’annexe III jusqu’en décembre 2027.[2] Le périmètre réglementaire couvre déjà l’IA agentique ; les obligations opérationnelles arrivent selon un calendrier que les entreprises ne peuvent pas ignorer. (Pour une analyse détaillée, voir l’analyse d’Enzai sur la manière dont l’AI Act de l’UE s’applique à l’IA agentique et notre guide de conformité pour les entreprises à l’AI Act de l’UE.)
La troisième est la maturation des cadres de risque spécifiques aux agents. En décembre 2025, le OWASP GenAI Security Project a publié le Top 10 des applications agentiques 2026 — un catalogue relu par des pairs des risques de sécurité les plus critiques auxquels sont confrontés les systèmes d’IA autonomes, élaboré avec la contribution de plus de 100 chercheurs et praticiens.[3] Dans les mois qui ont suivi, plusieurs fournisseurs ont livré des outils d’exécution explicitement alignés sur ces risques. Les risques ont été nommés, classés et outillés. La fenêtre du « nous ne savons pas encore quoi gouverner » s’est refermée.
Palo Alto Networks a formulé la préoccupation pratique immédiate dans ses prévisions de cybersécurité 2026 : les agents autonomes sont désormais « la plus grande menace interne de 2026 », et seuls 6 % des organisations disposent de ce qu’elles qualifient de stratégie avancée de sécurité de l’IA.[4] L’écart entre la vitesse d’adoption et la maturité de la gouvernance s’élargit, et l’IA agentique se trouve à l’avant-garde de cet écart.
Les risques spécifiques à l’IA agentique
Une manière utile d’ancrer le concept abstrait de gouvernance de l’IA agentique consiste à examiner les risques concrets qu’elle doit traiter. Le OWASP Top 10 for Agentic Applications 2026 est l’énumération publique la plus rigoureuse disponible. Les dix risques se répartissent en groupes clairement identifiables :
Risques liés aux objectifs de l’agent — Le risque le plus souvent cité, Détournement de l’objectif de l’agent (ASI01), survient lorsque des adversaires manipulent les objectifs d’un agent au moyen d’entrées empoisonnées — e-mails, documents, pages web — que l’agent traite dans le cadre d’une tâche. Parce que les agents ne peuvent pas distinguer de manière fiable les instructions des données, une seule entrée malveillante peut détourner un agent et l’amener à exécuter des actions nuisibles en utilisant ses outils et ses accès légitimes.[3] Risque associé : Empoisonnement de la mémoire (ASI06), où un adversaire altère le contexte stocké de l’agent afin d’influencer ses décisions futures.
Risques liés aux actions de l’agent — Détournement d’outil (ASI02) est le deuxième risque du classement : un agent utilise un outil légitime à des fins illégitimes. Abus d’identité et de privilèges (ASI03) couvre les cas où un agent opère avec des identifiants plus étendus que ne l’exige sa tâche. Exécution de code inattendue (ASI05) traite des agents qui génèrent ou invoquent du code en dehors des limites prévues.
Risques liés à l’environnement de l’agent — Vulnérabilités de la chaîne d’approvisionnement agentique (ASI04) couvrent les outils, modèles et services tiers dont dépendent les agents à l’exécution. Communication inter-agents non sécurisée (ASI07) traite des systèmes multi-agents dans lesquels un agent compromis peut empoisonner ou contraindre les autres.
Risques pour le système dans son ensemble — Défaillances en cascade (ASI08) décrivent les situations dans lesquelles l’erreur d’un seul agent se propage à travers des chaînes de systèmes dépendants. Exploitation de la confiance humain-agent (ASI09) couvre les attaques d’ingénierie sociale qui exploitent la confiance des utilisateurs dans les recommandations des agents. Agents hors de contrôle (ASI10) traitent le problème d’inventaire et de détection — des agents opérant en dehors de tout programme de gouvernance autorisé.
Ces dix risques ne sont pas exhaustifs, mais ils fournissent une base de référence. Selon le consensus émergent du secteur, un programme de gouvernance de l’IA agentique qui n’apporte pas de réponse défendable à chacun d’entre eux est incomplet.
À quoi ressemble une bonne gouvernance de l’IA agentique
Un cadre complet pour gouverner l’IA agentique dépasse le périmètre de ce texte explicatif. Cinq dimensions de gouvernance apparaissent systématiquement dans les principaux cadres (OWASP, l’AI Act de l’UE, le NIST AI RMF, le Treasury Financial Services AI RMF), et tout programme sérieux de gouvernance de l’IA agentique doit traiter ces cinq dimensions :
Classification de l’autonomie — Tous les agents n’ont pas besoin du même niveau de gouvernance. Classez chacun d’entre eux selon son niveau d’autonomie opérationnelle, de l’assisté (chaque action approuvée par un humain) au totalement autonome (accomplissement de tâches sans limite prédéfinie).
Contrainte des actions — Définissez ce que chaque agent est autorisé à faire, en utilisant une approche fondée sur une liste d’autorisation. Les outils, les API, les données et les seuils d’impact (par exemple, la valeur maximale d’une transaction) sont autant d’objets de gouvernance.
Logique d’escalade — Définissez les conditions dans lesquelles un agent doit rendre la main à un humain : seuils de confiance, seuils d’impact, détection d’anomalies, limites de domaine, conditions d’échec.
Traçabilité — Capturez non seulement les entrées et les sorties, mais aussi la chaîne de raisonnement complète, chaque invocation d’outil et chaque décision intermédiaire. Les exigences de journalisation de l’article 12 de l’AI Act de l’UE présupposent cela.
Surveillance continue — La performance, le comportement, la conformité, l’équité et la sécurité doivent tous être suivis en temps réel. Une validation ponctuelle ne suffit pas pour des systèmes dont les capacités peuvent évoluer entre deux déploiements.
Chacune de ces dimensions comporte son propre niveau de profondeur de mise en œuvre. Pour le guide pratique — y compris une architecture de gouvernance à cinq niveaux alignée sur l’AI Act de l’UE, le problème de responsabilité multi-acteurs et la réponse aux incidents pour les défaillances d’agents — consultez le guide Enzai Gouvernance de l’IA agentique : le guide de référence pour l’entreprise.
Les cinq dimensions supposent également une capacité fondamentale : un inventaire de l’IA qui fait ressortir chaque système agentique séparément des modèles statiques. Sans cela, le programme de gouvernance n’a pas de périmètre. Le guide Enzai sur la manière de constituer un inventaire des systèmes d’IA à des fins de gouvernance couvre les exigences spécifiques à l’inventaire pour les systèmes agentiques.
Idées reçues courantes
Plusieurs croyances freinent l’adoption, en entreprise, de la gouvernance de l’IA agentique. Elles sont toutes erronées, et il vaut la peine de les corriger explicitement.
« La gouvernance agentique peut attendre une nouvelle réglementation. » C’est faux. La définition existante de l’AI Act de l’UE couvre déjà les systèmes agentiques, et les obligations applicables aux systèmes à haut risque à partir d’août 2026 s’appliquent. Les organisations qui attendent une réglementation « spécifique à l’IA agentique » se retrouveront en non-conformité au regard d’une réglementation déjà en vigueur.
« La gouvernance de l’IA existante couvre l’IA agentique. » Ce n’est pas le cas, du moins pas entièrement. Comme le montre le tableau comparatif ci-dessus, la gouvernance traditionnelle de l’IA a été conçue pour des systèmes qui produisent des sorties, et non pour des systèmes qui agissent. Les programmes existants doivent être étendus — nouveaux champs dans l’inventaire, nouvelles catégories de risques, nouveaux contrôles opérationnels — pour gouverner correctement les systèmes agentiques.
« L’IA agentique est trop récente pour être gouvernée sérieusement. » Ce n’est pas vrai. En décembre 2025, OWASP disposait déjà d’un catalogue des dix principaux risques, relu par des pairs. Au deuxième trimestre 2026, plusieurs fournisseurs avaient livré des outils d’exécution explicitement alignés sur ces risques.[3] Les cadres et les outils existent ; la contrainte tient à la maturité d’adoption par les entreprises, pas à la disponibilité des cadres.
« Une politique suffit. » Une politique sans mécanisme d’application n’est qu’un vœu pieux. Les agents fonctionnent à la vitesse des machines et peuvent prendre des dizaines d’actions par seconde. Une revue manuelle des politiques ne peut pas suivre le rythme ; la gouvernance de l’IA agentique doit être mise en œuvre dans l’infrastructure — garde-fous d’exécution, application des listes d’autorisation, déclencheurs d’escalade automatisés — et non sous forme de documents stockés dans un wiki.
« C’est un problème de sécurité, pas de gouvernance. » C’est les deux. Les disciplines de sécurité — authentification, autorisation, validation des entrées, surveillance — sont essentielles, mais elles répondent à des questions différentes de celles de la gouvernance : qui est responsable, comment le risque est-il classé, quels cadres s’appliquent, quelles preuves satisferont un régulateur. L’IA agentique a besoin des deux, travaillant de concert.
FAQ
Qu’est-ce que la gouvernance de l’IA agentique ? La gouvernance de l’IA agentique est l’ensemble des politiques, contrôles et mécanismes de supervision qui garantissent que les systèmes d’IA autonomes poursuivent leurs objectifs dans des limites de risque acceptables. Elle diffère de la gouvernance traditionnelle de l’IA parce qu’elle se concentre sur ce que les agents font — leurs actions et leurs conséquences — et non uniquement sur ce que les modèles disent.
Qu’est-ce qu’un agent d’IA ? Un agent d’IA est un système qui combine un modèle fondationnel (pour le raisonnement), un objectif, un ensemble d’outils qu’il peut invoquer (API, bases de données, exécution de code) et une boucle d’exécution dans laquelle il planifie, agit, observe les résultats et itère. Sa caractéristique définitoire est la capacité à agir de manière autonome, et pas seulement à générer des sorties.
La gouvernance de l’IA agentique est-elle la même chose que la gouvernance de l’IA ? Non. La gouvernance de l’IA agentique est une extension spécialisée de la gouvernance de l’IA. La gouvernance traditionnelle de l’IA se concentre sur les sorties des modèles (exactitude, biais, équité, contenu). La gouvernance de l’IA agentique doit, en plus, traiter l’action autonome, le raisonnement en plusieurs étapes, l’invocation dynamique d’outils et l’irréversibilité de nombreuses actions d’agents.
L’AI Act de l’UE couvre-t-il les agents d’IA ? Oui. La définition d’un système d’IA à l’article 3(1) de l’AI Act de l’UE envisage explicitement des « niveaux variables d’autonomie » et des sorties qui « influencent les environnements physiques ou virtuels » — un libellé qui couvre les systèmes agentiques. Lorsqu’un système agentique relève d’une catégorie à haut risque de l’annexe III, l’ensemble des obligations des articles 9 à 15 s’applique, la date limite d’août 2026 pouvant être prolongée via la proposition de Digital Omnibus.
Qu’est-ce que le OWASP Top 10 for Agentic Applications ? Un catalogue relu par des pairs des dix risques de sécurité les plus critiques auxquels sont confrontés les systèmes d’IA autonomes, publié par le OWASP GenAI Security Project en décembre 2025. La liste comprend Détournement de l’objectif de l’agent, Détournement d’outil, Abus d’identité et de privilèges, Vulnérabilités de la chaîne d’approvisionnement agentique, Exécution de code inattendue, Empoisonnement de la mémoire, Communication inter-agents non sécurisée, Défaillances en cascade, Exploitation de la confiance humain-agent et Agents hors de contrôle.[3]
Comment la norme ISO 42001 s’applique-t-elle aux agents d’IA ? La norme ISO/IEC 42001, norme internationale relative aux systèmes de management de l’IA, s’applique à l’IA agentique comme à tout autre système d’IA. Ses exigences en matière d’évaluation des risques, de supervision humaine et de surveillance continue sont directement pertinentes. Les organisations qui visent une certification doivent s’assurer que leur système de management de l’IA couvre explicitement les déploiements d’agents autonomes, et pas seulement les applications d’IA conventionnelles.
Quelle est la première étape pour gouverner les agents d’IA ? Constituer un inventaire de l’IA qui fasse ressortir les systèmes agentiques séparément des modèles statiques. Sans un recensement précis des agents existants, de ce qu’ils sont autorisés à faire et de leurs propriétaires, aucune autre étape de gouvernance n’est possible.
Quelle est la différence entre l’IA agentique et l’IA générative ? L’IA générative crée du contenu (texte, images, audio) ; l’IA agentique agit dans le monde. De nombreux systèmes agentiques reposent sur des modèles d’IA générative — mais le changement de gouvernance vient de la capacité à agir, ajoutée au-dessus de l’architecture générative sous-jacente, et non de cette architecture elle-même.
Et après ?
Pour les organisations qui en sont aux premiers stades de leur parcours de gouvernance de l’IA agentique, la priorité consiste à établir la visibilité : un inventaire de l’IA qui fait apparaître spécifiquement les systèmes agentiques, associé à une classification de l’autonomie pour chacun d’entre eux. Pour les organisations plus avancées, le travail est opérationnel : mettre en place des contraintes fondées sur des listes d’autorisation, des garde-fous d’exécution et une logique d’escalade alignée sur le niveau d’autonomie de chaque agent.
Le guide complet de mise en œuvre d’Enzai se trouve dans notre Gouvernance de l’IA agentique : le guide de référence pour l’entreprise, qui couvre le cadre de gouvernance à cinq niveaux, la responsabilité multi-acteurs, la réponse aux incidents et la manière dont les exigences s’alignent sur l’AI Act de l’UE, ISO 42001 et le NIST AI RMF.
Si vous souhaitez voir comment la plateforme Enzai prend spécifiquement en charge la gouvernance de l’IA agentique — classification de l’autonomie à l’intégration, liste d’autorisation des actions en production, pistes d’audit pour chaque étape de raisonnement et surveillance continue sur l’ensemble du parc agentique — réservez une démonstration.
Enzai est la plateforme leader de gouvernance de l’IA pour l’entreprise, conçue pour aider les organisations à passer d’une politique abstraite à une supervision opérationnelle. Notre plateforme de gestion des risques liés à l’IA fournit l’infrastructure spécialisée nécessaire pour gérer la gouvernance de l’IA agentique, maintenir un inventaire de l’IA complet et garantir la conformité à l’AI Act de l’UE. En automatisant des flux de travail complexes, Enzai permet aux entreprises d’accélérer l’adoption de l’IA en toute confiance, tout en restant alignées sur des normes mondiales telles que ISO 42001 et NIST.
Références
McKinsey & Company, « L’état de l’IA en 2025 : agents, innovation et transformation », novembre 2025.
Règlement (UE) 2024/1689 du Parlement européen et du Conseil, articles 3(1), 9-15, 113-114. Journal officiel de l’Union européenne, août 2024. La proposition de la Commission européenne relative au Digital Omnibus sur l’IA (novembre 2025) pourrait modifier les délais de l’annexe III, sous réserve des négociations en trilogue.
OWASP GenAI Security Project, « OWASP Top 10 des applications agentiques 2026 », publié le 10 décembre 2025.
Palo Alto Networks, « Prévisions de cybersécurité 2026 » et « Les agents d’IA, plus grande menace interne de 2026 » (couverture de The Register), janvier 2026.
Donnez à votre organisation les moyens d'adopter, de gérer et de surveiller l'IA avec une confiance de niveau entreprise. Conçu pour les organisations réglementées opérant à grande échelle.

