Découvrez la gamme complète de produits de gouvernance de l'IA d'Enzai, conçus pour aider les organisations à gérer, surveiller et faire évoluer l'IA en toute confiance. Des processus d'intégration structurés et des inventaires centralisés d'IA aux évaluations automatisées et à la surveillance en temps réel, Enzai fournit les éléments nécessaires pour intégrer la gouvernance directement dans les flux de travail quotidiens de l'IA, sans freiner l'innovation.

Enzai

Réglementations sur l'IA

IA fantôme : comment découvrir et encadrer l’utilisation non autorisée de l’IA

Réglementations sur l'IA

IA fantôme : comment découvrir et encadrer l’utilisation non autorisée de l’IA

Réglementations sur l'IA

IA fantôme : comment découvrir et encadrer l’utilisation non autorisée de l’IA

Comment découvrir et encadrer l’IA fantôme à l’échelle de votre entreprise : méthodes de découverte, politiques d’utilisation acceptable et mise en place d’une gouvernance sans freiner l’innovation.

Belfast

Belfast

16 minutes de lecture

Sujets

Gouvernance de l’IA
IA non autorisée
gestion des risques
Règlement européen sur l’IA
ISO 42001

Sujets

L’IA fantôme est déjà présente dans chaque grande organisation. À cet instant, quelque part dans la vôtre, un employé colle un libellé contractuel confidentiel dans ChatGPT. Un chef de produit alimente un outil de synthèse par IA avec des données clients. Un analyste financier utilise un plugin Copilot que personne au sein de l’IT n’a approuvé, formé ou même connaissance de son existence. Rien de tout cela n’est hypothétique. Une étude Salesforce de 2024 a révélé que plus de la moitié des utilisateurs d’IA générative au travail utilisaient des outils non validés par leur employeur [1]. Selon certaines estimations, le chiffre réel est nettement plus élevé, car la nature même des usages non autorisés les rend difficilement mesurables.

Ce phénomène — l’adoption d’outils d’IA par les employés en dehors du champ de vision des équipes IT, sécurité et conformité — a reçu un nom emprunté à son problème prédécesseur : l’IA fantôme. Mais si l’intitulé fait écho au concept familier de shadow IT, les risques qu’elle introduit sont substantiellement différents, les enjeux réglementaires sont plus élevés et la fenêtre pour mettre en place une gouvernance adaptée se réduit rapidement.

À quoi ressemble l’IA fantôme en pratique

Le premier défi de la gouvernance de l’IA fantôme consiste à reconnaître à quel point elle est devenue omniprésente et variée. La forme la plus visible est l’utilisation directe de services d’IA orientés grand public : ChatGPT, Google Gemini, Claude d’Anthropic, Perplexity, et des dizaines d’outils plus modestes. Les employés s’inscrivent avec des adresses e-mail personnelles, utilisent des offres gratuites, et commencent à traiter des données professionnelles en quelques minutes. Aucun processus d’achat n’est déclenché. Aucun examen de sécurité n’a lieu.

Mais l’utilisation directe n’est qu’une couche. Les capacités d’IA sont désormais intégrées dans des outils que les organisations paient déjà. Notion, Canva, Grammarly, Slack, Zoom, Microsoft 365 et Google Workspace proposent tous des fonctionnalités d’IA qui s’activent automatiquement ou en un seul clic. Lorsqu’un membre de l’équipe marketing utilise le générateur d’images IA de Canva, ou qu’un commercial clique sur « AI Summary » dans un enregistrement d’appel Zoom, il sollicite des modèles d’IA avec des données d’entreprise — souvent sans même réaliser qu’il s’agit d’un usage de l’IA.

Une troisième couche concerne les extensions de navigateur et les plugins. Le Chrome Web Store et des places de marché similaires hébergent des milliers d’extensions alimentées par l’IA pour l’aide à la rédaction, la rédaction d’e-mails, l’extraction de données et la génération de code. Ces extensions peuvent lire le contenu des pages, intercepter les données de formulaires et transmettre des informations à des serveurs externes. La plupart des organisations ne disposent d’aucun inventaire des extensions installées par leurs employés.

L’effet cumulatif est une organisation qui fait fonctionner des dizaines, voire des centaines de systèmes d’IA que ses fonctions de gouvernance, de risque et de conformité ne peuvent ni voir, ni évaluer, ni contrôler.

Pourquoi l’IA fantôme n’est pas simplement du shadow IT sous un autre nom

Il serait tentant de traiter l’IA fantôme comme une sous-catégorie du problème de shadow IT que les équipes de sécurité gèrent depuis des années. Après tout, le schéma est similaire : les employés adoptent la technologie plus vite que la gouvernance ne peut suivre. Mais le profil de risque diverge de plusieurs manières critiques.

Persistance des données et entraînement des modèles

Lorsqu’un employé téléverse un document vers un service de partage de fichiers non approuvé, le risque lié aux données est celui du confinement : qui peut accéder à ce fichier, et peut-il être supprimé ? Avec de nombreux services d’IA, le risque va plus loin. Selon les conditions d’utilisation du fournisseur et l’offre spécifique utilisée par l’employé, les données d’entrée peuvent servir à entraîner ou ajuster finement les modèles [2]. Une fois les données entrées dans une chaîne d’entraînement, il n’existe aucun mécanisme de récupération. L’information devient partie intégrante de la connaissance paramétrique du modèle, diffusée à travers des milliards de pondérations. Les approches traditionnelles de prévention des pertes de données supposent que les données peuvent être localisées et supprimées. Avec l’ingestion pour entraînement IA, cette hypothèse ne tient plus.

Risque de sortie

Le shadow IT implique généralement des outils qui stockent, déplacent ou affichent des données. Les outils d’IA génèrent un nouveau contenu, et ce contenu peut être erroné. Lorsqu’un employé utilise un outil d’IA non autorisé pour rédiger une déclaration réglementaire, résumer un contrat juridique ou produire des projections financières, des sorties hallucinées peuvent se propager dans des décisions métier formelles. L’organisation assume la responsabilité de sorties dont elle ignorait qu’elles étaient générées par IA, produites par des outils dont elle ignorait l’usage.

Exposition aux biais et à la discrimination

Les systèmes d’IA peuvent produire des résultats discriminatoires fondés sur des caractéristiques protégées. Si une équipe RH utilise un outil d’IA non approuvé pour présélectionner des CV ou rédiger des descriptions de poste, l’organisation peut introduire des biais dans ses décisions d’emploi sans aucune piste d’audit. La responsabilité incombe à l’organisation, quiconque ait autorisé ou non l’utilisation de l’outil.

Vitesse d’adoption

Le shadow IT traditionnel se diffusait au rythme des téléchargements logiciels et des créations de comptes. L’IA fantôme se propage au rythme d’un onglet de navigateur. De nombreux outils d’IA ne nécessitent ni installation, ni compte, ni paiement. Un employé peut passer de la curiosité au traitement de données sensibles en moins de soixante secondes.

L’IA fantôme n’étend pas simplement le problème du shadow IT. Elle introduit une catégorie de risque qualitativement différente qui exige une réponse de gouvernance spécifique.

L’argument réglementaire en faveur de la visibilité

Même les organisations qui acceptent un certain niveau de risque technologique non maîtrisé constatent désormais que la réglementation impose un niveau supérieur de visibilité sur l’IA.

L’AI Act de l’UE, dont l’application progressive a débuté en 2024, impose des obligations tant aux fournisseurs qu’aux déployeurs de systèmes d’IA [3]. Les fournisseurs doivent classer les systèmes par niveau de risque et garantir la conformité aux articles 9 à 15 pour les systèmes à haut risque. Les déployeurs de systèmes d’IA à haut risque ont leurs propres obligations au titre de l’article 26 — notamment l’utilisation des systèmes conformément aux instructions du fournisseur, l’attribution d’une supervision humaine, la conservation des journaux et le signalement des incidents. Même les déployeurs de systèmes à risque plus faible sont soumis à des obligations de transparence au titre de l’article 50. Aucune de ces obligations ne peut être respectée pour des systèmes qui existent en dehors de la connaissance de l’organisation.

ISO/IEC 42001, la norme internationale relative aux systèmes de management de l’IA, fait de l’inventaire de l’IA une exigence fondamentale [4]. Une organisation ne peut pas revendiquer la conformité à la norme tout en exploitant des systèmes d’IA qu’elle n’a ni identifiés, ni évalués, ni documentés.

Aux États-Unis, le NIST AI Risk Management Framework met de la même façon l’accent sur la nécessité de « cartographier » les systèmes d’IA comme préalable à la gestion de leurs risques [5]. Les décrets exécutifs et les orientations sectorielles des régulateurs dans les services financiers, la santé et la commande publique convergent vers la même attente : les organisations doivent savoir quelle IA elles utilisent.

La logique réglementaire est simple. La classification des risques n’a aucun sens sans découverte. Les obligations de conformité ne peuvent s’appliquer à des systèmes invisibles. Une organisation incapable de produire un inventaire de ses usages de l’IA n’est pas seulement non gouvernée — elle est ingouvernable. Des plateformes telles qu’Enzai existent précisément pour combler cet écart, en fournissant les capacités continues de découverte et de classification désormais exigées par la réglementation.

Découvrir ce que vous ne savez pas

Admettre que l’IA fantôme nécessite une gouvernance est l’étape la plus simple. La plus difficile consiste à la détecter. Une découverte efficace exige plusieurs méthodes complémentaires, car aucune technique unique n’offre une visibilité complète.

Analyse du trafic réseau et DNS

Les services d’IA génèrent des schémas de trafic réseau distinctifs. La surveillance des requêtes DNS et du trafic HTTP/HTTPS vers des domaines connus de services d’IA (api.openai.com, generativelanguage.googleapis.com, api.anthropic.com, etc.) fournit une vue de base des services atteints par les employés. Cette méthode est efficace pour l’usage direct d’IA grand public, mais moins pour l’IA intégrée à des outils SaaS approuvés, où les appels API peuvent être effectués côté serveur.

Analyse des journaux SSO et d’authentification

De nombreux services d’IA prennent en charge l’authentification unique. Même lorsque les employés utilisent des comptes personnels, les journaux d’authentification des fournisseurs d’identité peuvent révéler des consentements OAuth accordés à des services d’IA. L’examen des autorisations d’applications OAuth accordées via Google Workspace ou Microsoft Entra ID met souvent en évidence des outils d’IA connectés par les employés à des comptes d’entreprise.

Audit des achats et des dépenses

Certains usages d’IA fantôme laissent une trace financière. Des employés ou responsables de budget de département peuvent passer des abonnements à des outils d’IA en note de frais, acheter des offres premium avec des cartes bancaires d’entreprise ou soumettre des factures de services d’IA. Un examen ciblé des notes de frais et des enregistrements d’achats, recherchant spécifiquement des noms connus de fournisseurs d’IA, permet d’identifier des usages payants ayant contourné les circuits d’achat formels.

Programmes de déclaration par les employés

Les méthodes techniques de découverte auront toujours des angles morts. Les programmes de déclaration volontaire, où les employés sont invités à signaler les outils d’IA qu’ils utilisent sans crainte de sanction, comblent les lacunes que la surveillance ne peut atteindre. La conception de ces programmes est déterminante : si les employés craignent une mesure disciplinaire, les taux de déclaration seront négligeables. Présenter l’exercice comme un effort d’inventaire plutôt que comme une action d’application de règles produit de meilleurs résultats.

Audits des extensions de navigateur

Pour les organisations utilisant des appareils gérés ou des plateformes de gestion des terminaux, l’audit des extensions de navigateur installées offre une visibilité sur les plugins alimentés par l’IA. De nombreux outils EDR peuvent inventorier les extensions. Le croisement des extensions installées avec une base d’outils connus alimentés par l’IA identifie des usages fantômes ne générant aucun trafic réseau vers des domaines manifestement associés à l’IA.

Analyse du trafic API et des flux de données

Les organisations les plus matures peuvent instrumenter les passerelles API et les outils de prévention des pertes de données pour détecter des schémas compatibles avec l’usage de services d’IA : charges textuelles volumineuses envoyées vers des points de terminaison externes, réponses contenant des marqueurs de contenu généré, ou trafic vers des plages IP associées aux principaux fournisseurs d’IA. Cette approche requiert un investissement mais capte des usages que des méthodes plus simples manquent.

Aucun programme de découverte ne devrait reposer sur une seule méthode. Les approches les plus efficaces superposent plusieurs techniques et traitent la découverte comme un processus continu plutôt que comme un audit ponctuel. Une plateforme de gouvernance de l’IA comme Enzai peut automatiser cette découverte multicouche, en corrélant les signaux issus du réseau, de l’identité, des achats et des terminaux afin de maintenir un inventaire vivant.

Gouverner l’IA fantôme sans interdiction

La découverte est nécessaire mais insuffisante. La question suivante est de savoir quoi faire de ce que vous trouvez, et c’est ici que de nombreuses organisations commettent une erreur stratégique. Face à l’ampleur des usages non autorisés de l’IA, l’instinct est d’interdire : bloquer des domaines, révoquer des accès, publier des interdictions générales. Cette approche échoue pour trois raisons.

Premièrement, l’interdiction pousse l’usage davantage dans la clandestinité. Les employés qui jugent les outils d’IA réellement utiles trouveront des solutions de contournement — appareils personnels, points d’accès mobiles, réseaux domestiques. Le résultat est moins de visibilité, et non moins d’usage.

Deuxièmement, les interdictions globales ont un coût concurrentiel. Les organisations qui empêchent les employés d’utiliser des outils d’IA renoncent à des gains de productivité que leurs concurrents captent. McKinsey estimait en 2023 que l’IA générative pourrait contribuer de 2,6 à 4,4 billions de dollars par an aux profits mondiaux des entreprises, tous secteurs confondus [6]. Renoncer à cette valeur constitue en soi un risque.

Troisièmement, l’interdiction signale aux employés que l’organisation perçoit l’IA comme une menace plutôt que comme une capacité, ce qui détériore le socle culturel nécessaire à une adoption responsable de l’IA à plus long terme.

L’alternative est une gouvernance structurée qui canalise l’usage de l’IA au lieu de le bloquer.

Amnistie et niveau de référence

Un point de départ efficace consiste en une période d’amnistie limitée dans le temps durant laquelle les employés sont invités à déclarer tous les outils d’IA qu’ils utilisent actuellement, avec une garantie explicite d’absence de conséquences disciplinaires. Cela établit une base de référence complète qu’une découverte technique seule ne peut atteindre. L’amnistie doit s’accompagner d’une communication claire indiquant qu’après cette période, tout usage non déclaré sera traité comme une violation de politique.

Politiques d’usage acceptable

Plutôt qu’une distinction binaire approuvé/interdit, les organisations matures élaborent des politiques d’usage acceptable qui définissent des catégories d’usage de l’IA : quelles classifications de données peuvent être traitées avec des outils d’IA, quels types de résultats exigent une revue humaine avant utilisation, et quelles obligations de divulgation s’appliquent lorsque du contenu généré par IA est utilisé dans des livrables formels.

Listes d’outils approuvés et voie privilégiée

Le concept de « voie privilégiée », emprunté au platform engineering, est particulièrement efficace pour la gouvernance de l’IA fantôme. Au lieu d’ériger des barrières, l’organisation construit un chemin clair et bien entretenu, plus facile à suivre que l’alternative. Cela signifie mettre à disposition des outils d’IA approuvés répondant aux exigences de sécurité et de conformité, préconfigurés avec des paramètres adéquats de traitement des données, intégrés à l’identité d’entreprise et soutenus par de la formation et de la documentation. Lorsque l’option autorisée est réellement de qualité, l’incitation à rechercher des alternatives non autorisées diminue.

Environnements sandbox

Pour expérimenter de nouveaux outils ou capacités d’IA qui ne figurent pas encore sur la liste approuvée, les organisations peuvent fournir des environnements sandbox où les employés testent les outils avec des données synthétiques ou non sensibles. Cela préserve le bénéfice d’innovation lié à l’exploration tout en contenant le risque sur les données.

Revue continue et boucle de retour

Les cadres de gouvernance qui restent statiques deviennent des obstacles. Mettre en place une cadence régulière de revue et de mise à jour de la liste d’outils approuvés, intégrer les retours des employés et évaluer de nouveaux outils garantit que le cadre de gouvernance évolue à un rythme plus proche de celui du développement de l’IA.

L’objectif n’est pas d’éliminer tout risque lié à l’usage de l’IA, mais de rendre la voie gouvernée si manifestement supérieure que l’usage non gouverné devient inutile.

Construire un processus de découverte pérenne

Les efforts ponctuels de découverte produisent un instantané. L’IA fantôme est un phénomène continu — de nouveaux outils apparaissent chaque semaine, les outils existants ajoutent des fonctions IA, les employés changent de rôle et adoptent de nouveaux workflows. Un processus de découverte durable doit être continu et intégré aux processus organisationnels plus larges.

Intégration avec les achats

La découverte de l’IA doit être intégrée aux workflows d’achats. Toute évaluation d’un nouvel outil SaaS doit inclure une analyse des capacités d’IA embarquées, du traitement des données pour les fonctionnalités IA et des politiques d’entraînement des modèles. Les équipes achats ont besoin de formation et de check-lists pour poser les bonnes questions, car les fournisseurs ne mettent pas toujours en avant les fonctionnalités IA dans leurs supports commerciaux.

Intégration avec l’onboarding et les changements de rôle

Les nouveaux employés apportent des habitudes d’usage de l’IA acquises chez leurs employeurs précédents. Les processus d’onboarding devraient inclure une étape de déclaration des usages de l’IA ainsi qu’une introduction au cadre de gouvernance de l’IA de l’organisation et aux outils approuvés. De même, lorsque des employés changent de rôle et accèdent à de nouvelles classifications de données, leurs autorisations d’outils d’IA doivent être revues.

Conduite du changement, pas seulement conformité

Une gouvernance durable de l’IA fantôme exige un changement culturel, et pas uniquement l’application de politiques. Les employés doivent comprendre pourquoi la gouvernance de l’IA existe — non comme une surcharge bureaucratique, mais comme une protection pour l’organisation, ses clients et eux-mêmes. Les programmes de formation doivent être pratiques, basés sur des scénarios et régulièrement mis à jour pour refléter l’évolution du paysage des outils.

Métriques et reporting

Ce qui est mesuré est piloté. Les organisations devraient suivre au fil du temps les taux de découverte de l’IA fantôme, le délai de mise sous gouvernance des outils nouvellement découverts, la satisfaction des employés vis-à-vis des outils d’IA approuvés et le volume des demandes d’exception à la politique. Ces métriques fournissent des signaux d’alerte précoces lorsque la gouvernance prend du retard sur l’adoption et lorsque les outils approuvés ne répondent pas aux besoins des employés.

Responsabilité exécutive

La gouvernance de l’IA fantôme ne peut pas relever uniquement de l’IT ou de la sécurité de l’information. Elle requiert un sponsoring exécutif, idéalement porté par un Chief AI Officer ou un rôle équivalent, avec une responsabilité claire sur l’exhaustivité de l’inventaire IA et la couverture de gouvernance. Le reporting au niveau du conseil d’administration sur la posture de gouvernance IA devient une pratique standard parmi les organisations qui prennent ce risque au sérieux.

Un processus de découverte continu, intégré, mesuré et sponsorisé captera ce qu’un audit ponctuel manque et s’adaptera à ce que le paysage IA du prochain trimestre apportera.

Implications pratiques

L’IA fantôme n’est pas un problème qui se résout de lui-même. Laissée sans réponse, elle s’aggrave : davantage d’outils, davantage d’exposition des données, davantage de risque réglementaire, davantage de décisions éclairées par des sorties IA non vérifiées. Les organisations qui réussiront seront celles qui traiteront la découverte comme une capacité opérationnelle continue plutôt que comme un projet, qui gouverneront par l’activation plutôt que par l’interdiction, et qui investiront dans l’infrastructure culturelle et procédurale nécessaire pour soutenir les deux.

La voie pratique à suivre est claire. Établir la visibilité grâce à une découverte multicouche. Construire une gouvernance que les employés souhaitent suivre. Intégrer la supervision de l’IA aux rythmes des achats, de l’onboarding et de la conduite du changement. Mesurer les progrès et responsabiliser les dirigeants.

Pour les organisations prêtes à passer d’une réponse ad hoc à une gouvernance structurée de l’IA fantôme, Enzai fournit la plateforme permettant de maîtriser l’usage non autorisé de l’IA — de la découverte continue et de l’inventaire jusqu’à la gestion des politiques et au reporting de conformité. Réserver une démonstration pour voir comment cela fonctionne en pratique.

Références

[1] Salesforce, « The Promises and Pitfalls of AI at Work », Salesforce Research, 2024.

[2] OpenAI, « How your data is used to improve model performance », OpenAI Help Centre, mis à jour en 2025.

[3] Parlement européen et Conseil, Règlement (UE) 2024/1689 établissant des règles harmonisées sur l’intelligence artificielle (EU AI Act), 2024.

[4] Organisation internationale de normalisation, ISO/IEC 42001:2023 Technologies de l’information — Intelligence artificielle — Système de management, 2023.

[5] National Institute of Standards and Technology, « AI Risk Management Framework (AI RMF 1.0) », NIST AI 100-1, janvier 2023.

[6] McKinsey Global Institute, « The economic potential of generative AI: The next productivity frontier », McKinsey & Company, juin 2023.

Découvrez davantage

Découvrez davantage

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Conformité Intégrée Dès la Conception

Conformité Intégrée Dès la Conception

ISO 27001

Enzai est certifiée ISO 27001, et lest depuis 2023. Nous nous engageons à réaliser des audits annuels effectués par NQA et collaborons étroitement avec nos partenaires consultants en sécurité, Instil, afin de mettre à jour et de renforcer en continu notre posture de sécurité.

RGPD

ISO 27001

Enzai est certifiée ISO 27001, et lest depuis 2023. Nous nous engageons à réaliser des audits annuels effectués par NQA et collaborons étroitement avec nos partenaires consultants en sécurité, Instil, afin de mettre à jour et de renforcer en continu notre posture de sécurité.

RGPD

Gouvernance de l'IA

Gouvernance de l'IA

Infrastructure

Infrastructure

conçu pour la Confiance.

conçu pour la Confiance.

Donnez à votre organisation les moyens d'adopter, de gérer et de surveiller l'IA avec une confiance de niveau entreprise. Conçu pour les organisations réglementées opérant à grande échelle.

Connectez sans effort vos systèmes existants, vos politiques et vos flux de travail d'IA — le tout sur une plateforme unifiée.

Connectez sans effort vos systèmes existants, vos politiques et vos flux de travail d'IA — le tout sur une plateforme unifiée.