Glossaire de la gouvernance de l'IA.

Comprenez les termes et concepts clés de la gouvernance de l'IA grâce à des définitions simples pour vous aider à naviguer sur la plateforme Enzai.

Merci ! Votre candidature a été reçue !
Oups ! Une erreur s'est produite lors de l'envoi du formulaire.
Fuite d'étiquettes

L'inclusion involontaire d'informations de sortie dans les étiquettes de données d'entraînement, ce qui peut gonfler les indicateurs de performance et masquer de véritables problèmes de généralisation des modèles.

GDPR

Le règlement général sur la protection des données de l'UE, établissant des exigences strictes pour la collecte et le traitement des données personnelles et les droits individuels.

GPU

Accélérateur matériel spécialisé pour les calculs parallèles, largement utilisé pour entraîner et exécuter efficacement des modèles d'IA à grande échelle.

Gestion des connaissances

Pratiques et outils pour saisir, organiser et partager les connaissances organisationnelles (par exemple, documentation des modèles, journaux d'audit) afin d'assurer la reproductibilité et la supervision.

Gestion des données manquantes

Techniques (par exemple, imputation, suppression, modélisation) pour combler les lacunes dans les ensembles de données afin de préserver l'intégrité et l'équité du modèle.

Gestion des journaux

La collecte, le stockage et l'analyse des journaux des systèmes et des applications à partir des flux de travail d'IA pour faciliter l'audit, la réponse aux incidents et le suivi des performances des modèles.

Gestion des métadonnées

Pratique consistant à saisir et à conserver des données descriptives (par exemple, provenance des données, définitions des caractéristiques, paramètres du modèle) pour faciliter la traçabilité et les audits.

Gestion des quotas

Les contrôles et les limites imposés à l'utilisation des ressources d'IA (par exemple, les appels d'API, le temps de calcul) pour appliquer les politiques de gouvernance et prévenir les coûts excessifs ou les abus.

Gestion des risques liés aux fournisseurs

Évaluer et surveiller les fournisseurs tiers de composants ou de services d'IA afin d'identifier et d'atténuer les risques potentiels en matière de conformité, de sécurité ou d'éthique.

Gestion des risques liés aux modèles

Processus structuré d'identification, d'évaluation et d'atténuation des risques liés aux modèles d'IA/ML tout au long de leur cycle de vie.

Gestion des risques liés à l'IA

Processus d'identification, d'évaluation et d'atténuation des risques associés aux systèmes d'IA.

Gestion du cycle de vie

Les processus coordonnés de développement, de déploiement, de surveillance, de maintenance et de mise hors service des systèmes d'IA afin de garantir une conformité continue et un contrôle des risques.

Gestion du cycle de vie des données

La gestion basée sur des règles du flux de données tout au long de son cycle de vie : depuis la création et le stockage initial jusqu'au moment où il devient obsolète et est supprimé.

Gouvernance

Ensemble de politiques, de procédures, de rôles et de responsabilités qui guident le développement et le déploiement éthiques, juridiques et efficaces des systèmes d'IA.

Gouvernance algorithmique

L'utilisation d'algorithmes pour gérer et réguler les fonctions de la société, ce qui peut avoir un impact sur les processus de prise de décision.

Gouvernance de l'IA

Cadre de politiques, de processus et de contrôles qui guident le développement et l'utilisation éthiques et efficaces des systèmes d'IA.

Gouvernance de l'information

Les politiques, procédures et contrôles qui garantissent la qualité, la confidentialité et la facilité d'utilisation des données dans l'ensemble des actifs de données d'une organisation, y compris les ensembles de données de formation à l'IA.

Gouvernance des cas d'utilisation

Pratique qui consiste à définir, approuver et surveiller des cas d'utilisation spécifiques de l'IA afin de s'assurer que chacun est conforme aux politiques organisationnelles, aux normes éthiques et à la propension au risque.

Gouvernance des données

Gestion globale de la disponibilité, de l'utilisabilité, de l'intégrité et de la sécurité des données dans une entreprise, garantissant que les données sont gérées correctement tout au long de leur cycle de vie.

Gouvernance éthique de l'IA

Le cadre de politiques, de procédures et de pratiques qui garantit que les systèmes d'IA sont développés et utilisés de manière responsable et éthique.

Grand modèle de langage

Un modèle d'apprentissage profond basé sur de vastes corpus de textes qui peut effectuer des tâches telles que la génération, la traduction et la synthèse de textes, nécessitant souvent une gouvernance en matière de biais et d'abus.

Graphique des connaissances

Une représentation structurée des entités et de leurs relations utilisée pour améliorer l'explicabilité, l'auditabilité et l'alignement de l'IA avec les ontologies de domaine.

Généralisation

Capacité d'un modèle d'IA à bien fonctionner sur de nouvelles données invisibles en capturant des modèles sous-jacents plutôt que de mémoriser des exemples d'entraînement.

Hachage

Processus de conversion des données en une chaîne de caractères de taille fixe, utilisée pour les contrôles d'intégrité des données et le couplage d'enregistrements préservant la confidentialité.

Hallucination

Lorsque l'IA générative produit des informations incorrectes ou fabriquées qui semblent plausibles mais qui n'ont aucun fondement dans les données d'entraînement.

Harmonisation

Aligner les politiques, les normes et les réglementations en matière d'IA entre les juridictions afin de réduire les conflits et de permettre l'interopérabilité.

Heuristique

Règle empirique ou stratégie de prise de décision simplifiée utilisée pour accélérer les processus d'IA, en privilégiant souvent l'optimalité au profit de l'efficacité.

Hyperparamètre

Une variable de configuration (par exemple, le taux d'apprentissage, la profondeur de l'arbre) définie avant l'entraînement du modèle qui influence le comportement d'apprentissage et les performances.

IA Edge

Le déploiement d'algorithmes d'IA sur des appareils de pointe, permettant le traitement des données et la prise de décision à la source de la génération de données.

IA explicable (XAI)

Des systèmes d'IA conçus pour fournir des justifications compréhensibles par l'homme à leurs décisions et à leurs actions, améliorant ainsi la transparence et la confiance.

IA générative

Les techniques d'IA (par exemple, les GAN, les transformateurs) qui créent de nouveaux contenus (textes, images ou autres supports) soulèvent souvent de nouvelles préoccupations en matière de gouvernance et de propriété intellectuelle.

IA responsable

Pratique qui consiste à concevoir, développer et déployer des systèmes d'IA de manière éthique, transparente et responsable envers les parties prenantes et la société.

IA verte

Pratique visant à réduire l'impact environnemental de l'IA grâce à des algorithmes économes en énergie et à des pratiques informatiques durables.

IA à enjeux élevés

Les applications d'IA dont les défaillances pourraient causer des dommages importants (par exemple, diagnostic médical, véhicules autonomes), nécessitant une gouvernance et une supervision renforcées.

IA éthique

Pratique qui consiste à concevoir, développer et déployer des systèmes d'IA d'une manière conforme aux principes et valeurs éthiques, garantissant l'équité, la responsabilité et la transparence.

ISO/IEC JTC 1/SC 42

Le comité mixte ISO/IEC sur la normalisation de l'intelligence artificielle, qui élabore des normes internationales d'IA pour la gouvernance, les risques et l'interopérabilité.

Indicateur de performance clé

Une métrique quantifiable (par exemple, la dérive de précision du modèle, le temps de correction des biais) utilisée pour surveiller et rendre compte des objectifs de gouvernance et de conformité de l'IA.

Indicateur de risque clé

Un indicateur avancé (par exemple, la fréquence des prévisions hors du cadre, le taux de décisions inexplicables) qui signale les risques émergents liés à l'IA avant qu'ils ne se concrétisent.

Indicateurs d'équité

Mesures quantitatives (par exemple, parité démographique, chances égalisées) utilisées pour évaluer dans quelle mesure les prédictions d'un modèle d'IA sont justes entre les groupes.

Informatique cognitive

Sous-ensemble de l'IA qui simule les processus de pensée humains dans un modèle informatisé, dans le but de résoudre des problèmes complexes sans assistance humaine.

Informatique quantique

Le paradigme informatique émergent qui tire parti de la mécanique quantique, posant de nouveaux défis de gouvernance en matière de sécurité, de standardisation et de risque.

Infrastructure en tant que code (IaC)

Gestion et provisionnement de l'infrastructure d'IA (calcul, stockage, réseau) via des fichiers de configuration lisibles par machine, améliorant ainsi la répétabilité et l'auditabilité.

Inférence

Processus par lequel un modèle d'IA entraîné traite de nouvelles entrées de données pour produire des prévisions ou des décisions.

Inférence causale

Une méthode d'IA et de statistiques utilisée pour déterminer les relations de cause à effet, aidant à comprendre l'impact des interventions ou des changements de variables.

Ingénierie des fonctionnalités

Création, sélection ou transformation d'attributs de jeu de données bruts en fonctionnalités qui améliorent les performances des modèles d'apprentissage automatique.

Injection de bruit

Introduction délibérée de perturbations aléatoires dans les données d'entraînement ou les paramètres du modèle afin d'améliorer la robustesse et de se prémunir contre les manipulations contradictoires.

Intelligence artificielle

La simulation des processus de l'intelligence humaine par des machines, en particulier des systèmes informatiques, y compris l'apprentissage, le raisonnement et l'autocorrection.

Intelligence générale artificielle

Type d'IA qui possède la capacité de comprendre, d'apprendre et d'appliquer les connaissances de manière généralisée, comme l'intelligence humaine.

Interopérabilité

La capacité de divers systèmes et composants d'IA à échanger, comprendre et utiliser des informations de manière fluide, souvent via des normes ouvertes ou des API.

Interprétabilité

Degré auquel un être humain peut comprendre les mécanismes internes ou les raisons de décision d'un modèle d'IA.

Intervalle de confiance

Plage de valeurs, dérivée de statistiques d'échantillons, susceptible de contenir la valeur d'un paramètre de population inconnu, utilisée en IA pour exprimer l'incertitude.

Journalisation des requêtes

Pratique qui consiste à enregistrer les entrées du système d'IA et les requêtes des utilisateurs pour permettre des pistes d'audit, détecter les abus et favoriser la responsabilisation.

Juridiction

L'autorité légale en matière de données, d'opérations d'IA et de responsabilité, qui varie selon la zone géographique et a une incidence sur la conformité aux réglementations régionales (par exemple, le RGPD, le CCPA).

L'apprentissage en groupe

Un paradigme d'apprentissage automatique dans lequel plusieurs modèles sont entraînés et combinés pour résoudre le même problème, améliorant ainsi les performances globales.

L'humain au cœur de la boucle

Impliquer le jugement humain dans les processus d'IA (formation, validation, révision des décisions) pour améliorer la précision et la responsabilité.

La confidentialité dès la conception

Une approche qui intègre dès le départ les considérations relatives à la protection des données et à la confidentialité des utilisateurs dans l'architecture et les processus des systèmes d'IA.

La sécurité dès la conception

Intégrer les contrôles de sécurité et les meilleures pratiques dans les systèmes d'IA dès les premières phases de conception afin de prévenir les vulnérabilités et les violations de données.

Le moindre privilège

Un principe de sécurité selon lequel les composants de l'IA et les utilisateurs ne disposent que des droits d'accès minimaux nécessaires à l'exécution de leurs fonctions, réduisant ainsi le risque d'utilisation abusive.

Ligne directrice (IA éthique)

Une recommandation non contraignante ou un document de bonnes pratiques émis par des organisations (par exemple, l'IEEE, l'UE) pour façonner le développement et le déploiement responsables de l'IA.

Liste blanche

N'autoriser que les sources de données, les bibliothèques ou les composants de modèles préapprouvés dans les pipelines d'IA afin de réduire les risques liés à des éléments non vérifiés ou malveillants.

Localisation

Adapter les systèmes d'IA aux langues locales, aux réglementations, aux normes culturelles et aux exigences de résidence des données dans différentes juridictions.

Logique floue

Système logique qui gère le raisonnement avec des valeurs approximatives plutôt que binaires vrai/faux, ce qui est utile dans les systèmes de contrôle et la gestion des incertitudes.

Maintenance prédictive

Surveillance et analyse pilotées par l'IA pour prévoir les défaillances des composants ou des systèmes, garantir la résilience opérationnelle et l'atténuation des risques dans les environnements critiques.

Matrice d'attribution des responsabilités

Un outil (par exemple, RACI) qui précise les rôles et les responsabilités pour chaque activité de gouvernance : qui est responsable, responsable, consulté et informé.

Matrice jacobienne

Dans l'explicabilité de l'IA, la matrice de toutes les dérivées partielles du premier ordre des sorties d'un modèle par rapport à ses entrées, est utilisée pour évaluer la sensibilité et l'importance des caractéristiques.

Maîtrise de l'IA

La compréhension des concepts, des capacités et des limites de l'IA, permettant une interaction informée avec les technologies d'IA.

Minimisation des données

Le principe qui consiste à ne collecter que les données nécessaires à une fin spécifique, afin de réduire le risque d'utilisation abusive ou de violation.

Modèle Black Box

Un système d'IA dont le fonctionnement interne n'est ni transparent ni interprétable, ce qui rend difficile la compréhension de la façon dont les décisions sont prises.

Modèle Grey Box

Un modèle dont la logique interne est partiellement transparente (certains composants sont interprétables, d'autres opaques), équilibrant performance et explicabilité.

Modèle de gouvernance

Les politiques, les rôles et les contrôles qui garantissent que les modèles d'IA sont développés, approuvés et utilisés conformément aux normes organisationnelles et aux exigences réglementaires.

Modèle de maturité de la gouvernance

Un cadre par étapes qui évalue le degré d'avancement des pratiques de gouvernance de l'IA d'une organisation, qu'il s'agisse de pratiques ad hoc ou optimisées.

Modèle hybride

Systèmes d'IA combinant plusieurs paradigmes d'apprentissage (par exemple, symbolique et neuronal) pour équilibrer explicabilité et performance.

Modèle mondial

Un modèle d'IA consolidé formé à partir de données agrégées provenant de sources multiples, par opposition à des modèles localisés ou personnalisés.

Modélisation conjointe

Création de systèmes d'IA capables d'apprendre conjointement plusieurs tâches (par exemple, reconnaissance vocale et traduction), avec une gouvernance nécessaire pour des raisons de complexité et d'auditabilité.

Moteur d'inférence

Composant d'un système d'IA (souvent basé sur des règles ou des systèmes experts) qui applique une base de connaissances pour saisir des données afin de tirer des conclusions.

Métriques XAI

Mesures quantitatives ou qualitatives (par exemple, scores d'importance des caractéristiques, fidélité des explications) utilisées pour évaluer la qualité et la fiabilité des explications de l'IA.

Métriques de justice

Mesures quantitatives (par exemple, impact disparate, égalité des chances) utilisées pour évaluer l'équité et la non-discrimination dans la prise de décisions en matière d'IA.

Métriques et indicateurs de performance clés

Mesures quantitatives (par exemple, dérive de précision, scores d'équité, temps de réponse aux incidents) utilisées pour surveiller la santé, les risques et les objectifs de conformité du système d'IA.

Observabilité

Capacité à déduire l'état et le comportement internes d'un système d'IA grâce à la collecte et à l'analyse de journaux, de mesures et de sorties pour une surveillance et un dépannage efficaces.

Opacité

L'absence de transparence dans la manière dont un modèle d'IA parvient à des décisions ou à des prévisions, ce qui pose des problèmes de confiance et de conformité réglementaire.

Orchestration

La coordination automatisée des flux de travail et des services d'IA (ingestion de données, formation de modèles, déploiement) garantit la conformité aux politiques et à la gouvernance des ressources.

Orchestration des flux de travail

Automatiser et séquencer les tâches du cycle de vie de l'IA (ingestion de données, formation, validation, déploiement) pour appliquer les politiques de gouvernance et garantir la cohérence.

Organe de gouvernance

Groupe interfonctionnel (juridique, éthique, technique, etc.) chargé de superviser les politiques de gouvernance de l'IA et leur exécution au sein d'une organisation.

Piratage éthique

Pratique qui consiste à sonder intentionnellement les systèmes à la recherche de vulnérabilités afin d'identifier et de résoudre les problèmes de sécurité, garantissant ainsi la robustesse des systèmes d'IA.

Politique d'utilisation autorisée

Règles et contrôles définis qui spécifient les contextes, les utilisateurs et les objectifs approuvés pour le fonctionnement du système d'IA afin d'empêcher toute utilisation abusive.

Politique de gouvernance

Document officiel qui codifie les règles, les rôles et les procédures pour le développement et la supervision de l'IA au sein d'une organisation.

Politique relative à la liste blanche/à la liste noire

Règle de gouvernance définissant les entrées, fonctionnalités ou opérations autorisées (liste blanche) et interdites (liste noire) afin de garantir la conformité et d'empêcher les abus.

Propriété

L'attribution claire de la responsabilité et de l'autorité sur les actifs d'IA (données, modèles, processus) afin de garantir la responsabilisation tout au long du cycle de vie du système.

Protection des données

Processus visant à protéger les informations importantes contre la corruption, la compromission ou la perte, en garantissant le respect des lois et réglementations en matière de protection des données.

Qualité des données

État des données basé sur des facteurs tels que la précision, l'exhaustivité, la fiabilité et la pertinence, essentiels à la performance efficace des modèles d'IA.

Quorum pour le Conseil de gouvernance

Le nombre minimum de membres du comité de gouvernance devant être présents pour prendre des décisions officielles concernant les risques liés à l'IA, les approbations des politiques ou les résultats des audits.

Rambardes

Contraintes ou contrôles prédéfinis (techniques et politiques) intégrés aux systèmes d'IA pour empêcher tout comportement dangereux ou non conforme lors de l'exécution.

Recherche d'architecture neuronale

Méthodes automatisées pour concevoir et optimiser les structures de réseaux neuronaux afin d'améliorer les performances des modèles tout en équilibrant la complexité et les contraintes de ressources.

Reconversion des modèles

Processus de mise à jour d'un modèle d'IA avec des données nouvelles ou actualisées afin de maintenir les performances et la conformité à mesure que les distributions de données évoluent.

Recours

Mécanismes qui permettent aux personnes concernées de contester ou de remédier aux décisions prises par l'IA qui ont un impact sur leurs droits ou leurs intérêts.

Red Teaming

Une approche de test proactive dans laquelle des experts internes ou externes simulent des attaques ou des scénarios d'utilisation abusive pour découvrir les vulnérabilités des systèmes d'IA.

Registre immuable

Un mécanisme d'archivage inviolable (par exemple, une chaîne de blocs) garantissant qu'une fois les données écrites, elles ne peuvent pas être modifiées sans détection, ce qui est utile pour les pistes d'audit basées sur l'IA.

Reproductibilité

La capacité de régénérer de manière cohérente les résultats des modèles d'IA en utilisant les mêmes données, le même code et les mêmes configurations, garantissant ainsi la transparence et l'auditabilité.

Responsabilité conjointe

Principe juridique selon lequel plusieurs parties (par exemple, les développeurs, les déployeurs) partagent la responsabilité des dommages liés à l'IA, influençant ainsi les structures contractuelles et de gouvernance.

Responsabilité de l'IA

L'obligation des développeurs et des opérateurs de systèmes d'IA de s'assurer que leurs systèmes sont conçus et utilisés de manière responsable, dans le respect des normes éthiques et des exigences légales.