Produits
Découvrez la gamme complète de produits de gouvernance de l'IA d'Enzai, conçus pour aider les organisations à gérer, surveiller et faire évoluer l'IA en toute confiance. Des processus d'intégration structurés et des inventaires centralisés d'IA aux évaluations automatisées et à la surveillance en temps réel, Enzai fournit les éléments nécessaires pour intégrer la gouvernance directement dans les flux de travail quotidiens de l'IA, sans freiner l'innovation.
Tous
Livre blanc
Réglementations sur l'IA
Balados
Mises à jour du produit
Couverture Médiatique
Glossaire
Rejoignez notre podcast ou collaborez sur du contenu
Contactez-nous et nous verrons ce que nous pouvons réaliser ensemble.
A
Responsabilité de l'IA
L'obligation des développeurs et opérateurs de systèmes d'IA d'assurer que leurs systèmes sont conçus et utilisés de manière responsable, en respectant les normes éthiques et les exigences légales.
Alignement de l'IA
Le processus consistant à garantir que les objectifs et les comportements des systèmes d'IA sont alignés avec les valeurs et les intentions humaines.
Audit IA
L'évaluation systématique des systèmes d'IA pour vérifier la conformité aux normes éthiques, aux règlements et aux indicateurs de performance.
Biais de l'IA
Erreurs systématiques dans les sorties d'IA résultant de données d'entraînement biaisées ou d'algorithmes défectueux, conduisant à des résultats inéquitables.
Conformité IA
L'adhésion des systèmes d'IA aux lois, réglementations et directives éthiques applicables tout au long de leur cycle de vie.
Éthique de l'IA
Le domaine concerné par les implications morales et les responsabilités liées au développement et au déploiement des technologies d'IA.
Explicabilité de l'IA
Le degré auquel la mécanique interne d'un système d'IA peut être comprise et interprétée par les humains.
Gouvernance de l'IA
Le cadre des politiques, processus et contrôles qui guident le développement et l'utilisation éthiques et efficaces des systèmes d'IA.
Inventaire IA
Un catalogue complet et centralisé de tous les systèmes d'IA, modèles et agents utilisés dans toute l'organisation, permettant de suivre leur objectif commercial, leur niveau de risque et leur propriétaire.
Culture de l'IA
La compréhension des concepts, des capacités et des limitations de l'IA, permettant une interaction éclairée avec les technologies de l'IA.
Surveillance de l'IA
L'observation et l'analyse continues des performances des systèmes d'IA afin de garantir la fiabilité, la sécurité et la conformité.
Risque lié à l'IA
Le potentiel des systèmes d'intelligence artificielle à causer des préjudices ou des conséquences imprévues, y compris les risques éthiques, juridiques et opérationnels.
Gestion des Risques liés à l'IA
Le processus d'identification, d'évaluation et d'atténuation des risques associés aux systèmes d'IA.
TRiSM IA
Un acronyme inventé par Gartner signifiant Gestion de la Confiance, des Risques et de la Sécurité de l'IA ; un cadre qui unifie la gouvernance, la fiabilité et la sécurité en une seule stratégie opérationnelle.
Transparence de l'IA
Le principe selon lequel les systèmes d'IA doivent être ouverts et clairs quant à leurs opérations, décisions et utilisation des données.
Précision
Le degré auquel les résultats d'un système d'IA reflètent correctement les données du monde réel ou les résultats escomptés.
Attaque Adversariale
Techniques qui manipulent les modèles d'IA en introduisant des entrées trompeuses pour provoquer des résultats incorrects.
Agentic IA
Une catégorie de systèmes d'intelligence artificielle conçus pour atteindre de manière autonome des objectifs complexes et exécuter des actions à multiples étapes (telles que le déploiement de logiciels ou les transactions financières) avec une intervention humaine minimale.
Gouvernance d'IA Agentic
La gouvernance des systèmes d'IA autonomes capables d'exécuter des actions indépendantes (par exemple, des transactions, le déploiement de code) se distingue de l'IA prédictive (qui fournit des insights) et de l'IA générative (qui crée du contenu).
Algorithme
Un ensemble de règles ou d'instructions donné à un système d'IA pour l'aider à apprendre de manière autonome.
Biais Algorithmique
Un biais qui survient lorsqu'un algorithme produit des résultats systématiquement biaisés en raison d'hypothèses erronées dans le processus d'apprentissage automatique.
Gouvernance Algorithmique
L'utilisation d'algorithmes pour gérer et réguler les fonctions sociétales, pouvant potentiellement influencer les processus de prise de décision.
Intelligence Artificielle Générale
Un type d'intelligence artificielle qui possède la capacité de comprendre, d'apprendre et d'appliquer des connaissances de manière générale, similaire à l'intelligence humaine.
Intelligence Artificielle
La simulation des processus d'intelligence humaine par des machines, en particulier les systèmes informatiques, y compris l'apprentissage, le raisonnement et l'auto-correction.
B
Rétropropagation
Un algorithme d'apprentissage utilisé dans les réseaux de neurones qui ajuste les poids en propageant les erreurs à rebours depuis la couche de sortie afin de minimiser la perte.
Apprentissage par lot
Une approche d'apprentissage automatique où le modèle est entraîné sur l'ensemble du jeu de données en une seule fois, par opposition à l'apprentissage incrémental.
Évaluation comparative
Le processus de comparaison des performances des systèmes d'IA avec des métriques standard ou d'autres systèmes pour évaluer l'efficacité.
Préjugé
Erreurs systématiques dans les sorties d'IA résultant de données d'entraînement biaisées ou d'algorithmes défectueux, conduisant à des résultats inéquitables.
Amplification des biais
Le phénomène où les systèmes d'IA exacerbent les biais existants présents dans les données d'entraînement, conduisant à des résultats de plus en plus biaisés.
Audit de Biais
Un processus d'évaluation pour détecter et atténuer les biais dans les systèmes d'IA, garantissant l'équité et la conformité avec les normes éthiques.
Détection des Biais
Le processus d'identification des biais dans les modèles d'IA en analysant leurs résultats et leurs processus de prise de décision.
Atténuation des biais
Techniques appliquées lors du développement de l'IA pour réduire ou éliminer les biais dans les modèles et les ensembles de données.
Modèle Boîte Noire
Un système d'IA dont le fonctionnement interne n'est ni transparent ni interprétable, rendant difficile la compréhension du processus de prise de décision.
Robot
Une application logicielle qui exécute des tâches automatisées, souvent utilisée dans le domaine de l'intelligence artificielle pour des tâches telles que le service client ou la collecte de données.
C
Inférence Causale
Une méthode en intelligence artificielle et en statistiques utilisée pour déterminer les relations de cause à effet, aidant à comprendre l'impact des interventions ou des modifications des variables.
Assistant conversationnel
Une application logicielle alimentée par l'IA, conçue pour simuler une conversation humaine, souvent utilisée dans le service client et l'acquisition d'informations.
Classification
Une technique d'apprentissage supervisé en apprentissage automatique où le modèle prédit la catégorie ou l'étiquette de classe des nouvelles observations en se basant sur des données d'entraînement.
Biais Cognitif
Des schémas systématiques de déviation par rapport à la norme ou à la rationalité dans le jugement, qui peuvent influencer la prise de décision de l'IA s'ils sont présents dans les données d'entraînement.
Informatique cognitive
Un sous-ensemble de l'intelligence artificielle qui simule les processus de pensée humaine dans un modèle informatisé, visant à résoudre des problèmes complexes sans assistance humaine.
Charge cognitive
La quantité totale d'effort mental utilisée dans la mémoire de travail, est prise en compte en IA pour concevoir des systèmes qui ne submergent pas les utilisateurs.
Cadre de Conformité
Un ensemble structuré de directives et de meilleures pratiques que les organisations suivent pour garantir que leurs systèmes d'IA respectent les normes réglementaires et éthiques.
Risque de Conformité
Le risque de sanctions légales ou réglementaires, de pertes financières ou de préjudice à la réputation qu'une organisation encourt lorsqu'elle ne se conforme pas aux lois, réglementations ou pratiques prescrites.
Vision par Ordinateur
Un domaine de l'IA qui forme les ordinateurs à interpréter et traiter les informations visuelles du monde, telles que les images et les vidéos.
Dérive de Concept
La modification des propriétés statistiques de la variable cible, que le modèle cherche à prédire, au fil du temps, conduit à une dégradation du modèle.
Intervalle de Confiance
Une gamme de valeurs, dérivées de statistiques d'échantillons, qui est susceptible de contenir la valeur d'un paramètre de population inconnu, utilisée en IA pour exprimer l'incertitude.
Évaluation de la conformité
Un processus destiné à déterminer si un système d'IA répond aux exigences, normes ou réglementations spécifiées, impliquant souvent des tests et une certification.
Apprentissage Continu
La capacité d'un système d'intelligence artificielle à apprendre et à s'adapter en continu à partir de nouvelles données sans intervention humaine, s'améliorant au fil du temps.
Maîtrise
La mesure dans laquelle les humains peuvent diriger, influencer ou remplacer les décisions et les comportements d'un système d'intelligence artificielle.
Validation croisée
Une technique de validation de modèle pour évaluer comment les résultats d'une analyse statistique se généraliseront à un ensemble de données indépendant.
Cybersécurité
La pratique de la protection des systèmes, réseaux et programmes contre les attaques numériques, essentielle pour sécuriser les systèmes d'intelligence artificielle contre les menaces.
D
Variation des données
L'évolution des données d'entrée du modèle avec le temps, qui peut entraîner une dégradation des performances du modèle si elle n'est pas surveillée et corrigée.
Éthique des Données
La branche de l'éthique qui évalue les pratiques en matière de données en ce qui concerne les obligations morales liées à la collecte, à la protection et à l'utilisation des informations personnellement identifiables.
Gouvernance des données
La gestion globale de la disponibilité, de l'utilisabilité, de l'intégrité et de la sécurité des données dans une entreprise, garantissant que les données sont correctement traitées tout au long de leur cycle de vie.
Gestion du cycle de vie des données
La gestion des flux de données basée sur des politiques tout au long de leur cycle de vie : de leur création et stockage initial à leur obsolescence et suppression.
Minimisation des Données
Le principe de ne collecter que les données nécessaires à un objectif spécifique, réduisant ainsi le risque de mauvaise utilisation ou de violation.
Confidentialité des données
L'aspect de la technologie de l'information qui traite de la capacité à contrôler quelles données sont partagées et avec qui, en veillant à ce que les données personnelles soient traitées de manière appropriée.
Protection des Données
Le processus de protection des informations importantes contre la corruption, la compromission ou la perte, tout en garantissant la conformité avec les lois et régulations sur la protection des données.
Qualité des Données
La condition des données, basée sur des facteurs tels que l'exactitude, la complétude, la fiabilité et la pertinence, est cruciale pour la performance efficace des modèles d'intelligence artificielle.
Résidence des données
Le lieu physique ou géographique des données d'une organisation, qui peut avoir des implications pour la conformité aux lois sur la protection des données.
Souveraineté des Données
Le concept selon lequel les données sont soumises aux lois et structures de gouvernance du pays où elles sont collectées, stockées ou traitées.
Personne concernée par les données
Une personne dont les données personnelles sont collectées, conservées ou traitées, est particulièrement pertinente dans le contexte des lois sur la protection des données comme le RGPD.
Dé-identification
Le processus de suppression ou de masquage des identifiants personnels des ensembles de données, rendant difficile l'identification des individus, est utilisé pour protéger la confidentialité.
Apprentissage Profond
Un sous-ensemble d'apprentissage automatique impliquant des réseaux neuronaux avec plusieurs couches, permettant de modéliser des schémas complexes dans les données.
Hypertrucage
Médias synthétiques dans lesquels une personne dans une image ou une vidéo existante est remplacée par la ressemblance de quelqu'un d'autre, créée en utilisant des techniques d'apprentissage profond.
Confidentialité Différentielle
Un système pour partager publiquement des informations sur un ensemble de données en décrivant les tendances des groupes au sein de cet ensemble tout en préservant la confidentialité des informations individuelles.
Discrimination
En IA, cela se réfère à un traitement injuste des individus ou des groupes basé sur des biais dans les données ou les algorithmes, conduisant à des résultats inégaux.
Apprentissage Distribué
Une approche d'apprentissage automatique où les données d'entraînement sont réparties sur plusieurs appareils ou emplacements, et les modèles sont formés de manière collaborative sans partager les données brutes.
Adaptation de Domaine
Une technique en apprentissage automatique où un modèle entraîné dans un domaine est adapté pour fonctionner dans un domaine différent mais connexe.
Évaluation Dynamique des Risques
Le processus continu d'identification et d'évaluation des risques en temps réel, permettant des réponses opportunes aux menaces émergentes dans les systèmes d'IA.
Entreprises
IA de pointe
Le déploiement d'algorithmes d'intelligence artificielle sur des dispositifs périphériques, permettant le traitement des données et la prise de décisions à la source de génération des données.
Analyse de pointe
L'analyse des données à la périphérie du réseau, près de la source de génération des données, réduisant la latence et l'utilisation de la bande passante.
Apprentissage Collectif
Un paradigme d'apprentissage automatique où plusieurs modèles sont entraînés et combinés pour résoudre le même problème, améliorant ainsi la performance globale.
Résolution d'Entité
Le processus d'identification et de liaison des enregistrements faisant référence à la même entité du monde réel dans différents ensembles de données.
Enzai
Une plateforme de gouvernance de l'IA d'entreprise qui permet aux organisations de répertorier, d'évaluer et de contrôler leurs systèmes d'IA, assurant une adoption maximale de l'IA tout en minimisant les risques liés à l'IA.
IA Éthique
La pratique de concevoir, développer et déployer des systèmes d'intelligence artificielle d'une manière qui s'aligne sur des principes et valeurs éthiques, garantissant l'équité, la responsabilité et la transparence.
Audit d'IA Éthique
Le processus d'évaluation systématique des systèmes d'IA pour garantir leur conformité aux normes éthiques et éviter tout dommage.
Certification de l'IA Éthique
Une reconnaissance formelle qu'un système d'IA respecte les normes et directives éthiques établies.
Gouvernance Éthique de l'IA
Le cadre des politiques, procédures et pratiques qui garantissent que les systèmes d'IA sont développés et utilisés de manière responsable et éthique.
Cadres éthiques
Ensembles structurés de principes et de lignes directrices conçus pour guider le développement et le déploiement éthique des systèmes d'intelligence artificielle.
Pirate Éthique
La pratique consistant à explorer intentionnellement les systèmes pour en déceler les vulnérabilités afin d'identifier et de corriger les problèmes de sécurité, garantissant ainsi la robustesse des systèmes d'IA.
Évaluation de l'Impact Éthique
Un processus d'évaluation systématique pour identifier et traiter les implications éthiques ainsi que les impacts sociétaux potentiels des systèmes d'IA avant leur déploiement.
Risques éthiques
Le potentiel d'un système d'IA à causer des dommages en raison d'un comportement non éthique, notamment des préjugés, de la discrimination ou de la violation de la vie privée.
Principes Éthiques pour une IA de Confiance
Un ensemble de lignes directrices élaborées par le groupe d'experts de haut niveau sur l'IA de la Commission européenne pour promouvoir une IA digne de confiance, axée sur l'autonomie humaine, la robustesse technique, la confidentialité, la transparence, la diversité, le bien-être sociétal et la responsabilité.
Techniques d'explicabilité
Méthodes utilisées pour interpréter et comprendre les décisions prises par les modèles d'IA, telles que LIME, SHAP et les cartes de saillance.
Explicabilité vs Interprétabilité
Bien que les deux visent à rendre compréhensibles les décisions de l'IA, l'explicabilité se concentre sur le raisonnement derrière les décisions, tandis que l'interprétabilité se rapporte à la transparence des mécaniques internes du modèle.
Intelligence Artificielle Explicable (IAE)
Les systèmes d'IA conçus pour fournir des justifications compréhensibles par l'homme pour leurs décisions et actions, renforçant la transparence et la confiance.
Apprentissage Automatique Explicable
Modèles d'apprentissage automatique conçus pour fournir des explications claires et compréhensibles de leurs prédictions et décisions.
F
Équité
Assurer que les systèmes d'IA produisent des résultats impartiaux et équitables à travers différents individus et groupes, et atténuer les impacts discriminatoires.
Indicateurs d'Équité
Des mesures quantitatives (par exemple, parité démographique, chances égalisées) utilisées pour évaluer la justice des prédictions d'un modèle d'IA à travers différents groupes.
Faux négatif
Lorsqu'un modèle d'IA prédit incorrectement une classe négative pour un cas qui est en réalité positif (Erreur de Type II).
Faux Positif
Lorsqu'un modèle d'IA prédit incorrectement une classe positive pour un cas qui est en réalité négatif (erreur de Type I).
Tolérance aux pannes
La capacité d'un système d'IA à continuer de fonctionner correctement même lorsque certains composants échouent ou produisent des erreurs.
Ingénierie des fonctionnalités
Créer, sélectionner ou transformer des attributs de jeux de données bruts en fonctionnalités qui améliorent la performance des modèles d'apprentissage automatique.
Extraction de fonctionnalités
Le processus de conversion des données brutes (par exemple, texte, images) en représentations numériques (caractéristiques) adaptées à l'entrée dans des algorithmes d'apprentissage automatique.
Sélection de Fonctionnalités
Identifier et sélectionner les fonctionnalités les plus pertinentes pour l'entraînement du modèle afin de réduire la complexité et améliorer la précision.
Apprentissage Fédéré
Une approche de ML décentralisée où les modèles sont entraînés sur plusieurs appareils ou serveurs contenant des données locales, sans partager les données brutes de manière centralisée.
Boucle de Rétroaction
Un processus où les sorties de l'IA sont réintroduites comme entrées, ce qui peut amplifier le comportement du modèle — pour le meilleur (apprentissage par renforcement) ou pour le pire (renforcement des biais).
Ajustement Fin
Adapter un modèle d'IA pré-entraîné à une tâche spécifique ou à un ensemble de données en poursuivant la formation sur de nouvelles données, ce qui améliore souvent les performances spécifiques à la tâche.
Vérification Formelle
Prouver mathématiquement que les algorithmes d'IA respectent les propriétés de correction spécifiées, souvent utilisées dans des systèmes critiques pour la sécurité.
Cadre
Un ensemble structuré de politiques, de processus et d'outils guidant la gouvernance, le développement, le déploiement et la surveillance des systèmes d'IA.
Détection de fraude
Utiliser des techniques d'IA (par exemple, la détection d'anomalies, la reconnaissance de motifs) pour identifier et prévenir les activités frauduleuses dans le domaine de la finance, de l'assurance, etc.
Sécurité Fonctionnelle
Garantir que les systèmes d'IA fonctionnent en toute sécurité dans toutes les conditions, en particulier dans des secteurs tels que l'automobile ou la santé, souvent par le biais de redondances et de vérifications.
Logique floue
Un système de logique qui gère le raisonnement avec des valeurs approximatives, plutôt que des valeurs binaires vraies/faux—utile dans les systèmes de contrôle et la gestion de l'incertitude.
G
RGPD
Le Règlement général sur la protection des données (RGPD) de l'UE, établissant des exigences strictes pour la collecte et le traitement des données personnelles, ainsi que les droits individuels.
processeur graphique
Accélérateur matériel spécialisé pour les calculs parallèles, largement utilisé pour entraîner et exécuter efficacement des modèles d'IA à grande échelle.
Analyse des écarts
Le processus de comparaison des pratiques actuelles de gouvernance de l'IA avec les normes ou réglementations souhaitées afin d'identifier les domaines nécessitant des améliorations.
Généralisation
La capacité d'un modèle d'intelligence artificielle à bien performer sur des données nouvelles et inédites en capturant des motifs sous-jacents plutôt qu'en mémorisant des exemples d'entraînement.
Intelligence Artificielle Générative
Les techniques d'IA (par exemple, GANs, transformers) qui génèrent de nouveaux contenus—texte, images ou autres médias—soulèvent souvent des préoccupations inédites en matière de gouvernance et de propriété intellectuelle.
Modèle Global
Un modèle d'IA consolidé, formé sur des données agrégées provenant de multiples sources, contrairement aux modèles localisés ou personnalisés.
Gouvernance
L'ensemble des politiques, procédures, rôles et responsabilités qui guident le développement et le déploiement éthique, légal et efficace des systèmes d'IA.
Instance de gouvernance
Un groupe interfonctionnel (par exemple, juridique, éthique, technique) chargé de superviser les politiques de gouvernance de l'IA et leur mise en œuvre au sein d'une organisation.
Cadre de Gouvernance
Un modèle structuré décrivant comment les composants de la gouvernance de l'IA (gestion des risques, responsabilité, supervision) s'imbriquent pour garantir la conformité et l'utilisation éthique.
Modèle de Maturité en Gouvernance
Un cadre organisé qui évalue le degré d'avancement des pratiques de gouvernance de l'IA au sein d'une organisation, allant de l'ad-hoc à l'optimisé.
Politique de Gouvernance
Un document formel qui codifie les règles, rôles et procédures pour le développement et la supervision de l'IA au sein d'une organisation.
Tableau de bord de gouvernance
Un tableau de bord ou un rapport qui suit les indicateurs clés (par exemple, incidents de partialité, audits de conformité) pour évaluer l'efficacité de la gouvernance de l'IA au fil du temps.
Descente de Gradient
Un algorithme d'optimisation qui ajuste itérativement les paramètres du modèle dans une direction qui diminue minimalement la fonction de perte.
Consentement Granulaire
Une approche de la protection des données permettant aux individus d'accorder ou de refuser des permissions spécifiques pour chaque type d'utilisation des données, renforçant ainsi la transparence et le contrôle.
IA Verte
La pratique de réduire l'impact environnemental de l'IA grâce à des algorithmes économes en énergie et à des pratiques informatiques durables.
Modèle Boîte Grise
Un modèle dont la logique interne est partiellement transparente (certains composants sont interprétables, d'autres sont opaques), équilibrant performance et explicabilité.
Vérité de terrain
Les données ou étiquettes précises et réelles utilisées comme référence pour entraîner et évaluer les performances des modèles d'IA.
Garde-fous
Contraintes prédéfinies ou vérifications (techniques et politiques) intégrées dans les systèmes d'intelligence artificielle pour prévenir les comportements dangereux ou non conformes pendant l'exécution.
Directive (IA Éthique)
Une recommandation non contraignante ou un document de bonnes pratiques émis par des organisations (par exemple, IEEE, UE) pour orienter le développement et le déploiement responsable de l'IA.
Bonjour
Hallucination
Lorsque l'IA générative produit des informations incorrectes ou fabriquées qui semblent plausibles mais qui n'ont aucun fondement dans les données d'entraînement.
Gestion des données manquantes
Techniques (par exemple, imputation, suppression, modélisation) pour combler les lacunes dans les ensembles de données afin de maintenir l'intégrité et l'équité des modèles.
Accélérateur Matériel
Des puces spécialisées (par exemple, GPU, TPU) conçues pour accélérer les calculs d'IA, avec des implications pour la consommation d'énergie et les risques liés à la chaîne d'approvisionnement.
Évaluation des risques
Évaluer les impacts négatifs potentiels (physiques, psychologiques, sociétaux) des systèmes d'IA et définir des stratégies d'atténuation.
Harmonisation
Aligner les politiques, normes et réglementations sur l'IA à travers les juridictions pour réduire les conflits et favoriser l'interopérabilité.
Hachage
Le processus de conversion des données en une chaîne de caractères de taille fixe, utilisé pour les vérifications d'intégrité des données et le couplage d'enregistrements préservant la confidentialité.
Données Hétérogènes
La combinaison de données de différents types (texte, image, capteur) ou provenant de multiples domaines présente des défis en matière d'intégration et de gouvernance.
Heuristique
Une règle empirique ou une stratégie simplifiée de prise de décision utilisée pour accélérer les processus d'IA, échangeant souvent l'optimalité pour l'efficacité.
Évaluation heuristique
Une méthode d'inspection de l'utilisabilité où des experts évaluent un système d'IA par rapport à des principes d'utilisabilité établis afin d'identifier les problèmes potentiels.
IA à enjeux élevés
Les applications d'IA dont les défaillances pourraient causer des préjudices significatifs (par exemple, les diagnostics médicaux, les véhicules autonomes), nécessitant une gouvernance et une supervision accrues.
Supervision Humaine
Des mécanismes permettant à des individus désignés de surveiller, intervenir ou remplacer les décisions des systèmes d'IA afin d'assurer le respect des normes éthiques et légales.
Évaluation de l'impact sur les droits de l'homme
Un processus d'évaluation de l'impact des systèmes d'IA sur les droits fondamentaux (vie privée, expression, non-discrimination) et d'identification des mesures d'atténuation.
Humain dans le processus
Impliquer le jugement humain dans les processus d'IA (entraînement, validation, révision des décisions) pour améliorer la précision et la responsabilité.
Modèle Hybride
Les systèmes d'IA alliant plusieurs paradigmes d'apprentissage (par exemple, symbolique et neuronal) pour équilibrer l'explicabilité et la performance.
Hyperparamètre
Une variable de configuration (par exemple, taux d'apprentissage, profondeur d'arbre) définie avant l'entraînement du modèle qui influence le comportement d'apprentissage et les performances.
Optimisation des hyperparamètres
Le processus de recherche des valeurs optimales des hyperparamètres (par exemple, via une recherche en grille, l'optimisation bayésienne) pour maximiser la performance du modèle.
Je
ISO/IEC JTC 1/SC 42
Le comité conjoint ISO/IEC sur la normalisation de l'intelligence artificielle, développe des normes internationales d'IA pour la gouvernance, la gestion des risques et l'interopérabilité.
Données Déséquilibrées
Un ensemble de données dans lequel une classe ou catégorie dépasse significativement les autres, ce qui peut amener les modèles d'IA à privilégier la classe majoritaire, sauf en cas de mesures d'atténuation.
Registre Immuable
Un mécanisme de tenue de registres à l'épreuve des altérations (par exemple, la blockchain) qui garantit qu'une fois les données enregistrées, elles ne peuvent pas être modifiées sans être détectées, ce qui est utile pour les pistes d'audit de l'IA.
Évaluation d'Impact
Une évaluation structurée pour identifier, analyser et atténuer les impacts potentiels éthiques, juridiques et sociétaux d'un système d'IA avant son déploiement.
Biais Implicite
Les biais inconscients ou involontaires intégrés dans les données de formation ou la conception du modèle peuvent conduire à des résultats discriminatoires.
Alignement des incitations
La conception des structures de récompense et des objectifs afin que les buts des systèmes d'IA restent en adéquation avec les valeurs humaines et les priorités organisationnelles.
Biais Inductif
L'ensemble des hypothèses qu'un algorithme d'apprentissage utilise pour généraliser des données observées à des instances non vues.
Inférence
Le processus par lequel un modèle d'IA formé traite de nouvelles entrées de données pour produire des prédictions ou des décisions.
Moteur d'Inférence
Le composant d'un système d'intelligence artificielle (souvent dans des systèmes basés sur des règles ou des systèmes experts) qui applique une base de connaissances aux données d'entrée pour en tirer des conclusions.
Gouvernance de l'information
Les politiques, procédures et contrôles qui garantissent la qualité, la confidentialité et l'utilisabilité des données à travers les actifs de données d'une organisation, y compris les ensembles de données d'entraînement de l'IA.
Confidentialité de l'information
Le droit des individus de contrôler comment leurs données personnelles sont collectées, utilisées, stockées et partagées par les systèmes d'IA.
Infrastructure en tant que Code (IaC)
Gérer et provisionner l'infrastructure d'IA (calcul, stockage, réseau) par le biais de fichiers de configuration lisibles par machine, améliorant ainsi la reproductibilité et l'auditabilité.
Interopérabilité
La capacité des divers systèmes et composants d'IA à échanger, comprendre et utiliser des informations de manière transparente, souvent via des normes ouvertes ou des API.
Interprétabilité
Le degré auquel un être humain peut comprendre les mécanismes internes ou la logique décisionnelle d'un modèle d'IA.
Détection d'Intrusion
Surveillance de l'infrastructure et des applications d'intelligence artificielle afin de détecter toute activité malveillante ou tout manquement aux politiques, avec déclenchement d'alertes ou de réponses automatisées.
J
Matrice Jacobienne
En termes d'explicabilité de l'IA, la matrice de toutes les dérivées partielles d'ordre un des sorties d'un modèle par rapport à ses entrées, utilisée pour évaluer la sensibilité et l'importance des caractéristiques.
Attaque de Jailbreak
Un type d'injection de commande où les utilisateurs exploitent des vulnérabilités pour contourner les protections dans les modèles d'IA générative, ce qui peut potentiellement conduire à des résultats non sécurisés ou non autorisés.
Responsabilité Conjointe
Principe juridique selon lequel plusieurs parties (par exemple, développeurs, déployeurs) partagent la responsabilité des préjudices liés à l'IA, influençant les structures contractuelles et de gouvernance.
Modélisation Conjointe
Créer des systèmes d'IA qui apprennent conjointement plusieurs tâches (par exemple, reconnaissance vocale et traduction), avec une gouvernance nécessaire pour la complexité et l'auditabilité.
Biais de Jugement
Erreurs systématiques dans les processus de prise de décision humains ou d'IA causées par des raccourcis cognitifs ou des données erronées, nécessitant des audits et une atténuation des biais.
Révision Judiciaire
Le processus légal par lequel les tribunaux évaluent la légalité des décisions prises ou assistées par l'IA, garantissant la responsabilité et le respect des procédures.
Juridiction
L'autorité légale sur les données, les opérations liées à l'intelligence artificielle et la responsabilité, qui varie selon la géographie et impacte la conformité aux réglementations régionales (par exemple, RGPD, CCPA).
Automatisation du Jury
L'utilisation de l'IA pour aider à la sélection du jury ou à l'analyse des dossiers soulève des préoccupations éthiques concernant l'équité, la transparence et la supervision juridique.
Métriques de la Justice
Mesures quantitatives (par exemple, impact disparate, égalité des chances) utilisées pour évaluer l'équité et la non-discrimination dans la prise de décision par l'IA.
K
Indicateur Clé de Performance
Une métrique quantifiable (par exemple, la dérive de précision du modèle, le temps de correction des biais) utilisée pour surveiller et rendre compte des objectifs de gouvernance et de conformité de l'IA.
Indicateur Clé de Risque
Un indicateur clé (par exemple, la fréquence des prédictions hors cadre, le taux de décisions inexplicables) qui signale les risques émergents liés à l'IA avant qu'ils ne se concrétisent.
Connaître Votre Client (KYC)
Les processus de conformité pour vérifier l'identité, le profil de risque et la légitimité des individus ou des entités interagissant avec les systèmes d'IA, en particulier dans les industries réglementées.
Distillation des connaissances
Une méthode de transfert des connaissances d'un modèle « enseignant » plus grand vers un modèle « étudiant » plus petit, équilibrant la performance avec les contraintes de ressources et de gouvernance.
Graph de Connaissances
Une représentation structurée des entités et de leurs relations utilisée pour améliorer l'explicabilité de l'IA, l'auditabilité et l'alignement avec les ontologies de domaine.
Gestion des connaissances
Pratiques et outils pour capturer, organiser et partager les connaissances organisationnelles (par exemple, la documentation des modèles, les journaux d'audit) afin d'assurer la reproductibilité et la supervision.
L'entreprise
Fuite d'Étiquettes
L'inclusion involontaire d'informations de sortie dans les étiquettes des données d'entraînement, pouvant gonfler les indicateurs de performance et masquer les véritables problèmes de généralisation du modèle.
Modèle de Langage de Grande Envergure
Un modèle d'apprentissage profond entraîné sur de vastes corpus de texte, capable de réaliser des tâches telles que la génération de texte, la traduction et la synthèse, nécessitant souvent une gouvernance pour éviter les biais et les abus.
Moindre Privilège
Un principe de sécurité selon lequel les composants d'IA et les utilisateurs ne reçoivent que les droits d'accès minimaux nécessaires pour exécuter leurs fonctions, réduisant ainsi le risque d'utilisation abusive.
Conformité Légale
La pratique de garantir que les systèmes d'IA respectent les lois, règlements et normes industrielles applicables tout au long de leur cycle de vie.
Cadre de Responsabilité
Une approche structurée définissant qui est responsable des préjudices ou des échecs liés à l'IA, y compris les développeurs, les déployeurs et les opérateurs.
Gestion du Cycle de Vie
Les processus coordonnés pour le développement, le déploiement, la surveillance, la maintenance et le retrait des systèmes d'IA afin de garantir la conformité continue et le contrôle des risques.
Détection de vitalité
Techniques utilisées pour vérifier qu'une entrée (par exemple, biométrique) provient d'un sujet vivant plutôt que d'une fraude ou d'une répétition, renforçant ainsi la sécurité et l'intégrité du système.
Localisation
Adaptation des systèmes d'IA aux langues locales, aux réglementations, aux normes culturelles et aux exigences de résidence des données dans différentes juridictions.
Gestion des journaux
La collecte, le stockage et l'analyse des journaux de système et d'application issus des workflows d'IA pour soutenir l'audit, la gestion des incidents et le suivi des performances des modèles.
Fonction de Perte
Une fonction mathématique qui quantifie la différence entre les résultats prévus et les valeurs réelles, guidant ainsi la formation et l'optimisation du modèle.
M
Contrôle Humain Significatif
Une norme réglementaire et opérationnelle garantissant que les humains conservent la capacité de superviser, d'intervenir et de contrecarrer les processus décisionnels de l'IA.
Gestion des métadonnées
La pratique de capture et de maintien de données descriptives (par exemple, provenance des données, définitions des fonctionnalités, paramètres de modèle) pour soutenir la traçabilité et les audits.
Mesures et indicateurs clés de performance
Des mesures quantitatives (par exemple, dérive de précision, scores d'équité, temps de réponse aux incidents) utilisées pour surveiller la santé, les risques et les objectifs de conformité des systèmes d'IA.
Stratégies d'atténuation
Actions prévues (par exemple, la correction des biais, la reformation, la réingénierie des fonctionnalités) pour traiter les risques d'IA identifiés et les lacunes en matière de conformité.
Explicabilité du Modèle
Techniques et documentation qui rendent la logique décisionnelle d'un modèle d'IA compréhensible pour les parties prenantes et les auditeurs.
Gouvernance du Modèle
Les politiques, rôles et contrôles qui garantissent que les modèles d'IA sont développés, approuvés et utilisés conformément aux normes organisationnelles et aux exigences réglementaires.
Surveillance du Modèle
Suivi continu des performances d'un modèle d'IA, des dérives de données et des indicateurs opérationnels pour détecter toute dégradation ou nouveaux risques potentiels.
Réentraînement du Modèle
Le processus de mise à jour d’un modèle d'IA avec des données nouvelles ou actualisées pour maintenir la performance et la conformité à mesure que les distributions de données évoluent.
Gestion des risques du modèle
Le processus structuré d'identification, d'évaluation et de réduction des risques découlant des modèles IA/ML tout au long de leur cycle de vie.
Validation du modèle
Les activités d'évaluation (par exemple, tests sur des données de validation, scénarios de stress) qui confirment qu'un modèle d'IA répond à son objectif et à ses critères de performance.
Engagement Multi-Intervenants
Impliquer divers groupes (par exemple, juridique, éthique, opérations, utilisateurs finaux) dans les processus de gouvernance de l'intelligence artificielle pour garantir une supervision équilibrée des risques et une alignement avec les objectifs commerciaux.
Non
Cadre de Gestion des Risques de l'IA de NIST
Une orientation volontaire de l'Institut National des Standards et de la Technologie des États-Unis décrivant les meilleures pratiques pour atténuer les risques tout au long des cycles de vie des systèmes d'intelligence artificielle.
Traitement Automatique du Langage Naturel (TALN)
Techniques et outils qui permettent aux machines d'interpréter, de générer et d'analyser le langage humain sous forme de texte ou de parole.
Sécurité du Réseau
Mesures et contrôles (par exemple, segmentation, pare-feu, détection d'intrusion) pour protéger l'infrastructure de l'IA et les pipelines de données contre l'accès non autorisé ou la falsification.
Recherche d'Architecture Neurale
Méthodes automatisées pour concevoir et optimiser les structures de réseaux neuronaux afin d'améliorer la performance des modèles tout en équilibrant la complexité et les contraintes de ressources.
Injection de bruit
Introduction délibérée de perturbations aléatoires dans les données d'entraînement ou les paramètres du modèle afin d'améliorer la robustesse et de se protéger contre la manipulation malveillante.
Détection de Nouveautés
Techniques pour identifier les entrées ou scénarios qui diffèrent significativement des données d'entraînement, déclenchant une révision ou un mode de fonctionnement sécurisé afin de prévenir des défaillances inattendues.
O
Observabilité
La capacité de déduire l'état interne et le comportement d'un système d'IA par la collecte et l'analyse des journaux, des métriques et des résultats pour un suivi et un dépannage efficaces.
Surveillance Continue
Suivi continu des performances des systèmes d'IA, de la dérive des données, des métriques de biais et des événements de sécurité afin de détecter et traiter les risques émergents au fil du temps.
Opacité
L'absence de transparence dans la manière dont un modèle d'IA parvient à des décisions ou à des prédictions pose des défis en termes de confiance et de conformité réglementaire.
Résilience Opérationnelle
La capacité des systèmes d'intelligence artificielle et de leur infrastructure de soutien à anticiper, résister, se rétablir et s'adapter aux perturbations ou aux événements défavorables.
Orchestration
La coordination automatisée des flux de travail et des services d'IA—l'ingestion de données, la formation des modèles, le déploiement—assurant la conformité avec les politiques et la gouvernance des ressources.
Détection des valeurs aberrantes
Techniques pour identifier les points de données ou les prédictions modélisées qui s'écartent significativement des schémas attendus, déclenchant ainsi des actions de révision ou de mitigation.
Surapprentissage
Un problème de modélisation où un système d'IA apprend le bruit ou les particularités des données d'entraînement, réduisant ainsi sa capacité à généraliser à de nouvelles données non vues.
Supervision
Le processus structuré d'examen, d'approbation et de responsabilité pour le développement et le déploiement de l'IA, impliquant généralement des instances de gouvernance interfonctionnelles.
Propriété
La répartition claire des responsabilités et de l'autorité concernant les actifs IA—données, modèles, processus—pour garantir la responsabilité tout au long du cycle de vie du système.
P
Autorisation
La gestion des droits d'accès des utilisateurs et des systèmes aux données et fonctions de l'IA, garantissant le principe du moindre privilège et empêchant toute utilisation non autorisée.
Essai Pilote
Un essai à portée limitée d'un système d'IA dans un environnement contrôlé pour évaluer les performances, les risques et les contrôles de gouvernance avant le déploiement à grande échelle.
Mise en Application des Politiques
Les mécanismes automatisés ou manuels qui garantissent que les opérations d'IA respectent les politiques organisationnelles, les réglementations et les lignes directrices éthiques.
Surveillance post-déploiement
Observation continue du comportement du système d'IA et de l'environnement après le déploiement afin de détecter toute dégradation, dérive ou violation de conformité.
Maintenance Prédictive
Surveillance et analyse pilotées par l'IA pour prévoir les défaillances des composants ou des systèmes, assurant ainsi la résilience opérationnelle et la réduction des risques dans des environnements critiques.
Évaluation de l'impact sur la vie privée
Une analyse structurée pour identifier et atténuer les risques de confidentialité associés aux systèmes d'IA, couvrant la collecte, l'utilisation, le partage et la conservation des données.
Confidentialité dès la Conception
Une approche qui intègre la protection des données et les considérations de la vie privée des utilisateurs dans l'architecture et les processus des systèmes d'intelligence artificielle dès le départ.
Automatisation des Processus
Utilisation de l'IA et des outils de gestion des flux de travail pour rationaliser la gouvernance, les contrôles de conformité et les activités de réduction des risques, réduisant ainsi les efforts manuels et les erreurs.
Q
Évaluation Qualitative
L'évaluation subjective des comportements, des décisions et de la documentation des systèmes d'IA par des experts, visant à identifier les préoccupations éthiques, juridiques ou réputationnelles qui ne sont pas quantifiées.
Assurance Qualité
Les processus systématiques et les vérifications visant à garantir que les modèles d'IA et les flux de données répondent aux normes définies en termes de précision, de fiabilité et de conformité éthique.
Contrôle de Qualité
La vérification continue des résultats et des processus d'IA par rapport aux référentiels et aux cas de test, afin de détecter les défauts, les incidents de biais ou les violations de politique.
Évaluation Quantitative des Risques
Une évaluation fondée sur les données des menaces potentielles de l'IA, estimant les probabilités et les impacts de manière numérique afin de prioriser les efforts d'atténuation.
Calcul Quantique
Le paradigme computationnel émergent qui exploite la mécanique quantique pose de nouveaux défis de gouvernance en matière de sécurité, de standardisation et de gestion des risques.
Enregistrement des Requêtes
La pratique d'enregistrer les entrées du système d'IA et les requêtes des utilisateurs pour permettre des pistes d'audit, détecter les abus et soutenir la responsabilité.
Confidentialité des Requêtes
Techniques et politiques visant à protéger les informations sensibles dans les requêtes des utilisateurs, garantissant que les entrées enregistrées ne compromettent pas les données personnelles ou propriétaires.
Cadre de Questionnaire
Un ensemble structuré de questions axées sur la gouvernance utilisé lors de la conception, de l'acquisition ou du déploiement pour garantir que les systèmes d'IA sont conformes aux exigences réglementaires.
Quorum pour le Conseil de Gouvernance
Le nombre minimum de membres du comité de gouvernance requis pour être présents afin de prendre des décisions officielles concernant les risques liés à l'IA, les approbations de politiques ou les résultats d'audit.
Gestion des quotas
Les contrôles et limites imposés à l'utilisation des ressources d'IA (par exemple, appels API, temps de calcul) afin de appliquer les politiques de gouvernance et prévenir les coûts excessifs ou les abus.
R
Recours
Mécanismes permettant aux individus concernés de contester ou de demander un recours pour des décisions prises par l'IA qui affectent leurs droits ou leurs intérêts.
Équipe Rouge
Une approche proactive de test où des experts internes ou externes simulent des attaques ou des scénarios d'utilisation abusive afin de découvrir les vulnérabilités des systèmes d'intelligence artificielle.
Conformité Réglementaire
Garantir que les systèmes d'IA respectent les lois, réglementations et normes industrielles applicables (par exemple, RGPD, FDA, surveillance financière) tout au long de leur fonctionnement.
Reproductibilité
La capacité de régénérer systématiquement les résultats des modèles d'IA en utilisant les mêmes données, code et configurations, garantissant ainsi la transparence et l'auditabilité.
Matrice d'Attribution des Responsabilités
Un outil (par exemple, RACI) qui clarifie les rôles et les responsabilités pour chaque activité de gouvernance—qui est Responsable, Comptable, Consulté et Informé.
Intelligence Artificielle Responsable
La pratique de concevoir, développer et déployer des systèmes d'IA de manière éthique, transparente et responsable envers les parties prenantes et la société.
Évaluation des Risques
Le processus d'identification, d'analyse et de hiérarchisation des dommages ou défaillances potentiels dans les systèmes d'IA afin de déterminer les stratégies d'atténuation appropriées.
Cadre de Gestion des Risques
Un ensemble structuré de directives et de processus pour aborder systématiquement les risques liés à l'IA tout au long du cycle de vie du système, de la conception à la mise au rebut.
Robustesse
La capacité d'un système d'intelligence artificielle à maintenir une performance fiable dans une variété de conditions difficiles ou adverses.
Analyse des Causes Racines
Une enquête structurée visant à déterminer les raisons sous-jacentes des défaillances ou des comportements inattendus des systèmes d'IA, guidant les actions correctives.
S
Politique d'Utilisation Sanctionnée
Des règles et contrôles définis spécifiant les contextes, les utilisateurs et les objectifs approuvés pour le fonctionnement des systèmes d'intelligence artificielle afin de prévenir tout usage abusif.
Sécurité par Conception
Intégrer des contrôles de sécurité et des pratiques exemplaires dans les systèmes d'IA dès les premières phases de conception pour prévenir les vulnérabilités et les violations de données.
Intelligence Artificielle de l'Ombre
L'utilisation non autorisée de modèles d'IA, d'agents ou d'outils par les employés sans l'approbation du service informatique crée des vulnérabilités de sécurité cachées dues à des fuites de données et à des actions autonomes non autorisées.
Évaluation de l'Impact Sociétal
Une évaluation structurée de l'impact d'un système d'IA sur les aspects sociaux, économiques et culturels des communautés, identifiant les dommages potentiels et les avantages.
Cycle de vie du développement logiciel
Le processus de bout en bout (exigences, conception, construction, test, déploiement, surveillance) pour les applications d'IA, intégrant des vérifications de gouvernance et de conformité à chaque étape.
Engagement des parties prenantes
Le processus d'implication des parties affectées (par exemple, utilisateurs, régulateurs, communautés concernées) dans le développement et la supervision de l'IA afin de garantir des perspectives variées et leur approbation.
Risque de Surveillance
La menace que les systèmes d'IA puissent être exploités pour une surveillance intrusive des individus ou des groupes, portant atteinte à la vie privée et aux libertés civiles.
Données Synthétiques
Jeux de données générés artificiellement qui imitent les distributions de données réelles, utilisés pour augmenter les ensembles d'entraînement tout en protégeant la confidentialité.
T
Risque de queue
Le potentiel de résultats rares et extrêmes dans le comportement ou la prise de décision de l'IA qui dépassent les attentes normales et nécessitent une planification spéciale d'atténuation.
Test et Validation
Le processus systématique d'évaluation des modèles d'IA par rapport à des références, des cas limites et des conditions de stress pour garantir qu'ils répondent aux critères de performance, de sécurité et de conformité.
Risque lié aux tiers
L'exposition résultant de la dépendance envers des fournisseurs de données externes, des vendeurs de modèles ou des plateformes de services qui pourraient introduire des vulnérabilités de conformité ou de sécurité.
Paramétrage du Seuil
Définir des limites ou des valeurs seuil dans les règles de décision de l'IA (par exemple, les scores de confiance) afin de trouver un équilibre entre les risques tels que les faux positifs et les faux négatifs.
Traçabilité
La capacité de suivre et de documenter chaque étape du cycle de vie de l'IA, depuis la collecte de données jusqu'au développement du modèle et son déploiement, afin de soutenir l'audit et la criminalistique.
Ensemble de données de formation
La collection soigneusement sélectionnée de données annotées ou non annotées utilisée pour enseigner à un modèle d'intelligence artificielle les relations et les modèles qu'il doit apprendre pour accomplir sa tâche.
Apprentissage par Transfert
Une technique où un modèle développé pour une tâche est adapté à une tâche connexe, réduisant ainsi le temps de développement, mais nécessitant la gouvernance des biais hérités.
Transparence
La pratique consistant à rendre les processus des systèmes d'IA, la logique de décision, et l'utilisation des données clairs et compréhensibles pour les parties prenantes afin d'assurer la responsabilité.
IA fiable
Des systèmes d'IA conçus et exploités de manière éthique, fiable, sûre et en adéquation avec les valeurs humaines et les normes sociétales.
Vous
Sous-ajustement
Un problème de modélisation où un système d'IA est trop simpliste pour saisir les motifs sous-jacents des données, entraînant des performances médiocres tant sur les données d'entraînement que sur les nouvelles données.
Uniformité
Assurer une application cohérente des politiques, contrôles et normes à travers tous les systèmes d'IA pour éviter les lacunes de gouvernance ou une gestion des risques inégale.
Apprentissage Non Supervisé
Une approche d'apprentissage automatique où les modèles identifient des motifs ou des regroupements dans des données non étiquetées sans orientation explicite sur les résultats.
Surveillance de la disponibilité
Suivi continu de la disponibilité et des performances des systèmes d'IA pour détecter les pannes ou les dégradations pouvant affecter les opérations critiques ou les obligations de conformité.
Gouvernance des Cas d'Utilisation
La pratique de définir, approuver et surveiller des cas d'utilisation spécifiques de l'IA pour s'assurer que chacun est conforme aux politiques organisationnelles, aux normes éthiques et à l'appétit pour le risque.
Consentement de l'utilisateur
Le processus d'obtention et d'enregistrement d'une autorisation explicite de la part des individus avant de collecter, traiter ou utiliser leurs données personnelles dans des systèmes d'IA.
Utilité
Une mesure de la valeur ou de l'efficacité d'un système d'IA à atteindre ses objectifs visés, équilibrée par rapport aux risques ou aux coûts en ressources associés.
V
Validation
Le processus de confirmation qu'un modèle d'intelligence artificielle fonctionne de manière précise et fiable sur les tâches prévues et répond aux critères de performance définis.
Surveillance des Variances
Suivi des fluctuations des sorties des modèles d'IA ou des indicateurs de performance au fil du temps pour détecter les dérives et en déduire une éventuelle dégradation ou un risque.
Gestion des Risques Fournisseurs
Évaluer et surveiller les fournisseurs tiers de composants ou services d'IA pour identifier et atténuer les risques potentiels de conformité, de sécurité ou d'éthique.
Contrôle de Version
La pratique de la gestion et du suivi des modifications du code de l'IA, des modèles et des ensembles de données au fil du temps pour garantir la reproductibilité et l'auditabilité.
Autorité de Veto
Le droit formel détenu par un organe de gouvernance ou un intervenant pour bloquer ou exiger des modifications des déploiements d'IA présentant des risques inacceptables.
Surveillance de la Vigilance
Surveillance continue du comportement de l'IA et des signaux externes (par exemple, les mises à jour réglementaires) afin d'identifier et de répondre rapidement aux risques émergents ou aux non-conformités.
Surveillance IA Vision
Les processus de gouvernance spécifiques aux systèmes de vision par ordinateur, garantissant la qualité des données, les vérifications des biais et la transparence dans la prise de décision basée sur des images et des vidéos.
Évaluation des vulnérabilités
Identifier, analyser et prioriser les faiblesses de sécurité dans l'infrastructure et les applications d'IA afin de guider les efforts de remédiation.
W
Surveillance Surveillance
Contrôles d'exécution indépendants qui observent les décisions de l'IA et déclenchent des alertes ou des interventions lorsque des politiques ou des seuils sont enfreints.
Audit de Poids
Examiner les poids et les structures des modèles pour détecter des anomalies, des portes dérobées ou des biais pouvant indiquer une altération ou des comportements non souhaités.
Testage en boîte blanche
Évaluer les systèmes d'IA avec une pleine connaissance du fonctionnement interne (code, paramètres, architecture) pour vérifier l'exactitude, la sécurité et la conformité.
Politique de liste blanche/liste noire
Règle de gouvernance définissant les entrées, caractéristiques ou opérations autorisées (liste blanche) et interdites (liste noire) afin d'assurer la conformité et de prévenir tout abus.
Mise en liste blanche
Autoriser uniquement des sources de données, des bibliothèques ou des composants de modèle pré-approuvés dans les processus d'IA afin de réduire les risques liés à des éléments non vérifiés ou malveillants.
Orchestration des flux de travail
Automatisation et séquençage des tâches du cycle de vie de l'IA (ingestion de données, formation, validation, déploiement) pour appliquer les politiques de gouvernance et garantir la cohérence.
Segmentation des charges de travail
Séparer les environnements de calcul IA (par exemple, développement, test, production) et les domaines de données afin de limiter l'impact des pannes ou des violations de sécurité.
Analyse du pire des cas
Évaluer les échecs ou abus potentiels les plus extrêmes d'un système d'IA afin d'informer une atténuation des risques et une planification de contingence robustes.
Stockage WORM (Write-Once Read-Many)
Stockage immuable garantissant que les journaux, pistes d'audit et artefacts de modèles ne peuvent pas être modifiés une fois écrits, soutenant ainsi la non-répudiation et l'examen médico-légal.
X
X-Validation
Une technique de validation de modèle (souvent abrégée « X-Val ») qui partitionne les données en segments afin d'évaluer rigoureusement la généralisation du modèle et de détecter les surapprentissages.
XAI (IA Explicable)
Techniques et méthodes qui rendent le processus de décision d'un modèle d'IA transparent et compréhensible pour les humains, favorisant ainsi la responsabilité et la conformité.
Audit XAI
Un processus de révision qui évalue si les résultats de l'explicabilité de l'IA satisfont aux politiques internes et aux exigences réglementaires, garantissant une transparence suffisante.
Cadre XAI
Une approche structurée ou un ensemble de directives qu'organisations utilisent pour mettre en œuvre, mesurer et régir les pratiques d'explicabilité au sein de leurs systèmes d'IA.
Métriques XAI
Mesures quantitatives ou qualitatives (par exemple, scores d'importance des fonctionnalités, fidélité des explications) utilisées pour évaluer la qualité et la fiabilité des explications d'IA.
Oui
Règles YARA
Un ensemble de modèles de détection basés sur des signatures utilisés pour analyser les pipelines et les artefacts d'IA afin de détecter des codes malveillants connus ou des altérations.
Revue Annuelle de Conformité
Une évaluation annuelle des processus, des politiques et des systèmes de gouvernance de l'IA pour garantir une conformité continue aux réglementations et aux normes internes.
Z
Tolérance Zéro Défaut
Un principe de gouvernance visant l'absence d'erreurs ou de violations de politique dans les résultats de l'IA, soutenu par des cycles rigoureux de test, de surveillance et d'amélioration continue.
Vulnérabilité Zéro Jour
Une faille de sécurité précédemment inconnue dans le logiciel ou l'infrastructure d'IA qui peut être exploitée avant qu'un correctif ou une atténuation ne soit disponible.
Apprentissage sans supervision
Une capacité modèle pour gérer correctement les tâches ou classer les données sur lesquelles il n'a jamais été explicitement formé en utilisant des représentations de connaissances généralisées.
Contrôle d'accès par zone
Une approche de gouvernance réseau ou de données qui divise les ressources en zones avec des politiques distinctes, restreignant l'accès des systèmes d'IA en fonction de la sensibilité des données.
Livre blanc
Tous
Réglementations sur l'IA
Balados
Mises à jour du produit
Couverture Médiatique
Glossaire
A
Responsabilité de l'IA
L'obligation des développeurs et opérateurs de systèmes d'IA d'assurer que leurs systèmes sont conçus et utilisés de manière responsable, en respectant les normes éthiques et les exigences légales.
Alignement de l'IA
Le processus consistant à garantir que les objectifs et les comportements des systèmes d'IA sont alignés avec les valeurs et les intentions humaines.
Audit IA
L'évaluation systématique des systèmes d'IA pour vérifier la conformité aux normes éthiques, aux règlements et aux indicateurs de performance.
Biais de l'IA
Erreurs systématiques dans les sorties d'IA résultant de données d'entraînement biaisées ou d'algorithmes défectueux, conduisant à des résultats inéquitables.
Conformité IA
L'adhésion des systèmes d'IA aux lois, réglementations et directives éthiques applicables tout au long de leur cycle de vie.
Éthique de l'IA
Le domaine concerné par les implications morales et les responsabilités liées au développement et au déploiement des technologies d'IA.
Explicabilité de l'IA
Le degré auquel la mécanique interne d'un système d'IA peut être comprise et interprétée par les humains.
Gouvernance de l'IA
Le cadre des politiques, processus et contrôles qui guident le développement et l'utilisation éthiques et efficaces des systèmes d'IA.
Inventaire IA
Un catalogue complet et centralisé de tous les systèmes d'IA, modèles et agents utilisés dans toute l'organisation, permettant de suivre leur objectif commercial, leur niveau de risque et leur propriétaire.
Culture de l'IA
La compréhension des concepts, des capacités et des limitations de l'IA, permettant une interaction éclairée avec les technologies de l'IA.
Surveillance de l'IA
L'observation et l'analyse continues des performances des systèmes d'IA afin de garantir la fiabilité, la sécurité et la conformité.
Risque lié à l'IA
Le potentiel des systèmes d'intelligence artificielle à causer des préjudices ou des conséquences imprévues, y compris les risques éthiques, juridiques et opérationnels.
Gestion des Risques liés à l'IA
Le processus d'identification, d'évaluation et d'atténuation des risques associés aux systèmes d'IA.
TRiSM IA
Un acronyme inventé par Gartner signifiant Gestion de la Confiance, des Risques et de la Sécurité de l'IA ; un cadre qui unifie la gouvernance, la fiabilité et la sécurité en une seule stratégie opérationnelle.
Transparence de l'IA
Le principe selon lequel les systèmes d'IA doivent être ouverts et clairs quant à leurs opérations, décisions et utilisation des données.
Précision
Le degré auquel les résultats d'un système d'IA reflètent correctement les données du monde réel ou les résultats escomptés.
Attaque Adversariale
Techniques qui manipulent les modèles d'IA en introduisant des entrées trompeuses pour provoquer des résultats incorrects.
Agentic IA
Une catégorie de systèmes d'intelligence artificielle conçus pour atteindre de manière autonome des objectifs complexes et exécuter des actions à multiples étapes (telles que le déploiement de logiciels ou les transactions financières) avec une intervention humaine minimale.
Gouvernance d'IA Agentic
La gouvernance des systèmes d'IA autonomes capables d'exécuter des actions indépendantes (par exemple, des transactions, le déploiement de code) se distingue de l'IA prédictive (qui fournit des insights) et de l'IA générative (qui crée du contenu).
Algorithme
Un ensemble de règles ou d'instructions donné à un système d'IA pour l'aider à apprendre de manière autonome.
Biais Algorithmique
Un biais qui survient lorsqu'un algorithme produit des résultats systématiquement biaisés en raison d'hypothèses erronées dans le processus d'apprentissage automatique.
Gouvernance Algorithmique
L'utilisation d'algorithmes pour gérer et réguler les fonctions sociétales, pouvant potentiellement influencer les processus de prise de décision.
Intelligence Artificielle Générale
Un type d'intelligence artificielle qui possède la capacité de comprendre, d'apprendre et d'appliquer des connaissances de manière générale, similaire à l'intelligence humaine.
Intelligence Artificielle
La simulation des processus d'intelligence humaine par des machines, en particulier les systèmes informatiques, y compris l'apprentissage, le raisonnement et l'auto-correction.
B
Rétropropagation
Un algorithme d'apprentissage utilisé dans les réseaux de neurones qui ajuste les poids en propageant les erreurs à rebours depuis la couche de sortie afin de minimiser la perte.
Apprentissage par lot
Une approche d'apprentissage automatique où le modèle est entraîné sur l'ensemble du jeu de données en une seule fois, par opposition à l'apprentissage incrémental.
Évaluation comparative
Le processus de comparaison des performances des systèmes d'IA avec des métriques standard ou d'autres systèmes pour évaluer l'efficacité.
Préjugé
Erreurs systématiques dans les sorties d'IA résultant de données d'entraînement biaisées ou d'algorithmes défectueux, conduisant à des résultats inéquitables.
Amplification des biais
Le phénomène où les systèmes d'IA exacerbent les biais existants présents dans les données d'entraînement, conduisant à des résultats de plus en plus biaisés.
Audit de Biais
Un processus d'évaluation pour détecter et atténuer les biais dans les systèmes d'IA, garantissant l'équité et la conformité avec les normes éthiques.
Détection des Biais
Le processus d'identification des biais dans les modèles d'IA en analysant leurs résultats et leurs processus de prise de décision.
Atténuation des biais
Techniques appliquées lors du développement de l'IA pour réduire ou éliminer les biais dans les modèles et les ensembles de données.
Modèle Boîte Noire
Un système d'IA dont le fonctionnement interne n'est ni transparent ni interprétable, rendant difficile la compréhension du processus de prise de décision.
Robot
Une application logicielle qui exécute des tâches automatisées, souvent utilisée dans le domaine de l'intelligence artificielle pour des tâches telles que le service client ou la collecte de données.
C
Inférence Causale
Une méthode en intelligence artificielle et en statistiques utilisée pour déterminer les relations de cause à effet, aidant à comprendre l'impact des interventions ou des modifications des variables.
Assistant conversationnel
Une application logicielle alimentée par l'IA, conçue pour simuler une conversation humaine, souvent utilisée dans le service client et l'acquisition d'informations.
Classification
Une technique d'apprentissage supervisé en apprentissage automatique où le modèle prédit la catégorie ou l'étiquette de classe des nouvelles observations en se basant sur des données d'entraînement.
Biais Cognitif
Des schémas systématiques de déviation par rapport à la norme ou à la rationalité dans le jugement, qui peuvent influencer la prise de décision de l'IA s'ils sont présents dans les données d'entraînement.
Informatique cognitive
Un sous-ensemble de l'intelligence artificielle qui simule les processus de pensée humaine dans un modèle informatisé, visant à résoudre des problèmes complexes sans assistance humaine.
Charge cognitive
La quantité totale d'effort mental utilisée dans la mémoire de travail, est prise en compte en IA pour concevoir des systèmes qui ne submergent pas les utilisateurs.
Cadre de Conformité
Un ensemble structuré de directives et de meilleures pratiques que les organisations suivent pour garantir que leurs systèmes d'IA respectent les normes réglementaires et éthiques.
Risque de Conformité
Le risque de sanctions légales ou réglementaires, de pertes financières ou de préjudice à la réputation qu'une organisation encourt lorsqu'elle ne se conforme pas aux lois, réglementations ou pratiques prescrites.
Vision par Ordinateur
Un domaine de l'IA qui forme les ordinateurs à interpréter et traiter les informations visuelles du monde, telles que les images et les vidéos.
Dérive de Concept
La modification des propriétés statistiques de la variable cible, que le modèle cherche à prédire, au fil du temps, conduit à une dégradation du modèle.
Intervalle de Confiance
Une gamme de valeurs, dérivées de statistiques d'échantillons, qui est susceptible de contenir la valeur d'un paramètre de population inconnu, utilisée en IA pour exprimer l'incertitude.
Évaluation de la conformité
Un processus destiné à déterminer si un système d'IA répond aux exigences, normes ou réglementations spécifiées, impliquant souvent des tests et une certification.
Apprentissage Continu
La capacité d'un système d'intelligence artificielle à apprendre et à s'adapter en continu à partir de nouvelles données sans intervention humaine, s'améliorant au fil du temps.
Maîtrise
La mesure dans laquelle les humains peuvent diriger, influencer ou remplacer les décisions et les comportements d'un système d'intelligence artificielle.
Validation croisée
Une technique de validation de modèle pour évaluer comment les résultats d'une analyse statistique se généraliseront à un ensemble de données indépendant.
Cybersécurité
La pratique de la protection des systèmes, réseaux et programmes contre les attaques numériques, essentielle pour sécuriser les systèmes d'intelligence artificielle contre les menaces.
D
Variation des données
L'évolution des données d'entrée du modèle avec le temps, qui peut entraîner une dégradation des performances du modèle si elle n'est pas surveillée et corrigée.
Éthique des Données
La branche de l'éthique qui évalue les pratiques en matière de données en ce qui concerne les obligations morales liées à la collecte, à la protection et à l'utilisation des informations personnellement identifiables.
Gouvernance des données
La gestion globale de la disponibilité, de l'utilisabilité, de l'intégrité et de la sécurité des données dans une entreprise, garantissant que les données sont correctement traitées tout au long de leur cycle de vie.
Gestion du cycle de vie des données
La gestion des flux de données basée sur des politiques tout au long de leur cycle de vie : de leur création et stockage initial à leur obsolescence et suppression.
Minimisation des Données
Le principe de ne collecter que les données nécessaires à un objectif spécifique, réduisant ainsi le risque de mauvaise utilisation ou de violation.
Confidentialité des données
L'aspect de la technologie de l'information qui traite de la capacité à contrôler quelles données sont partagées et avec qui, en veillant à ce que les données personnelles soient traitées de manière appropriée.
Protection des Données
Le processus de protection des informations importantes contre la corruption, la compromission ou la perte, tout en garantissant la conformité avec les lois et régulations sur la protection des données.
Qualité des Données
La condition des données, basée sur des facteurs tels que l'exactitude, la complétude, la fiabilité et la pertinence, est cruciale pour la performance efficace des modèles d'intelligence artificielle.
Résidence des données
Le lieu physique ou géographique des données d'une organisation, qui peut avoir des implications pour la conformité aux lois sur la protection des données.
Souveraineté des Données
Le concept selon lequel les données sont soumises aux lois et structures de gouvernance du pays où elles sont collectées, stockées ou traitées.
Personne concernée par les données
Une personne dont les données personnelles sont collectées, conservées ou traitées, est particulièrement pertinente dans le contexte des lois sur la protection des données comme le RGPD.
Dé-identification
Le processus de suppression ou de masquage des identifiants personnels des ensembles de données, rendant difficile l'identification des individus, est utilisé pour protéger la confidentialité.
Apprentissage Profond
Un sous-ensemble d'apprentissage automatique impliquant des réseaux neuronaux avec plusieurs couches, permettant de modéliser des schémas complexes dans les données.
Hypertrucage
Médias synthétiques dans lesquels une personne dans une image ou une vidéo existante est remplacée par la ressemblance de quelqu'un d'autre, créée en utilisant des techniques d'apprentissage profond.
Confidentialité Différentielle
Un système pour partager publiquement des informations sur un ensemble de données en décrivant les tendances des groupes au sein de cet ensemble tout en préservant la confidentialité des informations individuelles.
Discrimination
En IA, cela se réfère à un traitement injuste des individus ou des groupes basé sur des biais dans les données ou les algorithmes, conduisant à des résultats inégaux.
Apprentissage Distribué
Une approche d'apprentissage automatique où les données d'entraînement sont réparties sur plusieurs appareils ou emplacements, et les modèles sont formés de manière collaborative sans partager les données brutes.
Adaptation de Domaine
Une technique en apprentissage automatique où un modèle entraîné dans un domaine est adapté pour fonctionner dans un domaine différent mais connexe.
Évaluation Dynamique des Risques
Le processus continu d'identification et d'évaluation des risques en temps réel, permettant des réponses opportunes aux menaces émergentes dans les systèmes d'IA.
Entreprises
IA de pointe
Le déploiement d'algorithmes d'intelligence artificielle sur des dispositifs périphériques, permettant le traitement des données et la prise de décisions à la source de génération des données.
Analyse de pointe
L'analyse des données à la périphérie du réseau, près de la source de génération des données, réduisant la latence et l'utilisation de la bande passante.
Apprentissage Collectif
Un paradigme d'apprentissage automatique où plusieurs modèles sont entraînés et combinés pour résoudre le même problème, améliorant ainsi la performance globale.
Résolution d'Entité
Le processus d'identification et de liaison des enregistrements faisant référence à la même entité du monde réel dans différents ensembles de données.
Enzai
Une plateforme de gouvernance de l'IA d'entreprise qui permet aux organisations de répertorier, d'évaluer et de contrôler leurs systèmes d'IA, assurant une adoption maximale de l'IA tout en minimisant les risques liés à l'IA.
IA Éthique
La pratique de concevoir, développer et déployer des systèmes d'intelligence artificielle d'une manière qui s'aligne sur des principes et valeurs éthiques, garantissant l'équité, la responsabilité et la transparence.
Audit d'IA Éthique
Le processus d'évaluation systématique des systèmes d'IA pour garantir leur conformité aux normes éthiques et éviter tout dommage.
Certification de l'IA Éthique
Une reconnaissance formelle qu'un système d'IA respecte les normes et directives éthiques établies.
Gouvernance Éthique de l'IA
Le cadre des politiques, procédures et pratiques qui garantissent que les systèmes d'IA sont développés et utilisés de manière responsable et éthique.
Cadres éthiques
Ensembles structurés de principes et de lignes directrices conçus pour guider le développement et le déploiement éthique des systèmes d'intelligence artificielle.
Pirate Éthique
La pratique consistant à explorer intentionnellement les systèmes pour en déceler les vulnérabilités afin d'identifier et de corriger les problèmes de sécurité, garantissant ainsi la robustesse des systèmes d'IA.
Évaluation de l'Impact Éthique
Un processus d'évaluation systématique pour identifier et traiter les implications éthiques ainsi que les impacts sociétaux potentiels des systèmes d'IA avant leur déploiement.
Risques éthiques
Le potentiel d'un système d'IA à causer des dommages en raison d'un comportement non éthique, notamment des préjugés, de la discrimination ou de la violation de la vie privée.
Principes Éthiques pour une IA de Confiance
Un ensemble de lignes directrices élaborées par le groupe d'experts de haut niveau sur l'IA de la Commission européenne pour promouvoir une IA digne de confiance, axée sur l'autonomie humaine, la robustesse technique, la confidentialité, la transparence, la diversité, le bien-être sociétal et la responsabilité.
Techniques d'explicabilité
Méthodes utilisées pour interpréter et comprendre les décisions prises par les modèles d'IA, telles que LIME, SHAP et les cartes de saillance.
Explicabilité vs Interprétabilité
Bien que les deux visent à rendre compréhensibles les décisions de l'IA, l'explicabilité se concentre sur le raisonnement derrière les décisions, tandis que l'interprétabilité se rapporte à la transparence des mécaniques internes du modèle.
Intelligence Artificielle Explicable (IAE)
Les systèmes d'IA conçus pour fournir des justifications compréhensibles par l'homme pour leurs décisions et actions, renforçant la transparence et la confiance.
Apprentissage Automatique Explicable
Modèles d'apprentissage automatique conçus pour fournir des explications claires et compréhensibles de leurs prédictions et décisions.
F
Équité
Assurer que les systèmes d'IA produisent des résultats impartiaux et équitables à travers différents individus et groupes, et atténuer les impacts discriminatoires.
Indicateurs d'Équité
Des mesures quantitatives (par exemple, parité démographique, chances égalisées) utilisées pour évaluer la justice des prédictions d'un modèle d'IA à travers différents groupes.
Faux négatif
Lorsqu'un modèle d'IA prédit incorrectement une classe négative pour un cas qui est en réalité positif (Erreur de Type II).
Faux Positif
Lorsqu'un modèle d'IA prédit incorrectement une classe positive pour un cas qui est en réalité négatif (erreur de Type I).
Tolérance aux pannes
La capacité d'un système d'IA à continuer de fonctionner correctement même lorsque certains composants échouent ou produisent des erreurs.
Ingénierie des fonctionnalités
Créer, sélectionner ou transformer des attributs de jeux de données bruts en fonctionnalités qui améliorent la performance des modèles d'apprentissage automatique.
Extraction de fonctionnalités
Le processus de conversion des données brutes (par exemple, texte, images) en représentations numériques (caractéristiques) adaptées à l'entrée dans des algorithmes d'apprentissage automatique.
Sélection de Fonctionnalités
Identifier et sélectionner les fonctionnalités les plus pertinentes pour l'entraînement du modèle afin de réduire la complexité et améliorer la précision.
Apprentissage Fédéré
Une approche de ML décentralisée où les modèles sont entraînés sur plusieurs appareils ou serveurs contenant des données locales, sans partager les données brutes de manière centralisée.
Boucle de Rétroaction
Un processus où les sorties de l'IA sont réintroduites comme entrées, ce qui peut amplifier le comportement du modèle — pour le meilleur (apprentissage par renforcement) ou pour le pire (renforcement des biais).
Ajustement Fin
Adapter un modèle d'IA pré-entraîné à une tâche spécifique ou à un ensemble de données en poursuivant la formation sur de nouvelles données, ce qui améliore souvent les performances spécifiques à la tâche.
Vérification Formelle
Prouver mathématiquement que les algorithmes d'IA respectent les propriétés de correction spécifiées, souvent utilisées dans des systèmes critiques pour la sécurité.
Cadre
Un ensemble structuré de politiques, de processus et d'outils guidant la gouvernance, le développement, le déploiement et la surveillance des systèmes d'IA.
Détection de fraude
Utiliser des techniques d'IA (par exemple, la détection d'anomalies, la reconnaissance de motifs) pour identifier et prévenir les activités frauduleuses dans le domaine de la finance, de l'assurance, etc.
Sécurité Fonctionnelle
Garantir que les systèmes d'IA fonctionnent en toute sécurité dans toutes les conditions, en particulier dans des secteurs tels que l'automobile ou la santé, souvent par le biais de redondances et de vérifications.
Logique floue
Un système de logique qui gère le raisonnement avec des valeurs approximatives, plutôt que des valeurs binaires vraies/faux—utile dans les systèmes de contrôle et la gestion de l'incertitude.
G
RGPD
Le Règlement général sur la protection des données (RGPD) de l'UE, établissant des exigences strictes pour la collecte et le traitement des données personnelles, ainsi que les droits individuels.
processeur graphique
Accélérateur matériel spécialisé pour les calculs parallèles, largement utilisé pour entraîner et exécuter efficacement des modèles d'IA à grande échelle.
Analyse des écarts
Le processus de comparaison des pratiques actuelles de gouvernance de l'IA avec les normes ou réglementations souhaitées afin d'identifier les domaines nécessitant des améliorations.
Généralisation
La capacité d'un modèle d'intelligence artificielle à bien performer sur des données nouvelles et inédites en capturant des motifs sous-jacents plutôt qu'en mémorisant des exemples d'entraînement.
Intelligence Artificielle Générative
Les techniques d'IA (par exemple, GANs, transformers) qui génèrent de nouveaux contenus—texte, images ou autres médias—soulèvent souvent des préoccupations inédites en matière de gouvernance et de propriété intellectuelle.
Modèle Global
Un modèle d'IA consolidé, formé sur des données agrégées provenant de multiples sources, contrairement aux modèles localisés ou personnalisés.
Gouvernance
L'ensemble des politiques, procédures, rôles et responsabilités qui guident le développement et le déploiement éthique, légal et efficace des systèmes d'IA.
Instance de gouvernance
Un groupe interfonctionnel (par exemple, juridique, éthique, technique) chargé de superviser les politiques de gouvernance de l'IA et leur mise en œuvre au sein d'une organisation.
Cadre de Gouvernance
Un modèle structuré décrivant comment les composants de la gouvernance de l'IA (gestion des risques, responsabilité, supervision) s'imbriquent pour garantir la conformité et l'utilisation éthique.
Modèle de Maturité en Gouvernance
Un cadre organisé qui évalue le degré d'avancement des pratiques de gouvernance de l'IA au sein d'une organisation, allant de l'ad-hoc à l'optimisé.
Politique de Gouvernance
Un document formel qui codifie les règles, rôles et procédures pour le développement et la supervision de l'IA au sein d'une organisation.
Tableau de bord de gouvernance
Un tableau de bord ou un rapport qui suit les indicateurs clés (par exemple, incidents de partialité, audits de conformité) pour évaluer l'efficacité de la gouvernance de l'IA au fil du temps.
Descente de Gradient
Un algorithme d'optimisation qui ajuste itérativement les paramètres du modèle dans une direction qui diminue minimalement la fonction de perte.
Consentement Granulaire
Une approche de la protection des données permettant aux individus d'accorder ou de refuser des permissions spécifiques pour chaque type d'utilisation des données, renforçant ainsi la transparence et le contrôle.
IA Verte
La pratique de réduire l'impact environnemental de l'IA grâce à des algorithmes économes en énergie et à des pratiques informatiques durables.
Modèle Boîte Grise
Un modèle dont la logique interne est partiellement transparente (certains composants sont interprétables, d'autres sont opaques), équilibrant performance et explicabilité.
Vérité de terrain
Les données ou étiquettes précises et réelles utilisées comme référence pour entraîner et évaluer les performances des modèles d'IA.
Garde-fous
Contraintes prédéfinies ou vérifications (techniques et politiques) intégrées dans les systèmes d'intelligence artificielle pour prévenir les comportements dangereux ou non conformes pendant l'exécution.
Directive (IA Éthique)
Une recommandation non contraignante ou un document de bonnes pratiques émis par des organisations (par exemple, IEEE, UE) pour orienter le développement et le déploiement responsable de l'IA.
Bonjour
Hallucination
Lorsque l'IA générative produit des informations incorrectes ou fabriquées qui semblent plausibles mais qui n'ont aucun fondement dans les données d'entraînement.
Gestion des données manquantes
Techniques (par exemple, imputation, suppression, modélisation) pour combler les lacunes dans les ensembles de données afin de maintenir l'intégrité et l'équité des modèles.
Accélérateur Matériel
Des puces spécialisées (par exemple, GPU, TPU) conçues pour accélérer les calculs d'IA, avec des implications pour la consommation d'énergie et les risques liés à la chaîne d'approvisionnement.
Évaluation des risques
Évaluer les impacts négatifs potentiels (physiques, psychologiques, sociétaux) des systèmes d'IA et définir des stratégies d'atténuation.
Harmonisation
Aligner les politiques, normes et réglementations sur l'IA à travers les juridictions pour réduire les conflits et favoriser l'interopérabilité.
Hachage
Le processus de conversion des données en une chaîne de caractères de taille fixe, utilisé pour les vérifications d'intégrité des données et le couplage d'enregistrements préservant la confidentialité.
Données Hétérogènes
La combinaison de données de différents types (texte, image, capteur) ou provenant de multiples domaines présente des défis en matière d'intégration et de gouvernance.
Heuristique
Une règle empirique ou une stratégie simplifiée de prise de décision utilisée pour accélérer les processus d'IA, échangeant souvent l'optimalité pour l'efficacité.
Évaluation heuristique
Une méthode d'inspection de l'utilisabilité où des experts évaluent un système d'IA par rapport à des principes d'utilisabilité établis afin d'identifier les problèmes potentiels.
IA à enjeux élevés
Les applications d'IA dont les défaillances pourraient causer des préjudices significatifs (par exemple, les diagnostics médicaux, les véhicules autonomes), nécessitant une gouvernance et une supervision accrues.
Supervision Humaine
Des mécanismes permettant à des individus désignés de surveiller, intervenir ou remplacer les décisions des systèmes d'IA afin d'assurer le respect des normes éthiques et légales.
Évaluation de l'impact sur les droits de l'homme
Un processus d'évaluation de l'impact des systèmes d'IA sur les droits fondamentaux (vie privée, expression, non-discrimination) et d'identification des mesures d'atténuation.
Humain dans le processus
Impliquer le jugement humain dans les processus d'IA (entraînement, validation, révision des décisions) pour améliorer la précision et la responsabilité.
Modèle Hybride
Les systèmes d'IA alliant plusieurs paradigmes d'apprentissage (par exemple, symbolique et neuronal) pour équilibrer l'explicabilité et la performance.
Hyperparamètre
Une variable de configuration (par exemple, taux d'apprentissage, profondeur d'arbre) définie avant l'entraînement du modèle qui influence le comportement d'apprentissage et les performances.
Optimisation des hyperparamètres
Le processus de recherche des valeurs optimales des hyperparamètres (par exemple, via une recherche en grille, l'optimisation bayésienne) pour maximiser la performance du modèle.
Je
ISO/IEC JTC 1/SC 42
Le comité conjoint ISO/IEC sur la normalisation de l'intelligence artificielle, développe des normes internationales d'IA pour la gouvernance, la gestion des risques et l'interopérabilité.
Données Déséquilibrées
Un ensemble de données dans lequel une classe ou catégorie dépasse significativement les autres, ce qui peut amener les modèles d'IA à privilégier la classe majoritaire, sauf en cas de mesures d'atténuation.
Registre Immuable
Un mécanisme de tenue de registres à l'épreuve des altérations (par exemple, la blockchain) qui garantit qu'une fois les données enregistrées, elles ne peuvent pas être modifiées sans être détectées, ce qui est utile pour les pistes d'audit de l'IA.
Évaluation d'Impact
Une évaluation structurée pour identifier, analyser et atténuer les impacts potentiels éthiques, juridiques et sociétaux d'un système d'IA avant son déploiement.
Biais Implicite
Les biais inconscients ou involontaires intégrés dans les données de formation ou la conception du modèle peuvent conduire à des résultats discriminatoires.
Alignement des incitations
La conception des structures de récompense et des objectifs afin que les buts des systèmes d'IA restent en adéquation avec les valeurs humaines et les priorités organisationnelles.
Biais Inductif
L'ensemble des hypothèses qu'un algorithme d'apprentissage utilise pour généraliser des données observées à des instances non vues.
Inférence
Le processus par lequel un modèle d'IA formé traite de nouvelles entrées de données pour produire des prédictions ou des décisions.
Moteur d'Inférence
Le composant d'un système d'intelligence artificielle (souvent dans des systèmes basés sur des règles ou des systèmes experts) qui applique une base de connaissances aux données d'entrée pour en tirer des conclusions.
Gouvernance de l'information
Les politiques, procédures et contrôles qui garantissent la qualité, la confidentialité et l'utilisabilité des données à travers les actifs de données d'une organisation, y compris les ensembles de données d'entraînement de l'IA.
Confidentialité de l'information
Le droit des individus de contrôler comment leurs données personnelles sont collectées, utilisées, stockées et partagées par les systèmes d'IA.
Infrastructure en tant que Code (IaC)
Gérer et provisionner l'infrastructure d'IA (calcul, stockage, réseau) par le biais de fichiers de configuration lisibles par machine, améliorant ainsi la reproductibilité et l'auditabilité.
Interopérabilité
La capacité des divers systèmes et composants d'IA à échanger, comprendre et utiliser des informations de manière transparente, souvent via des normes ouvertes ou des API.
Interprétabilité
Le degré auquel un être humain peut comprendre les mécanismes internes ou la logique décisionnelle d'un modèle d'IA.
Détection d'Intrusion
Surveillance de l'infrastructure et des applications d'intelligence artificielle afin de détecter toute activité malveillante ou tout manquement aux politiques, avec déclenchement d'alertes ou de réponses automatisées.
J
Matrice Jacobienne
En termes d'explicabilité de l'IA, la matrice de toutes les dérivées partielles d'ordre un des sorties d'un modèle par rapport à ses entrées, utilisée pour évaluer la sensibilité et l'importance des caractéristiques.
Attaque de Jailbreak
Un type d'injection de commande où les utilisateurs exploitent des vulnérabilités pour contourner les protections dans les modèles d'IA générative, ce qui peut potentiellement conduire à des résultats non sécurisés ou non autorisés.
Responsabilité Conjointe
Principe juridique selon lequel plusieurs parties (par exemple, développeurs, déployeurs) partagent la responsabilité des préjudices liés à l'IA, influençant les structures contractuelles et de gouvernance.
Modélisation Conjointe
Créer des systèmes d'IA qui apprennent conjointement plusieurs tâches (par exemple, reconnaissance vocale et traduction), avec une gouvernance nécessaire pour la complexité et l'auditabilité.
Biais de Jugement
Erreurs systématiques dans les processus de prise de décision humains ou d'IA causées par des raccourcis cognitifs ou des données erronées, nécessitant des audits et une atténuation des biais.
Révision Judiciaire
Le processus légal par lequel les tribunaux évaluent la légalité des décisions prises ou assistées par l'IA, garantissant la responsabilité et le respect des procédures.
Juridiction
L'autorité légale sur les données, les opérations liées à l'intelligence artificielle et la responsabilité, qui varie selon la géographie et impacte la conformité aux réglementations régionales (par exemple, RGPD, CCPA).
Automatisation du Jury
L'utilisation de l'IA pour aider à la sélection du jury ou à l'analyse des dossiers soulève des préoccupations éthiques concernant l'équité, la transparence et la supervision juridique.
Métriques de la Justice
Mesures quantitatives (par exemple, impact disparate, égalité des chances) utilisées pour évaluer l'équité et la non-discrimination dans la prise de décision par l'IA.
K
Indicateur Clé de Performance
Une métrique quantifiable (par exemple, la dérive de précision du modèle, le temps de correction des biais) utilisée pour surveiller et rendre compte des objectifs de gouvernance et de conformité de l'IA.
Indicateur Clé de Risque
Un indicateur clé (par exemple, la fréquence des prédictions hors cadre, le taux de décisions inexplicables) qui signale les risques émergents liés à l'IA avant qu'ils ne se concrétisent.
Connaître Votre Client (KYC)
Les processus de conformité pour vérifier l'identité, le profil de risque et la légitimité des individus ou des entités interagissant avec les systèmes d'IA, en particulier dans les industries réglementées.
Distillation des connaissances
Une méthode de transfert des connaissances d'un modèle « enseignant » plus grand vers un modèle « étudiant » plus petit, équilibrant la performance avec les contraintes de ressources et de gouvernance.
Graph de Connaissances
Une représentation structurée des entités et de leurs relations utilisée pour améliorer l'explicabilité de l'IA, l'auditabilité et l'alignement avec les ontologies de domaine.
Gestion des connaissances
Pratiques et outils pour capturer, organiser et partager les connaissances organisationnelles (par exemple, la documentation des modèles, les journaux d'audit) afin d'assurer la reproductibilité et la supervision.
L'entreprise
Fuite d'Étiquettes
L'inclusion involontaire d'informations de sortie dans les étiquettes des données d'entraînement, pouvant gonfler les indicateurs de performance et masquer les véritables problèmes de généralisation du modèle.
Modèle de Langage de Grande Envergure
Un modèle d'apprentissage profond entraîné sur de vastes corpus de texte, capable de réaliser des tâches telles que la génération de texte, la traduction et la synthèse, nécessitant souvent une gouvernance pour éviter les biais et les abus.
Moindre Privilège
Un principe de sécurité selon lequel les composants d'IA et les utilisateurs ne reçoivent que les droits d'accès minimaux nécessaires pour exécuter leurs fonctions, réduisant ainsi le risque d'utilisation abusive.
Conformité Légale
La pratique de garantir que les systèmes d'IA respectent les lois, règlements et normes industrielles applicables tout au long de leur cycle de vie.
Cadre de Responsabilité
Une approche structurée définissant qui est responsable des préjudices ou des échecs liés à l'IA, y compris les développeurs, les déployeurs et les opérateurs.
Gestion du Cycle de Vie
Les processus coordonnés pour le développement, le déploiement, la surveillance, la maintenance et le retrait des systèmes d'IA afin de garantir la conformité continue et le contrôle des risques.
Détection de vitalité
Techniques utilisées pour vérifier qu'une entrée (par exemple, biométrique) provient d'un sujet vivant plutôt que d'une fraude ou d'une répétition, renforçant ainsi la sécurité et l'intégrité du système.
Localisation
Adaptation des systèmes d'IA aux langues locales, aux réglementations, aux normes culturelles et aux exigences de résidence des données dans différentes juridictions.
Gestion des journaux
La collecte, le stockage et l'analyse des journaux de système et d'application issus des workflows d'IA pour soutenir l'audit, la gestion des incidents et le suivi des performances des modèles.
Fonction de Perte
Une fonction mathématique qui quantifie la différence entre les résultats prévus et les valeurs réelles, guidant ainsi la formation et l'optimisation du modèle.
M
Contrôle Humain Significatif
Une norme réglementaire et opérationnelle garantissant que les humains conservent la capacité de superviser, d'intervenir et de contrecarrer les processus décisionnels de l'IA.
Gestion des métadonnées
La pratique de capture et de maintien de données descriptives (par exemple, provenance des données, définitions des fonctionnalités, paramètres de modèle) pour soutenir la traçabilité et les audits.
Mesures et indicateurs clés de performance
Des mesures quantitatives (par exemple, dérive de précision, scores d'équité, temps de réponse aux incidents) utilisées pour surveiller la santé, les risques et les objectifs de conformité des systèmes d'IA.
Stratégies d'atténuation
Actions prévues (par exemple, la correction des biais, la reformation, la réingénierie des fonctionnalités) pour traiter les risques d'IA identifiés et les lacunes en matière de conformité.
Explicabilité du Modèle
Techniques et documentation qui rendent la logique décisionnelle d'un modèle d'IA compréhensible pour les parties prenantes et les auditeurs.
Gouvernance du Modèle
Les politiques, rôles et contrôles qui garantissent que les modèles d'IA sont développés, approuvés et utilisés conformément aux normes organisationnelles et aux exigences réglementaires.
Surveillance du Modèle
Suivi continu des performances d'un modèle d'IA, des dérives de données et des indicateurs opérationnels pour détecter toute dégradation ou nouveaux risques potentiels.
Réentraînement du Modèle
Le processus de mise à jour d’un modèle d'IA avec des données nouvelles ou actualisées pour maintenir la performance et la conformité à mesure que les distributions de données évoluent.
Gestion des risques du modèle
Le processus structuré d'identification, d'évaluation et de réduction des risques découlant des modèles IA/ML tout au long de leur cycle de vie.
Validation du modèle
Les activités d'évaluation (par exemple, tests sur des données de validation, scénarios de stress) qui confirment qu'un modèle d'IA répond à son objectif et à ses critères de performance.
Engagement Multi-Intervenants
Impliquer divers groupes (par exemple, juridique, éthique, opérations, utilisateurs finaux) dans les processus de gouvernance de l'intelligence artificielle pour garantir une supervision équilibrée des risques et une alignement avec les objectifs commerciaux.
Non
Cadre de Gestion des Risques de l'IA de NIST
Une orientation volontaire de l'Institut National des Standards et de la Technologie des États-Unis décrivant les meilleures pratiques pour atténuer les risques tout au long des cycles de vie des systèmes d'intelligence artificielle.
Traitement Automatique du Langage Naturel (TALN)
Techniques et outils qui permettent aux machines d'interpréter, de générer et d'analyser le langage humain sous forme de texte ou de parole.
Sécurité du Réseau
Mesures et contrôles (par exemple, segmentation, pare-feu, détection d'intrusion) pour protéger l'infrastructure de l'IA et les pipelines de données contre l'accès non autorisé ou la falsification.
Recherche d'Architecture Neurale
Méthodes automatisées pour concevoir et optimiser les structures de réseaux neuronaux afin d'améliorer la performance des modèles tout en équilibrant la complexité et les contraintes de ressources.
Injection de bruit
Introduction délibérée de perturbations aléatoires dans les données d'entraînement ou les paramètres du modèle afin d'améliorer la robustesse et de se protéger contre la manipulation malveillante.
Détection de Nouveautés
Techniques pour identifier les entrées ou scénarios qui diffèrent significativement des données d'entraînement, déclenchant une révision ou un mode de fonctionnement sécurisé afin de prévenir des défaillances inattendues.
O
Observabilité
La capacité de déduire l'état interne et le comportement d'un système d'IA par la collecte et l'analyse des journaux, des métriques et des résultats pour un suivi et un dépannage efficaces.
Surveillance Continue
Suivi continu des performances des systèmes d'IA, de la dérive des données, des métriques de biais et des événements de sécurité afin de détecter et traiter les risques émergents au fil du temps.
Opacité
L'absence de transparence dans la manière dont un modèle d'IA parvient à des décisions ou à des prédictions pose des défis en termes de confiance et de conformité réglementaire.
Résilience Opérationnelle
La capacité des systèmes d'intelligence artificielle et de leur infrastructure de soutien à anticiper, résister, se rétablir et s'adapter aux perturbations ou aux événements défavorables.
Orchestration
La coordination automatisée des flux de travail et des services d'IA—l'ingestion de données, la formation des modèles, le déploiement—assurant la conformité avec les politiques et la gouvernance des ressources.
Détection des valeurs aberrantes
Techniques pour identifier les points de données ou les prédictions modélisées qui s'écartent significativement des schémas attendus, déclenchant ainsi des actions de révision ou de mitigation.
Surapprentissage
Un problème de modélisation où un système d'IA apprend le bruit ou les particularités des données d'entraînement, réduisant ainsi sa capacité à généraliser à de nouvelles données non vues.
Supervision
Le processus structuré d'examen, d'approbation et de responsabilité pour le développement et le déploiement de l'IA, impliquant généralement des instances de gouvernance interfonctionnelles.
Propriété
La répartition claire des responsabilités et de l'autorité concernant les actifs IA—données, modèles, processus—pour garantir la responsabilité tout au long du cycle de vie du système.
P
Autorisation
La gestion des droits d'accès des utilisateurs et des systèmes aux données et fonctions de l'IA, garantissant le principe du moindre privilège et empêchant toute utilisation non autorisée.
Essai Pilote
Un essai à portée limitée d'un système d'IA dans un environnement contrôlé pour évaluer les performances, les risques et les contrôles de gouvernance avant le déploiement à grande échelle.
Mise en Application des Politiques
Les mécanismes automatisés ou manuels qui garantissent que les opérations d'IA respectent les politiques organisationnelles, les réglementations et les lignes directrices éthiques.
Surveillance post-déploiement
Observation continue du comportement du système d'IA et de l'environnement après le déploiement afin de détecter toute dégradation, dérive ou violation de conformité.
Maintenance Prédictive
Surveillance et analyse pilotées par l'IA pour prévoir les défaillances des composants ou des systèmes, assurant ainsi la résilience opérationnelle et la réduction des risques dans des environnements critiques.
Évaluation de l'impact sur la vie privée
Une analyse structurée pour identifier et atténuer les risques de confidentialité associés aux systèmes d'IA, couvrant la collecte, l'utilisation, le partage et la conservation des données.
Confidentialité dès la Conception
Une approche qui intègre la protection des données et les considérations de la vie privée des utilisateurs dans l'architecture et les processus des systèmes d'intelligence artificielle dès le départ.
Automatisation des Processus
Utilisation de l'IA et des outils de gestion des flux de travail pour rationaliser la gouvernance, les contrôles de conformité et les activités de réduction des risques, réduisant ainsi les efforts manuels et les erreurs.
Q
Évaluation Qualitative
L'évaluation subjective des comportements, des décisions et de la documentation des systèmes d'IA par des experts, visant à identifier les préoccupations éthiques, juridiques ou réputationnelles qui ne sont pas quantifiées.
Assurance Qualité
Les processus systématiques et les vérifications visant à garantir que les modèles d'IA et les flux de données répondent aux normes définies en termes de précision, de fiabilité et de conformité éthique.
Contrôle de Qualité
La vérification continue des résultats et des processus d'IA par rapport aux référentiels et aux cas de test, afin de détecter les défauts, les incidents de biais ou les violations de politique.
Évaluation Quantitative des Risques
Une évaluation fondée sur les données des menaces potentielles de l'IA, estimant les probabilités et les impacts de manière numérique afin de prioriser les efforts d'atténuation.
Calcul Quantique
Le paradigme computationnel émergent qui exploite la mécanique quantique pose de nouveaux défis de gouvernance en matière de sécurité, de standardisation et de gestion des risques.
Enregistrement des Requêtes
La pratique d'enregistrer les entrées du système d'IA et les requêtes des utilisateurs pour permettre des pistes d'audit, détecter les abus et soutenir la responsabilité.
Confidentialité des Requêtes
Techniques et politiques visant à protéger les informations sensibles dans les requêtes des utilisateurs, garantissant que les entrées enregistrées ne compromettent pas les données personnelles ou propriétaires.
Cadre de Questionnaire
Un ensemble structuré de questions axées sur la gouvernance utilisé lors de la conception, de l'acquisition ou du déploiement pour garantir que les systèmes d'IA sont conformes aux exigences réglementaires.
Quorum pour le Conseil de Gouvernance
Le nombre minimum de membres du comité de gouvernance requis pour être présents afin de prendre des décisions officielles concernant les risques liés à l'IA, les approbations de politiques ou les résultats d'audit.
Gestion des quotas
Les contrôles et limites imposés à l'utilisation des ressources d'IA (par exemple, appels API, temps de calcul) afin de appliquer les politiques de gouvernance et prévenir les coûts excessifs ou les abus.
R
Recours
Mécanismes permettant aux individus concernés de contester ou de demander un recours pour des décisions prises par l'IA qui affectent leurs droits ou leurs intérêts.
Équipe Rouge
Une approche proactive de test où des experts internes ou externes simulent des attaques ou des scénarios d'utilisation abusive afin de découvrir les vulnérabilités des systèmes d'intelligence artificielle.
Conformité Réglementaire
Garantir que les systèmes d'IA respectent les lois, réglementations et normes industrielles applicables (par exemple, RGPD, FDA, surveillance financière) tout au long de leur fonctionnement.
Reproductibilité
La capacité de régénérer systématiquement les résultats des modèles d'IA en utilisant les mêmes données, code et configurations, garantissant ainsi la transparence et l'auditabilité.
Matrice d'Attribution des Responsabilités
Un outil (par exemple, RACI) qui clarifie les rôles et les responsabilités pour chaque activité de gouvernance—qui est Responsable, Comptable, Consulté et Informé.
Intelligence Artificielle Responsable
La pratique de concevoir, développer et déployer des systèmes d'IA de manière éthique, transparente et responsable envers les parties prenantes et la société.
Évaluation des Risques
Le processus d'identification, d'analyse et de hiérarchisation des dommages ou défaillances potentiels dans les systèmes d'IA afin de déterminer les stratégies d'atténuation appropriées.
Cadre de Gestion des Risques
Un ensemble structuré de directives et de processus pour aborder systématiquement les risques liés à l'IA tout au long du cycle de vie du système, de la conception à la mise au rebut.
Robustesse
La capacité d'un système d'intelligence artificielle à maintenir une performance fiable dans une variété de conditions difficiles ou adverses.
Analyse des Causes Racines
Une enquête structurée visant à déterminer les raisons sous-jacentes des défaillances ou des comportements inattendus des systèmes d'IA, guidant les actions correctives.
S
Politique d'Utilisation Sanctionnée
Des règles et contrôles définis spécifiant les contextes, les utilisateurs et les objectifs approuvés pour le fonctionnement des systèmes d'intelligence artificielle afin de prévenir tout usage abusif.
Sécurité par Conception
Intégrer des contrôles de sécurité et des pratiques exemplaires dans les systèmes d'IA dès les premières phases de conception pour prévenir les vulnérabilités et les violations de données.
Intelligence Artificielle de l'Ombre
L'utilisation non autorisée de modèles d'IA, d'agents ou d'outils par les employés sans l'approbation du service informatique crée des vulnérabilités de sécurité cachées dues à des fuites de données et à des actions autonomes non autorisées.
Évaluation de l'Impact Sociétal
Une évaluation structurée de l'impact d'un système d'IA sur les aspects sociaux, économiques et culturels des communautés, identifiant les dommages potentiels et les avantages.
Cycle de vie du développement logiciel
Le processus de bout en bout (exigences, conception, construction, test, déploiement, surveillance) pour les applications d'IA, intégrant des vérifications de gouvernance et de conformité à chaque étape.
Engagement des parties prenantes
Le processus d'implication des parties affectées (par exemple, utilisateurs, régulateurs, communautés concernées) dans le développement et la supervision de l'IA afin de garantir des perspectives variées et leur approbation.
Risque de Surveillance
La menace que les systèmes d'IA puissent être exploités pour une surveillance intrusive des individus ou des groupes, portant atteinte à la vie privée et aux libertés civiles.
Données Synthétiques
Jeux de données générés artificiellement qui imitent les distributions de données réelles, utilisés pour augmenter les ensembles d'entraînement tout en protégeant la confidentialité.
T
Risque de queue
Le potentiel de résultats rares et extrêmes dans le comportement ou la prise de décision de l'IA qui dépassent les attentes normales et nécessitent une planification spéciale d'atténuation.
Test et Validation
Le processus systématique d'évaluation des modèles d'IA par rapport à des références, des cas limites et des conditions de stress pour garantir qu'ils répondent aux critères de performance, de sécurité et de conformité.
Risque lié aux tiers
L'exposition résultant de la dépendance envers des fournisseurs de données externes, des vendeurs de modèles ou des plateformes de services qui pourraient introduire des vulnérabilités de conformité ou de sécurité.
Paramétrage du Seuil
Définir des limites ou des valeurs seuil dans les règles de décision de l'IA (par exemple, les scores de confiance) afin de trouver un équilibre entre les risques tels que les faux positifs et les faux négatifs.
Traçabilité
La capacité de suivre et de documenter chaque étape du cycle de vie de l'IA, depuis la collecte de données jusqu'au développement du modèle et son déploiement, afin de soutenir l'audit et la criminalistique.
Ensemble de données de formation
La collection soigneusement sélectionnée de données annotées ou non annotées utilisée pour enseigner à un modèle d'intelligence artificielle les relations et les modèles qu'il doit apprendre pour accomplir sa tâche.
Apprentissage par Transfert
Une technique où un modèle développé pour une tâche est adapté à une tâche connexe, réduisant ainsi le temps de développement, mais nécessitant la gouvernance des biais hérités.
Transparence
La pratique consistant à rendre les processus des systèmes d'IA, la logique de décision, et l'utilisation des données clairs et compréhensibles pour les parties prenantes afin d'assurer la responsabilité.
IA fiable
Des systèmes d'IA conçus et exploités de manière éthique, fiable, sûre et en adéquation avec les valeurs humaines et les normes sociétales.
Vous
Sous-ajustement
Un problème de modélisation où un système d'IA est trop simpliste pour saisir les motifs sous-jacents des données, entraînant des performances médiocres tant sur les données d'entraînement que sur les nouvelles données.
Uniformité
Assurer une application cohérente des politiques, contrôles et normes à travers tous les systèmes d'IA pour éviter les lacunes de gouvernance ou une gestion des risques inégale.
Apprentissage Non Supervisé
Une approche d'apprentissage automatique où les modèles identifient des motifs ou des regroupements dans des données non étiquetées sans orientation explicite sur les résultats.
Surveillance de la disponibilité
Suivi continu de la disponibilité et des performances des systèmes d'IA pour détecter les pannes ou les dégradations pouvant affecter les opérations critiques ou les obligations de conformité.
Gouvernance des Cas d'Utilisation
La pratique de définir, approuver et surveiller des cas d'utilisation spécifiques de l'IA pour s'assurer que chacun est conforme aux politiques organisationnelles, aux normes éthiques et à l'appétit pour le risque.
Consentement de l'utilisateur
Le processus d'obtention et d'enregistrement d'une autorisation explicite de la part des individus avant de collecter, traiter ou utiliser leurs données personnelles dans des systèmes d'IA.
Utilité
Une mesure de la valeur ou de l'efficacité d'un système d'IA à atteindre ses objectifs visés, équilibrée par rapport aux risques ou aux coûts en ressources associés.
V
Validation
Le processus de confirmation qu'un modèle d'intelligence artificielle fonctionne de manière précise et fiable sur les tâches prévues et répond aux critères de performance définis.
Surveillance des Variances
Suivi des fluctuations des sorties des modèles d'IA ou des indicateurs de performance au fil du temps pour détecter les dérives et en déduire une éventuelle dégradation ou un risque.
Gestion des Risques Fournisseurs
Évaluer et surveiller les fournisseurs tiers de composants ou services d'IA pour identifier et atténuer les risques potentiels de conformité, de sécurité ou d'éthique.
Contrôle de Version
La pratique de la gestion et du suivi des modifications du code de l'IA, des modèles et des ensembles de données au fil du temps pour garantir la reproductibilité et l'auditabilité.
Autorité de Veto
Le droit formel détenu par un organe de gouvernance ou un intervenant pour bloquer ou exiger des modifications des déploiements d'IA présentant des risques inacceptables.
Surveillance de la Vigilance
Surveillance continue du comportement de l'IA et des signaux externes (par exemple, les mises à jour réglementaires) afin d'identifier et de répondre rapidement aux risques émergents ou aux non-conformités.
Surveillance IA Vision
Les processus de gouvernance spécifiques aux systèmes de vision par ordinateur, garantissant la qualité des données, les vérifications des biais et la transparence dans la prise de décision basée sur des images et des vidéos.
Évaluation des vulnérabilités
Identifier, analyser et prioriser les faiblesses de sécurité dans l'infrastructure et les applications d'IA afin de guider les efforts de remédiation.
W
Surveillance Surveillance
Contrôles d'exécution indépendants qui observent les décisions de l'IA et déclenchent des alertes ou des interventions lorsque des politiques ou des seuils sont enfreints.
Audit de Poids
Examiner les poids et les structures des modèles pour détecter des anomalies, des portes dérobées ou des biais pouvant indiquer une altération ou des comportements non souhaités.
Testage en boîte blanche
Évaluer les systèmes d'IA avec une pleine connaissance du fonctionnement interne (code, paramètres, architecture) pour vérifier l'exactitude, la sécurité et la conformité.
Politique de liste blanche/liste noire
Règle de gouvernance définissant les entrées, caractéristiques ou opérations autorisées (liste blanche) et interdites (liste noire) afin d'assurer la conformité et de prévenir tout abus.
Mise en liste blanche
Autoriser uniquement des sources de données, des bibliothèques ou des composants de modèle pré-approuvés dans les processus d'IA afin de réduire les risques liés à des éléments non vérifiés ou malveillants.
Orchestration des flux de travail
Automatisation et séquençage des tâches du cycle de vie de l'IA (ingestion de données, formation, validation, déploiement) pour appliquer les politiques de gouvernance et garantir la cohérence.
Segmentation des charges de travail
Séparer les environnements de calcul IA (par exemple, développement, test, production) et les domaines de données afin de limiter l'impact des pannes ou des violations de sécurité.
Analyse du pire des cas
Évaluer les échecs ou abus potentiels les plus extrêmes d'un système d'IA afin d'informer une atténuation des risques et une planification de contingence robustes.
Stockage WORM (Write-Once Read-Many)
Stockage immuable garantissant que les journaux, pistes d'audit et artefacts de modèles ne peuvent pas être modifiés une fois écrits, soutenant ainsi la non-répudiation et l'examen médico-légal.
X
X-Validation
Une technique de validation de modèle (souvent abrégée « X-Val ») qui partitionne les données en segments afin d'évaluer rigoureusement la généralisation du modèle et de détecter les surapprentissages.
XAI (IA Explicable)
Techniques et méthodes qui rendent le processus de décision d'un modèle d'IA transparent et compréhensible pour les humains, favorisant ainsi la responsabilité et la conformité.
Audit XAI
Un processus de révision qui évalue si les résultats de l'explicabilité de l'IA satisfont aux politiques internes et aux exigences réglementaires, garantissant une transparence suffisante.
Cadre XAI
Une approche structurée ou un ensemble de directives qu'organisations utilisent pour mettre en œuvre, mesurer et régir les pratiques d'explicabilité au sein de leurs systèmes d'IA.
Métriques XAI
Mesures quantitatives ou qualitatives (par exemple, scores d'importance des fonctionnalités, fidélité des explications) utilisées pour évaluer la qualité et la fiabilité des explications d'IA.
Oui
Règles YARA
Un ensemble de modèles de détection basés sur des signatures utilisés pour analyser les pipelines et les artefacts d'IA afin de détecter des codes malveillants connus ou des altérations.
Revue Annuelle de Conformité
Une évaluation annuelle des processus, des politiques et des systèmes de gouvernance de l'IA pour garantir une conformité continue aux réglementations et aux normes internes.
Z
Tolérance Zéro Défaut
Un principe de gouvernance visant l'absence d'erreurs ou de violations de politique dans les résultats de l'IA, soutenu par des cycles rigoureux de test, de surveillance et d'amélioration continue.
Vulnérabilité Zéro Jour
Une faille de sécurité précédemment inconnue dans le logiciel ou l'infrastructure d'IA qui peut être exploitée avant qu'un correctif ou une atténuation ne soit disponible.
Apprentissage sans supervision
Une capacité modèle pour gérer correctement les tâches ou classer les données sur lesquelles il n'a jamais été explicitement formé en utilisant des représentations de connaissances généralisées.
Contrôle d'accès par zone
Une approche de gouvernance réseau ou de données qui divise les ressources en zones avec des politiques distinctes, restreignant l'accès des systèmes d'IA en fonction de la sensibilité des données.
Livre blanc
Tous
Réglementations sur l'IA
Balados
Mises à jour du produit
Couverture Médiatique
Glossaire
A
Responsabilité de l'IA
L'obligation des développeurs et opérateurs de systèmes d'IA d'assurer que leurs systèmes sont conçus et utilisés de manière responsable, en respectant les normes éthiques et les exigences légales.
Alignement de l'IA
Le processus consistant à garantir que les objectifs et les comportements des systèmes d'IA sont alignés avec les valeurs et les intentions humaines.
Audit IA
L'évaluation systématique des systèmes d'IA pour vérifier la conformité aux normes éthiques, aux règlements et aux indicateurs de performance.
Biais de l'IA
Erreurs systématiques dans les sorties d'IA résultant de données d'entraînement biaisées ou d'algorithmes défectueux, conduisant à des résultats inéquitables.
Conformité IA
L'adhésion des systèmes d'IA aux lois, réglementations et directives éthiques applicables tout au long de leur cycle de vie.
Éthique de l'IA
Le domaine concerné par les implications morales et les responsabilités liées au développement et au déploiement des technologies d'IA.
Explicabilité de l'IA
Le degré auquel la mécanique interne d'un système d'IA peut être comprise et interprétée par les humains.
Gouvernance de l'IA
Le cadre des politiques, processus et contrôles qui guident le développement et l'utilisation éthiques et efficaces des systèmes d'IA.
Inventaire IA
Un catalogue complet et centralisé de tous les systèmes d'IA, modèles et agents utilisés dans toute l'organisation, permettant de suivre leur objectif commercial, leur niveau de risque et leur propriétaire.
Culture de l'IA
La compréhension des concepts, des capacités et des limitations de l'IA, permettant une interaction éclairée avec les technologies de l'IA.
Surveillance de l'IA
L'observation et l'analyse continues des performances des systèmes d'IA afin de garantir la fiabilité, la sécurité et la conformité.
Risque lié à l'IA
Le potentiel des systèmes d'intelligence artificielle à causer des préjudices ou des conséquences imprévues, y compris les risques éthiques, juridiques et opérationnels.
Gestion des Risques liés à l'IA
Le processus d'identification, d'évaluation et d'atténuation des risques associés aux systèmes d'IA.
TRiSM IA
Un acronyme inventé par Gartner signifiant Gestion de la Confiance, des Risques et de la Sécurité de l'IA ; un cadre qui unifie la gouvernance, la fiabilité et la sécurité en une seule stratégie opérationnelle.
Transparence de l'IA
Le principe selon lequel les systèmes d'IA doivent être ouverts et clairs quant à leurs opérations, décisions et utilisation des données.
Précision
Le degré auquel les résultats d'un système d'IA reflètent correctement les données du monde réel ou les résultats escomptés.
Attaque Adversariale
Techniques qui manipulent les modèles d'IA en introduisant des entrées trompeuses pour provoquer des résultats incorrects.
Agentic IA
Une catégorie de systèmes d'intelligence artificielle conçus pour atteindre de manière autonome des objectifs complexes et exécuter des actions à multiples étapes (telles que le déploiement de logiciels ou les transactions financières) avec une intervention humaine minimale.
Gouvernance d'IA Agentic
La gouvernance des systèmes d'IA autonomes capables d'exécuter des actions indépendantes (par exemple, des transactions, le déploiement de code) se distingue de l'IA prédictive (qui fournit des insights) et de l'IA générative (qui crée du contenu).
Algorithme
Un ensemble de règles ou d'instructions donné à un système d'IA pour l'aider à apprendre de manière autonome.
Biais Algorithmique
Un biais qui survient lorsqu'un algorithme produit des résultats systématiquement biaisés en raison d'hypothèses erronées dans le processus d'apprentissage automatique.
Gouvernance Algorithmique
L'utilisation d'algorithmes pour gérer et réguler les fonctions sociétales, pouvant potentiellement influencer les processus de prise de décision.
Intelligence Artificielle Générale
Un type d'intelligence artificielle qui possède la capacité de comprendre, d'apprendre et d'appliquer des connaissances de manière générale, similaire à l'intelligence humaine.
Intelligence Artificielle
La simulation des processus d'intelligence humaine par des machines, en particulier les systèmes informatiques, y compris l'apprentissage, le raisonnement et l'auto-correction.
B
Rétropropagation
Un algorithme d'apprentissage utilisé dans les réseaux de neurones qui ajuste les poids en propageant les erreurs à rebours depuis la couche de sortie afin de minimiser la perte.
Apprentissage par lot
Une approche d'apprentissage automatique où le modèle est entraîné sur l'ensemble du jeu de données en une seule fois, par opposition à l'apprentissage incrémental.
Évaluation comparative
Le processus de comparaison des performances des systèmes d'IA avec des métriques standard ou d'autres systèmes pour évaluer l'efficacité.
Préjugé
Erreurs systématiques dans les sorties d'IA résultant de données d'entraînement biaisées ou d'algorithmes défectueux, conduisant à des résultats inéquitables.
Amplification des biais
Le phénomène où les systèmes d'IA exacerbent les biais existants présents dans les données d'entraînement, conduisant à des résultats de plus en plus biaisés.
Audit de Biais
Un processus d'évaluation pour détecter et atténuer les biais dans les systèmes d'IA, garantissant l'équité et la conformité avec les normes éthiques.
Détection des Biais
Le processus d'identification des biais dans les modèles d'IA en analysant leurs résultats et leurs processus de prise de décision.
Atténuation des biais
Techniques appliquées lors du développement de l'IA pour réduire ou éliminer les biais dans les modèles et les ensembles de données.
Modèle Boîte Noire
Un système d'IA dont le fonctionnement interne n'est ni transparent ni interprétable, rendant difficile la compréhension du processus de prise de décision.
Robot
Une application logicielle qui exécute des tâches automatisées, souvent utilisée dans le domaine de l'intelligence artificielle pour des tâches telles que le service client ou la collecte de données.
C
Inférence Causale
Une méthode en intelligence artificielle et en statistiques utilisée pour déterminer les relations de cause à effet, aidant à comprendre l'impact des interventions ou des modifications des variables.
Assistant conversationnel
Une application logicielle alimentée par l'IA, conçue pour simuler une conversation humaine, souvent utilisée dans le service client et l'acquisition d'informations.
Classification
Une technique d'apprentissage supervisé en apprentissage automatique où le modèle prédit la catégorie ou l'étiquette de classe des nouvelles observations en se basant sur des données d'entraînement.
Biais Cognitif
Des schémas systématiques de déviation par rapport à la norme ou à la rationalité dans le jugement, qui peuvent influencer la prise de décision de l'IA s'ils sont présents dans les données d'entraînement.
Informatique cognitive
Un sous-ensemble de l'intelligence artificielle qui simule les processus de pensée humaine dans un modèle informatisé, visant à résoudre des problèmes complexes sans assistance humaine.
Charge cognitive
La quantité totale d'effort mental utilisée dans la mémoire de travail, est prise en compte en IA pour concevoir des systèmes qui ne submergent pas les utilisateurs.
Cadre de Conformité
Un ensemble structuré de directives et de meilleures pratiques que les organisations suivent pour garantir que leurs systèmes d'IA respectent les normes réglementaires et éthiques.
Risque de Conformité
Le risque de sanctions légales ou réglementaires, de pertes financières ou de préjudice à la réputation qu'une organisation encourt lorsqu'elle ne se conforme pas aux lois, réglementations ou pratiques prescrites.
Vision par Ordinateur
Un domaine de l'IA qui forme les ordinateurs à interpréter et traiter les informations visuelles du monde, telles que les images et les vidéos.
Dérive de Concept
La modification des propriétés statistiques de la variable cible, que le modèle cherche à prédire, au fil du temps, conduit à une dégradation du modèle.
Intervalle de Confiance
Une gamme de valeurs, dérivées de statistiques d'échantillons, qui est susceptible de contenir la valeur d'un paramètre de population inconnu, utilisée en IA pour exprimer l'incertitude.
Évaluation de la conformité
Un processus destiné à déterminer si un système d'IA répond aux exigences, normes ou réglementations spécifiées, impliquant souvent des tests et une certification.
Apprentissage Continu
La capacité d'un système d'intelligence artificielle à apprendre et à s'adapter en continu à partir de nouvelles données sans intervention humaine, s'améliorant au fil du temps.
Maîtrise
La mesure dans laquelle les humains peuvent diriger, influencer ou remplacer les décisions et les comportements d'un système d'intelligence artificielle.
Validation croisée
Une technique de validation de modèle pour évaluer comment les résultats d'une analyse statistique se généraliseront à un ensemble de données indépendant.
Cybersécurité
La pratique de la protection des systèmes, réseaux et programmes contre les attaques numériques, essentielle pour sécuriser les systèmes d'intelligence artificielle contre les menaces.
D
Variation des données
L'évolution des données d'entrée du modèle avec le temps, qui peut entraîner une dégradation des performances du modèle si elle n'est pas surveillée et corrigée.
Éthique des Données
La branche de l'éthique qui évalue les pratiques en matière de données en ce qui concerne les obligations morales liées à la collecte, à la protection et à l'utilisation des informations personnellement identifiables.
Gouvernance des données
La gestion globale de la disponibilité, de l'utilisabilité, de l'intégrité et de la sécurité des données dans une entreprise, garantissant que les données sont correctement traitées tout au long de leur cycle de vie.
Gestion du cycle de vie des données
La gestion des flux de données basée sur des politiques tout au long de leur cycle de vie : de leur création et stockage initial à leur obsolescence et suppression.
Minimisation des Données
Le principe de ne collecter que les données nécessaires à un objectif spécifique, réduisant ainsi le risque de mauvaise utilisation ou de violation.
Confidentialité des données
L'aspect de la technologie de l'information qui traite de la capacité à contrôler quelles données sont partagées et avec qui, en veillant à ce que les données personnelles soient traitées de manière appropriée.
Protection des Données
Le processus de protection des informations importantes contre la corruption, la compromission ou la perte, tout en garantissant la conformité avec les lois et régulations sur la protection des données.
Qualité des Données
La condition des données, basée sur des facteurs tels que l'exactitude, la complétude, la fiabilité et la pertinence, est cruciale pour la performance efficace des modèles d'intelligence artificielle.
Résidence des données
Le lieu physique ou géographique des données d'une organisation, qui peut avoir des implications pour la conformité aux lois sur la protection des données.
Souveraineté des Données
Le concept selon lequel les données sont soumises aux lois et structures de gouvernance du pays où elles sont collectées, stockées ou traitées.
Personne concernée par les données
Une personne dont les données personnelles sont collectées, conservées ou traitées, est particulièrement pertinente dans le contexte des lois sur la protection des données comme le RGPD.
Dé-identification
Le processus de suppression ou de masquage des identifiants personnels des ensembles de données, rendant difficile l'identification des individus, est utilisé pour protéger la confidentialité.
Apprentissage Profond
Un sous-ensemble d'apprentissage automatique impliquant des réseaux neuronaux avec plusieurs couches, permettant de modéliser des schémas complexes dans les données.
Hypertrucage
Médias synthétiques dans lesquels une personne dans une image ou une vidéo existante est remplacée par la ressemblance de quelqu'un d'autre, créée en utilisant des techniques d'apprentissage profond.
Confidentialité Différentielle
Un système pour partager publiquement des informations sur un ensemble de données en décrivant les tendances des groupes au sein de cet ensemble tout en préservant la confidentialité des informations individuelles.
Discrimination
En IA, cela se réfère à un traitement injuste des individus ou des groupes basé sur des biais dans les données ou les algorithmes, conduisant à des résultats inégaux.
Apprentissage Distribué
Une approche d'apprentissage automatique où les données d'entraînement sont réparties sur plusieurs appareils ou emplacements, et les modèles sont formés de manière collaborative sans partager les données brutes.
Adaptation de Domaine
Une technique en apprentissage automatique où un modèle entraîné dans un domaine est adapté pour fonctionner dans un domaine différent mais connexe.
Évaluation Dynamique des Risques
Le processus continu d'identification et d'évaluation des risques en temps réel, permettant des réponses opportunes aux menaces émergentes dans les systèmes d'IA.
Entreprises
IA de pointe
Le déploiement d'algorithmes d'intelligence artificielle sur des dispositifs périphériques, permettant le traitement des données et la prise de décisions à la source de génération des données.
Analyse de pointe
L'analyse des données à la périphérie du réseau, près de la source de génération des données, réduisant la latence et l'utilisation de la bande passante.
Apprentissage Collectif
Un paradigme d'apprentissage automatique où plusieurs modèles sont entraînés et combinés pour résoudre le même problème, améliorant ainsi la performance globale.
Résolution d'Entité
Le processus d'identification et de liaison des enregistrements faisant référence à la même entité du monde réel dans différents ensembles de données.
Enzai
Une plateforme de gouvernance de l'IA d'entreprise qui permet aux organisations de répertorier, d'évaluer et de contrôler leurs systèmes d'IA, assurant une adoption maximale de l'IA tout en minimisant les risques liés à l'IA.
IA Éthique
La pratique de concevoir, développer et déployer des systèmes d'intelligence artificielle d'une manière qui s'aligne sur des principes et valeurs éthiques, garantissant l'équité, la responsabilité et la transparence.
Audit d'IA Éthique
Le processus d'évaluation systématique des systèmes d'IA pour garantir leur conformité aux normes éthiques et éviter tout dommage.
Certification de l'IA Éthique
Une reconnaissance formelle qu'un système d'IA respecte les normes et directives éthiques établies.
Gouvernance Éthique de l'IA
Le cadre des politiques, procédures et pratiques qui garantissent que les systèmes d'IA sont développés et utilisés de manière responsable et éthique.
Cadres éthiques
Ensembles structurés de principes et de lignes directrices conçus pour guider le développement et le déploiement éthique des systèmes d'intelligence artificielle.
Pirate Éthique
La pratique consistant à explorer intentionnellement les systèmes pour en déceler les vulnérabilités afin d'identifier et de corriger les problèmes de sécurité, garantissant ainsi la robustesse des systèmes d'IA.
Évaluation de l'Impact Éthique
Un processus d'évaluation systématique pour identifier et traiter les implications éthiques ainsi que les impacts sociétaux potentiels des systèmes d'IA avant leur déploiement.
Risques éthiques
Le potentiel d'un système d'IA à causer des dommages en raison d'un comportement non éthique, notamment des préjugés, de la discrimination ou de la violation de la vie privée.
Principes Éthiques pour une IA de Confiance
Un ensemble de lignes directrices élaborées par le groupe d'experts de haut niveau sur l'IA de la Commission européenne pour promouvoir une IA digne de confiance, axée sur l'autonomie humaine, la robustesse technique, la confidentialité, la transparence, la diversité, le bien-être sociétal et la responsabilité.
Techniques d'explicabilité
Méthodes utilisées pour interpréter et comprendre les décisions prises par les modèles d'IA, telles que LIME, SHAP et les cartes de saillance.
Explicabilité vs Interprétabilité
Bien que les deux visent à rendre compréhensibles les décisions de l'IA, l'explicabilité se concentre sur le raisonnement derrière les décisions, tandis que l'interprétabilité se rapporte à la transparence des mécaniques internes du modèle.
Intelligence Artificielle Explicable (IAE)
Les systèmes d'IA conçus pour fournir des justifications compréhensibles par l'homme pour leurs décisions et actions, renforçant la transparence et la confiance.
Apprentissage Automatique Explicable
Modèles d'apprentissage automatique conçus pour fournir des explications claires et compréhensibles de leurs prédictions et décisions.
F
Équité
Assurer que les systèmes d'IA produisent des résultats impartiaux et équitables à travers différents individus et groupes, et atténuer les impacts discriminatoires.
Indicateurs d'Équité
Des mesures quantitatives (par exemple, parité démographique, chances égalisées) utilisées pour évaluer la justice des prédictions d'un modèle d'IA à travers différents groupes.
Faux négatif
Lorsqu'un modèle d'IA prédit incorrectement une classe négative pour un cas qui est en réalité positif (Erreur de Type II).
Faux Positif
Lorsqu'un modèle d'IA prédit incorrectement une classe positive pour un cas qui est en réalité négatif (erreur de Type I).
Tolérance aux pannes
La capacité d'un système d'IA à continuer de fonctionner correctement même lorsque certains composants échouent ou produisent des erreurs.
Ingénierie des fonctionnalités
Créer, sélectionner ou transformer des attributs de jeux de données bruts en fonctionnalités qui améliorent la performance des modèles d'apprentissage automatique.
Extraction de fonctionnalités
Le processus de conversion des données brutes (par exemple, texte, images) en représentations numériques (caractéristiques) adaptées à l'entrée dans des algorithmes d'apprentissage automatique.
Sélection de Fonctionnalités
Identifier et sélectionner les fonctionnalités les plus pertinentes pour l'entraînement du modèle afin de réduire la complexité et améliorer la précision.
Apprentissage Fédéré
Une approche de ML décentralisée où les modèles sont entraînés sur plusieurs appareils ou serveurs contenant des données locales, sans partager les données brutes de manière centralisée.
Boucle de Rétroaction
Un processus où les sorties de l'IA sont réintroduites comme entrées, ce qui peut amplifier le comportement du modèle — pour le meilleur (apprentissage par renforcement) ou pour le pire (renforcement des biais).
Ajustement Fin
Adapter un modèle d'IA pré-entraîné à une tâche spécifique ou à un ensemble de données en poursuivant la formation sur de nouvelles données, ce qui améliore souvent les performances spécifiques à la tâche.
Vérification Formelle
Prouver mathématiquement que les algorithmes d'IA respectent les propriétés de correction spécifiées, souvent utilisées dans des systèmes critiques pour la sécurité.
Cadre
Un ensemble structuré de politiques, de processus et d'outils guidant la gouvernance, le développement, le déploiement et la surveillance des systèmes d'IA.
Détection de fraude
Utiliser des techniques d'IA (par exemple, la détection d'anomalies, la reconnaissance de motifs) pour identifier et prévenir les activités frauduleuses dans le domaine de la finance, de l'assurance, etc.
Sécurité Fonctionnelle
Garantir que les systèmes d'IA fonctionnent en toute sécurité dans toutes les conditions, en particulier dans des secteurs tels que l'automobile ou la santé, souvent par le biais de redondances et de vérifications.
Logique floue
Un système de logique qui gère le raisonnement avec des valeurs approximatives, plutôt que des valeurs binaires vraies/faux—utile dans les systèmes de contrôle et la gestion de l'incertitude.
G
RGPD
Le Règlement général sur la protection des données (RGPD) de l'UE, établissant des exigences strictes pour la collecte et le traitement des données personnelles, ainsi que les droits individuels.
processeur graphique
Accélérateur matériel spécialisé pour les calculs parallèles, largement utilisé pour entraîner et exécuter efficacement des modèles d'IA à grande échelle.
Analyse des écarts
Le processus de comparaison des pratiques actuelles de gouvernance de l'IA avec les normes ou réglementations souhaitées afin d'identifier les domaines nécessitant des améliorations.
Généralisation
La capacité d'un modèle d'intelligence artificielle à bien performer sur des données nouvelles et inédites en capturant des motifs sous-jacents plutôt qu'en mémorisant des exemples d'entraînement.
Intelligence Artificielle Générative
Les techniques d'IA (par exemple, GANs, transformers) qui génèrent de nouveaux contenus—texte, images ou autres médias—soulèvent souvent des préoccupations inédites en matière de gouvernance et de propriété intellectuelle.
Modèle Global
Un modèle d'IA consolidé, formé sur des données agrégées provenant de multiples sources, contrairement aux modèles localisés ou personnalisés.
Gouvernance
L'ensemble des politiques, procédures, rôles et responsabilités qui guident le développement et le déploiement éthique, légal et efficace des systèmes d'IA.
Instance de gouvernance
Un groupe interfonctionnel (par exemple, juridique, éthique, technique) chargé de superviser les politiques de gouvernance de l'IA et leur mise en œuvre au sein d'une organisation.
Cadre de Gouvernance
Un modèle structuré décrivant comment les composants de la gouvernance de l'IA (gestion des risques, responsabilité, supervision) s'imbriquent pour garantir la conformité et l'utilisation éthique.
Modèle de Maturité en Gouvernance
Un cadre organisé qui évalue le degré d'avancement des pratiques de gouvernance de l'IA au sein d'une organisation, allant de l'ad-hoc à l'optimisé.
Politique de Gouvernance
Un document formel qui codifie les règles, rôles et procédures pour le développement et la supervision de l'IA au sein d'une organisation.
Tableau de bord de gouvernance
Un tableau de bord ou un rapport qui suit les indicateurs clés (par exemple, incidents de partialité, audits de conformité) pour évaluer l'efficacité de la gouvernance de l'IA au fil du temps.
Descente de Gradient
Un algorithme d'optimisation qui ajuste itérativement les paramètres du modèle dans une direction qui diminue minimalement la fonction de perte.
Consentement Granulaire
Une approche de la protection des données permettant aux individus d'accorder ou de refuser des permissions spécifiques pour chaque type d'utilisation des données, renforçant ainsi la transparence et le contrôle.
IA Verte
La pratique de réduire l'impact environnemental de l'IA grâce à des algorithmes économes en énergie et à des pratiques informatiques durables.
Modèle Boîte Grise
Un modèle dont la logique interne est partiellement transparente (certains composants sont interprétables, d'autres sont opaques), équilibrant performance et explicabilité.
Vérité de terrain
Les données ou étiquettes précises et réelles utilisées comme référence pour entraîner et évaluer les performances des modèles d'IA.
Garde-fous
Contraintes prédéfinies ou vérifications (techniques et politiques) intégrées dans les systèmes d'intelligence artificielle pour prévenir les comportements dangereux ou non conformes pendant l'exécution.
Directive (IA Éthique)
Une recommandation non contraignante ou un document de bonnes pratiques émis par des organisations (par exemple, IEEE, UE) pour orienter le développement et le déploiement responsable de l'IA.
Bonjour
Hallucination
Lorsque l'IA générative produit des informations incorrectes ou fabriquées qui semblent plausibles mais qui n'ont aucun fondement dans les données d'entraînement.
Gestion des données manquantes
Techniques (par exemple, imputation, suppression, modélisation) pour combler les lacunes dans les ensembles de données afin de maintenir l'intégrité et l'équité des modèles.
Accélérateur Matériel
Des puces spécialisées (par exemple, GPU, TPU) conçues pour accélérer les calculs d'IA, avec des implications pour la consommation d'énergie et les risques liés à la chaîne d'approvisionnement.
Évaluation des risques
Évaluer les impacts négatifs potentiels (physiques, psychologiques, sociétaux) des systèmes d'IA et définir des stratégies d'atténuation.
Harmonisation
Aligner les politiques, normes et réglementations sur l'IA à travers les juridictions pour réduire les conflits et favoriser l'interopérabilité.
Hachage
Le processus de conversion des données en une chaîne de caractères de taille fixe, utilisé pour les vérifications d'intégrité des données et le couplage d'enregistrements préservant la confidentialité.
Données Hétérogènes
La combinaison de données de différents types (texte, image, capteur) ou provenant de multiples domaines présente des défis en matière d'intégration et de gouvernance.
Heuristique
Une règle empirique ou une stratégie simplifiée de prise de décision utilisée pour accélérer les processus d'IA, échangeant souvent l'optimalité pour l'efficacité.
Évaluation heuristique
Une méthode d'inspection de l'utilisabilité où des experts évaluent un système d'IA par rapport à des principes d'utilisabilité établis afin d'identifier les problèmes potentiels.
IA à enjeux élevés
Les applications d'IA dont les défaillances pourraient causer des préjudices significatifs (par exemple, les diagnostics médicaux, les véhicules autonomes), nécessitant une gouvernance et une supervision accrues.
Supervision Humaine
Des mécanismes permettant à des individus désignés de surveiller, intervenir ou remplacer les décisions des systèmes d'IA afin d'assurer le respect des normes éthiques et légales.
Évaluation de l'impact sur les droits de l'homme
Un processus d'évaluation de l'impact des systèmes d'IA sur les droits fondamentaux (vie privée, expression, non-discrimination) et d'identification des mesures d'atténuation.
Humain dans le processus
Impliquer le jugement humain dans les processus d'IA (entraînement, validation, révision des décisions) pour améliorer la précision et la responsabilité.
Modèle Hybride
Les systèmes d'IA alliant plusieurs paradigmes d'apprentissage (par exemple, symbolique et neuronal) pour équilibrer l'explicabilité et la performance.
Hyperparamètre
Une variable de configuration (par exemple, taux d'apprentissage, profondeur d'arbre) définie avant l'entraînement du modèle qui influence le comportement d'apprentissage et les performances.
Optimisation des hyperparamètres
Le processus de recherche des valeurs optimales des hyperparamètres (par exemple, via une recherche en grille, l'optimisation bayésienne) pour maximiser la performance du modèle.
Je
ISO/IEC JTC 1/SC 42
Le comité conjoint ISO/IEC sur la normalisation de l'intelligence artificielle, développe des normes internationales d'IA pour la gouvernance, la gestion des risques et l'interopérabilité.
Données Déséquilibrées
Un ensemble de données dans lequel une classe ou catégorie dépasse significativement les autres, ce qui peut amener les modèles d'IA à privilégier la classe majoritaire, sauf en cas de mesures d'atténuation.
Registre Immuable
Un mécanisme de tenue de registres à l'épreuve des altérations (par exemple, la blockchain) qui garantit qu'une fois les données enregistrées, elles ne peuvent pas être modifiées sans être détectées, ce qui est utile pour les pistes d'audit de l'IA.
Évaluation d'Impact
Une évaluation structurée pour identifier, analyser et atténuer les impacts potentiels éthiques, juridiques et sociétaux d'un système d'IA avant son déploiement.
Biais Implicite
Les biais inconscients ou involontaires intégrés dans les données de formation ou la conception du modèle peuvent conduire à des résultats discriminatoires.
Alignement des incitations
La conception des structures de récompense et des objectifs afin que les buts des systèmes d'IA restent en adéquation avec les valeurs humaines et les priorités organisationnelles.
Biais Inductif
L'ensemble des hypothèses qu'un algorithme d'apprentissage utilise pour généraliser des données observées à des instances non vues.
Inférence
Le processus par lequel un modèle d'IA formé traite de nouvelles entrées de données pour produire des prédictions ou des décisions.
Moteur d'Inférence
Le composant d'un système d'intelligence artificielle (souvent dans des systèmes basés sur des règles ou des systèmes experts) qui applique une base de connaissances aux données d'entrée pour en tirer des conclusions.
Gouvernance de l'information
Les politiques, procédures et contrôles qui garantissent la qualité, la confidentialité et l'utilisabilité des données à travers les actifs de données d'une organisation, y compris les ensembles de données d'entraînement de l'IA.
Confidentialité de l'information
Le droit des individus de contrôler comment leurs données personnelles sont collectées, utilisées, stockées et partagées par les systèmes d'IA.
Infrastructure en tant que Code (IaC)
Gérer et provisionner l'infrastructure d'IA (calcul, stockage, réseau) par le biais de fichiers de configuration lisibles par machine, améliorant ainsi la reproductibilité et l'auditabilité.
Interopérabilité
La capacité des divers systèmes et composants d'IA à échanger, comprendre et utiliser des informations de manière transparente, souvent via des normes ouvertes ou des API.
Interprétabilité
Le degré auquel un être humain peut comprendre les mécanismes internes ou la logique décisionnelle d'un modèle d'IA.
Détection d'Intrusion
Surveillance de l'infrastructure et des applications d'intelligence artificielle afin de détecter toute activité malveillante ou tout manquement aux politiques, avec déclenchement d'alertes ou de réponses automatisées.
J
Matrice Jacobienne
En termes d'explicabilité de l'IA, la matrice de toutes les dérivées partielles d'ordre un des sorties d'un modèle par rapport à ses entrées, utilisée pour évaluer la sensibilité et l'importance des caractéristiques.
Attaque de Jailbreak
Un type d'injection de commande où les utilisateurs exploitent des vulnérabilités pour contourner les protections dans les modèles d'IA générative, ce qui peut potentiellement conduire à des résultats non sécurisés ou non autorisés.
Responsabilité Conjointe
Principe juridique selon lequel plusieurs parties (par exemple, développeurs, déployeurs) partagent la responsabilité des préjudices liés à l'IA, influençant les structures contractuelles et de gouvernance.
Modélisation Conjointe
Créer des systèmes d'IA qui apprennent conjointement plusieurs tâches (par exemple, reconnaissance vocale et traduction), avec une gouvernance nécessaire pour la complexité et l'auditabilité.
Biais de Jugement
Erreurs systématiques dans les processus de prise de décision humains ou d'IA causées par des raccourcis cognitifs ou des données erronées, nécessitant des audits et une atténuation des biais.
Révision Judiciaire
Le processus légal par lequel les tribunaux évaluent la légalité des décisions prises ou assistées par l'IA, garantissant la responsabilité et le respect des procédures.
Juridiction
L'autorité légale sur les données, les opérations liées à l'intelligence artificielle et la responsabilité, qui varie selon la géographie et impacte la conformité aux réglementations régionales (par exemple, RGPD, CCPA).
Automatisation du Jury
L'utilisation de l'IA pour aider à la sélection du jury ou à l'analyse des dossiers soulève des préoccupations éthiques concernant l'équité, la transparence et la supervision juridique.
Métriques de la Justice
Mesures quantitatives (par exemple, impact disparate, égalité des chances) utilisées pour évaluer l'équité et la non-discrimination dans la prise de décision par l'IA.
K
Indicateur Clé de Performance
Une métrique quantifiable (par exemple, la dérive de précision du modèle, le temps de correction des biais) utilisée pour surveiller et rendre compte des objectifs de gouvernance et de conformité de l'IA.
Indicateur Clé de Risque
Un indicateur clé (par exemple, la fréquence des prédictions hors cadre, le taux de décisions inexplicables) qui signale les risques émergents liés à l'IA avant qu'ils ne se concrétisent.
Connaître Votre Client (KYC)
Les processus de conformité pour vérifier l'identité, le profil de risque et la légitimité des individus ou des entités interagissant avec les systèmes d'IA, en particulier dans les industries réglementées.
Distillation des connaissances
Une méthode de transfert des connaissances d'un modèle « enseignant » plus grand vers un modèle « étudiant » plus petit, équilibrant la performance avec les contraintes de ressources et de gouvernance.
Graph de Connaissances
Une représentation structurée des entités et de leurs relations utilisée pour améliorer l'explicabilité de l'IA, l'auditabilité et l'alignement avec les ontologies de domaine.
Gestion des connaissances
Pratiques et outils pour capturer, organiser et partager les connaissances organisationnelles (par exemple, la documentation des modèles, les journaux d'audit) afin d'assurer la reproductibilité et la supervision.
L'entreprise
Fuite d'Étiquettes
L'inclusion involontaire d'informations de sortie dans les étiquettes des données d'entraînement, pouvant gonfler les indicateurs de performance et masquer les véritables problèmes de généralisation du modèle.
Modèle de Langage de Grande Envergure
Un modèle d'apprentissage profond entraîné sur de vastes corpus de texte, capable de réaliser des tâches telles que la génération de texte, la traduction et la synthèse, nécessitant souvent une gouvernance pour éviter les biais et les abus.
Moindre Privilège
Un principe de sécurité selon lequel les composants d'IA et les utilisateurs ne reçoivent que les droits d'accès minimaux nécessaires pour exécuter leurs fonctions, réduisant ainsi le risque d'utilisation abusive.
Conformité Légale
La pratique de garantir que les systèmes d'IA respectent les lois, règlements et normes industrielles applicables tout au long de leur cycle de vie.
Cadre de Responsabilité
Une approche structurée définissant qui est responsable des préjudices ou des échecs liés à l'IA, y compris les développeurs, les déployeurs et les opérateurs.
Gestion du Cycle de Vie
Les processus coordonnés pour le développement, le déploiement, la surveillance, la maintenance et le retrait des systèmes d'IA afin de garantir la conformité continue et le contrôle des risques.
Détection de vitalité
Techniques utilisées pour vérifier qu'une entrée (par exemple, biométrique) provient d'un sujet vivant plutôt que d'une fraude ou d'une répétition, renforçant ainsi la sécurité et l'intégrité du système.
Localisation
Adaptation des systèmes d'IA aux langues locales, aux réglementations, aux normes culturelles et aux exigences de résidence des données dans différentes juridictions.
Gestion des journaux
La collecte, le stockage et l'analyse des journaux de système et d'application issus des workflows d'IA pour soutenir l'audit, la gestion des incidents et le suivi des performances des modèles.
Fonction de Perte
Une fonction mathématique qui quantifie la différence entre les résultats prévus et les valeurs réelles, guidant ainsi la formation et l'optimisation du modèle.
M
Contrôle Humain Significatif
Une norme réglementaire et opérationnelle garantissant que les humains conservent la capacité de superviser, d'intervenir et de contrecarrer les processus décisionnels de l'IA.
Gestion des métadonnées
La pratique de capture et de maintien de données descriptives (par exemple, provenance des données, définitions des fonctionnalités, paramètres de modèle) pour soutenir la traçabilité et les audits.
Mesures et indicateurs clés de performance
Des mesures quantitatives (par exemple, dérive de précision, scores d'équité, temps de réponse aux incidents) utilisées pour surveiller la santé, les risques et les objectifs de conformité des systèmes d'IA.
Stratégies d'atténuation
Actions prévues (par exemple, la correction des biais, la reformation, la réingénierie des fonctionnalités) pour traiter les risques d'IA identifiés et les lacunes en matière de conformité.
Explicabilité du Modèle
Techniques et documentation qui rendent la logique décisionnelle d'un modèle d'IA compréhensible pour les parties prenantes et les auditeurs.
Gouvernance du Modèle
Les politiques, rôles et contrôles qui garantissent que les modèles d'IA sont développés, approuvés et utilisés conformément aux normes organisationnelles et aux exigences réglementaires.
Surveillance du Modèle
Suivi continu des performances d'un modèle d'IA, des dérives de données et des indicateurs opérationnels pour détecter toute dégradation ou nouveaux risques potentiels.
Réentraînement du Modèle
Le processus de mise à jour d’un modèle d'IA avec des données nouvelles ou actualisées pour maintenir la performance et la conformité à mesure que les distributions de données évoluent.
Gestion des risques du modèle
Le processus structuré d'identification, d'évaluation et de réduction des risques découlant des modèles IA/ML tout au long de leur cycle de vie.
Validation du modèle
Les activités d'évaluation (par exemple, tests sur des données de validation, scénarios de stress) qui confirment qu'un modèle d'IA répond à son objectif et à ses critères de performance.
Engagement Multi-Intervenants
Impliquer divers groupes (par exemple, juridique, éthique, opérations, utilisateurs finaux) dans les processus de gouvernance de l'intelligence artificielle pour garantir une supervision équilibrée des risques et une alignement avec les objectifs commerciaux.
Non
Cadre de Gestion des Risques de l'IA de NIST
Une orientation volontaire de l'Institut National des Standards et de la Technologie des États-Unis décrivant les meilleures pratiques pour atténuer les risques tout au long des cycles de vie des systèmes d'intelligence artificielle.
Traitement Automatique du Langage Naturel (TALN)
Techniques et outils qui permettent aux machines d'interpréter, de générer et d'analyser le langage humain sous forme de texte ou de parole.
Sécurité du Réseau
Mesures et contrôles (par exemple, segmentation, pare-feu, détection d'intrusion) pour protéger l'infrastructure de l'IA et les pipelines de données contre l'accès non autorisé ou la falsification.
Recherche d'Architecture Neurale
Méthodes automatisées pour concevoir et optimiser les structures de réseaux neuronaux afin d'améliorer la performance des modèles tout en équilibrant la complexité et les contraintes de ressources.
Injection de bruit
Introduction délibérée de perturbations aléatoires dans les données d'entraînement ou les paramètres du modèle afin d'améliorer la robustesse et de se protéger contre la manipulation malveillante.
Détection de Nouveautés
Techniques pour identifier les entrées ou scénarios qui diffèrent significativement des données d'entraînement, déclenchant une révision ou un mode de fonctionnement sécurisé afin de prévenir des défaillances inattendues.
O
Observabilité
La capacité de déduire l'état interne et le comportement d'un système d'IA par la collecte et l'analyse des journaux, des métriques et des résultats pour un suivi et un dépannage efficaces.
Surveillance Continue
Suivi continu des performances des systèmes d'IA, de la dérive des données, des métriques de biais et des événements de sécurité afin de détecter et traiter les risques émergents au fil du temps.
Opacité
L'absence de transparence dans la manière dont un modèle d'IA parvient à des décisions ou à des prédictions pose des défis en termes de confiance et de conformité réglementaire.
Résilience Opérationnelle
La capacité des systèmes d'intelligence artificielle et de leur infrastructure de soutien à anticiper, résister, se rétablir et s'adapter aux perturbations ou aux événements défavorables.
Orchestration
La coordination automatisée des flux de travail et des services d'IA—l'ingestion de données, la formation des modèles, le déploiement—assurant la conformité avec les politiques et la gouvernance des ressources.
Détection des valeurs aberrantes
Techniques pour identifier les points de données ou les prédictions modélisées qui s'écartent significativement des schémas attendus, déclenchant ainsi des actions de révision ou de mitigation.
Surapprentissage
Un problème de modélisation où un système d'IA apprend le bruit ou les particularités des données d'entraînement, réduisant ainsi sa capacité à généraliser à de nouvelles données non vues.
Supervision
Le processus structuré d'examen, d'approbation et de responsabilité pour le développement et le déploiement de l'IA, impliquant généralement des instances de gouvernance interfonctionnelles.
Propriété
La répartition claire des responsabilités et de l'autorité concernant les actifs IA—données, modèles, processus—pour garantir la responsabilité tout au long du cycle de vie du système.
P
Autorisation
La gestion des droits d'accès des utilisateurs et des systèmes aux données et fonctions de l'IA, garantissant le principe du moindre privilège et empêchant toute utilisation non autorisée.
Essai Pilote
Un essai à portée limitée d'un système d'IA dans un environnement contrôlé pour évaluer les performances, les risques et les contrôles de gouvernance avant le déploiement à grande échelle.
Mise en Application des Politiques
Les mécanismes automatisés ou manuels qui garantissent que les opérations d'IA respectent les politiques organisationnelles, les réglementations et les lignes directrices éthiques.
Surveillance post-déploiement
Observation continue du comportement du système d'IA et de l'environnement après le déploiement afin de détecter toute dégradation, dérive ou violation de conformité.
Maintenance Prédictive
Surveillance et analyse pilotées par l'IA pour prévoir les défaillances des composants ou des systèmes, assurant ainsi la résilience opérationnelle et la réduction des risques dans des environnements critiques.
Évaluation de l'impact sur la vie privée
Une analyse structurée pour identifier et atténuer les risques de confidentialité associés aux systèmes d'IA, couvrant la collecte, l'utilisation, le partage et la conservation des données.
Confidentialité dès la Conception
Une approche qui intègre la protection des données et les considérations de la vie privée des utilisateurs dans l'architecture et les processus des systèmes d'intelligence artificielle dès le départ.
Automatisation des Processus
Utilisation de l'IA et des outils de gestion des flux de travail pour rationaliser la gouvernance, les contrôles de conformité et les activités de réduction des risques, réduisant ainsi les efforts manuels et les erreurs.
Q
Évaluation Qualitative
L'évaluation subjective des comportements, des décisions et de la documentation des systèmes d'IA par des experts, visant à identifier les préoccupations éthiques, juridiques ou réputationnelles qui ne sont pas quantifiées.
Assurance Qualité
Les processus systématiques et les vérifications visant à garantir que les modèles d'IA et les flux de données répondent aux normes définies en termes de précision, de fiabilité et de conformité éthique.
Contrôle de Qualité
La vérification continue des résultats et des processus d'IA par rapport aux référentiels et aux cas de test, afin de détecter les défauts, les incidents de biais ou les violations de politique.
Évaluation Quantitative des Risques
Une évaluation fondée sur les données des menaces potentielles de l'IA, estimant les probabilités et les impacts de manière numérique afin de prioriser les efforts d'atténuation.
Calcul Quantique
Le paradigme computationnel émergent qui exploite la mécanique quantique pose de nouveaux défis de gouvernance en matière de sécurité, de standardisation et de gestion des risques.
Enregistrement des Requêtes
La pratique d'enregistrer les entrées du système d'IA et les requêtes des utilisateurs pour permettre des pistes d'audit, détecter les abus et soutenir la responsabilité.
Confidentialité des Requêtes
Techniques et politiques visant à protéger les informations sensibles dans les requêtes des utilisateurs, garantissant que les entrées enregistrées ne compromettent pas les données personnelles ou propriétaires.
Cadre de Questionnaire
Un ensemble structuré de questions axées sur la gouvernance utilisé lors de la conception, de l'acquisition ou du déploiement pour garantir que les systèmes d'IA sont conformes aux exigences réglementaires.
Quorum pour le Conseil de Gouvernance
Le nombre minimum de membres du comité de gouvernance requis pour être présents afin de prendre des décisions officielles concernant les risques liés à l'IA, les approbations de politiques ou les résultats d'audit.
Gestion des quotas
Les contrôles et limites imposés à l'utilisation des ressources d'IA (par exemple, appels API, temps de calcul) afin de appliquer les politiques de gouvernance et prévenir les coûts excessifs ou les abus.
R
Recours
Mécanismes permettant aux individus concernés de contester ou de demander un recours pour des décisions prises par l'IA qui affectent leurs droits ou leurs intérêts.
Équipe Rouge
Une approche proactive de test où des experts internes ou externes simulent des attaques ou des scénarios d'utilisation abusive afin de découvrir les vulnérabilités des systèmes d'intelligence artificielle.
Conformité Réglementaire
Garantir que les systèmes d'IA respectent les lois, réglementations et normes industrielles applicables (par exemple, RGPD, FDA, surveillance financière) tout au long de leur fonctionnement.
Reproductibilité
La capacité de régénérer systématiquement les résultats des modèles d'IA en utilisant les mêmes données, code et configurations, garantissant ainsi la transparence et l'auditabilité.
Matrice d'Attribution des Responsabilités
Un outil (par exemple, RACI) qui clarifie les rôles et les responsabilités pour chaque activité de gouvernance—qui est Responsable, Comptable, Consulté et Informé.
Intelligence Artificielle Responsable
La pratique de concevoir, développer et déployer des systèmes d'IA de manière éthique, transparente et responsable envers les parties prenantes et la société.
Évaluation des Risques
Le processus d'identification, d'analyse et de hiérarchisation des dommages ou défaillances potentiels dans les systèmes d'IA afin de déterminer les stratégies d'atténuation appropriées.
Cadre de Gestion des Risques
Un ensemble structuré de directives et de processus pour aborder systématiquement les risques liés à l'IA tout au long du cycle de vie du système, de la conception à la mise au rebut.
Robustesse
La capacité d'un système d'intelligence artificielle à maintenir une performance fiable dans une variété de conditions difficiles ou adverses.
Analyse des Causes Racines
Une enquête structurée visant à déterminer les raisons sous-jacentes des défaillances ou des comportements inattendus des systèmes d'IA, guidant les actions correctives.
S
Politique d'Utilisation Sanctionnée
Des règles et contrôles définis spécifiant les contextes, les utilisateurs et les objectifs approuvés pour le fonctionnement des systèmes d'intelligence artificielle afin de prévenir tout usage abusif.
Sécurité par Conception
Intégrer des contrôles de sécurité et des pratiques exemplaires dans les systèmes d'IA dès les premières phases de conception pour prévenir les vulnérabilités et les violations de données.
Intelligence Artificielle de l'Ombre
L'utilisation non autorisée de modèles d'IA, d'agents ou d'outils par les employés sans l'approbation du service informatique crée des vulnérabilités de sécurité cachées dues à des fuites de données et à des actions autonomes non autorisées.
Évaluation de l'Impact Sociétal
Une évaluation structurée de l'impact d'un système d'IA sur les aspects sociaux, économiques et culturels des communautés, identifiant les dommages potentiels et les avantages.
Cycle de vie du développement logiciel
Le processus de bout en bout (exigences, conception, construction, test, déploiement, surveillance) pour les applications d'IA, intégrant des vérifications de gouvernance et de conformité à chaque étape.
Engagement des parties prenantes
Le processus d'implication des parties affectées (par exemple, utilisateurs, régulateurs, communautés concernées) dans le développement et la supervision de l'IA afin de garantir des perspectives variées et leur approbation.
Risque de Surveillance
La menace que les systèmes d'IA puissent être exploités pour une surveillance intrusive des individus ou des groupes, portant atteinte à la vie privée et aux libertés civiles.
Données Synthétiques
Jeux de données générés artificiellement qui imitent les distributions de données réelles, utilisés pour augmenter les ensembles d'entraînement tout en protégeant la confidentialité.
T
Risque de queue
Le potentiel de résultats rares et extrêmes dans le comportement ou la prise de décision de l'IA qui dépassent les attentes normales et nécessitent une planification spéciale d'atténuation.
Test et Validation
Le processus systématique d'évaluation des modèles d'IA par rapport à des références, des cas limites et des conditions de stress pour garantir qu'ils répondent aux critères de performance, de sécurité et de conformité.
Risque lié aux tiers
L'exposition résultant de la dépendance envers des fournisseurs de données externes, des vendeurs de modèles ou des plateformes de services qui pourraient introduire des vulnérabilités de conformité ou de sécurité.
Paramétrage du Seuil
Définir des limites ou des valeurs seuil dans les règles de décision de l'IA (par exemple, les scores de confiance) afin de trouver un équilibre entre les risques tels que les faux positifs et les faux négatifs.
Traçabilité
La capacité de suivre et de documenter chaque étape du cycle de vie de l'IA, depuis la collecte de données jusqu'au développement du modèle et son déploiement, afin de soutenir l'audit et la criminalistique.
Ensemble de données de formation
La collection soigneusement sélectionnée de données annotées ou non annotées utilisée pour enseigner à un modèle d'intelligence artificielle les relations et les modèles qu'il doit apprendre pour accomplir sa tâche.
Apprentissage par Transfert
Une technique où un modèle développé pour une tâche est adapté à une tâche connexe, réduisant ainsi le temps de développement, mais nécessitant la gouvernance des biais hérités.
Transparence
La pratique consistant à rendre les processus des systèmes d'IA, la logique de décision, et l'utilisation des données clairs et compréhensibles pour les parties prenantes afin d'assurer la responsabilité.
IA fiable
Des systèmes d'IA conçus et exploités de manière éthique, fiable, sûre et en adéquation avec les valeurs humaines et les normes sociétales.
Vous
Sous-ajustement
Un problème de modélisation où un système d'IA est trop simpliste pour saisir les motifs sous-jacents des données, entraînant des performances médiocres tant sur les données d'entraînement que sur les nouvelles données.
Uniformité
Assurer une application cohérente des politiques, contrôles et normes à travers tous les systèmes d'IA pour éviter les lacunes de gouvernance ou une gestion des risques inégale.
Apprentissage Non Supervisé
Une approche d'apprentissage automatique où les modèles identifient des motifs ou des regroupements dans des données non étiquetées sans orientation explicite sur les résultats.
Surveillance de la disponibilité
Suivi continu de la disponibilité et des performances des systèmes d'IA pour détecter les pannes ou les dégradations pouvant affecter les opérations critiques ou les obligations de conformité.
Gouvernance des Cas d'Utilisation
La pratique de définir, approuver et surveiller des cas d'utilisation spécifiques de l'IA pour s'assurer que chacun est conforme aux politiques organisationnelles, aux normes éthiques et à l'appétit pour le risque.
Consentement de l'utilisateur
Le processus d'obtention et d'enregistrement d'une autorisation explicite de la part des individus avant de collecter, traiter ou utiliser leurs données personnelles dans des systèmes d'IA.
Utilité
Une mesure de la valeur ou de l'efficacité d'un système d'IA à atteindre ses objectifs visés, équilibrée par rapport aux risques ou aux coûts en ressources associés.
V
Validation
Le processus de confirmation qu'un modèle d'intelligence artificielle fonctionne de manière précise et fiable sur les tâches prévues et répond aux critères de performance définis.
Surveillance des Variances
Suivi des fluctuations des sorties des modèles d'IA ou des indicateurs de performance au fil du temps pour détecter les dérives et en déduire une éventuelle dégradation ou un risque.
Gestion des Risques Fournisseurs
Évaluer et surveiller les fournisseurs tiers de composants ou services d'IA pour identifier et atténuer les risques potentiels de conformité, de sécurité ou d'éthique.
Contrôle de Version
La pratique de la gestion et du suivi des modifications du code de l'IA, des modèles et des ensembles de données au fil du temps pour garantir la reproductibilité et l'auditabilité.
Autorité de Veto
Le droit formel détenu par un organe de gouvernance ou un intervenant pour bloquer ou exiger des modifications des déploiements d'IA présentant des risques inacceptables.
Surveillance de la Vigilance
Surveillance continue du comportement de l'IA et des signaux externes (par exemple, les mises à jour réglementaires) afin d'identifier et de répondre rapidement aux risques émergents ou aux non-conformités.
Surveillance IA Vision
Les processus de gouvernance spécifiques aux systèmes de vision par ordinateur, garantissant la qualité des données, les vérifications des biais et la transparence dans la prise de décision basée sur des images et des vidéos.
Évaluation des vulnérabilités
Identifier, analyser et prioriser les faiblesses de sécurité dans l'infrastructure et les applications d'IA afin de guider les efforts de remédiation.
W
Surveillance Surveillance
Contrôles d'exécution indépendants qui observent les décisions de l'IA et déclenchent des alertes ou des interventions lorsque des politiques ou des seuils sont enfreints.
Audit de Poids
Examiner les poids et les structures des modèles pour détecter des anomalies, des portes dérobées ou des biais pouvant indiquer une altération ou des comportements non souhaités.
Testage en boîte blanche
Évaluer les systèmes d'IA avec une pleine connaissance du fonctionnement interne (code, paramètres, architecture) pour vérifier l'exactitude, la sécurité et la conformité.
Politique de liste blanche/liste noire
Règle de gouvernance définissant les entrées, caractéristiques ou opérations autorisées (liste blanche) et interdites (liste noire) afin d'assurer la conformité et de prévenir tout abus.
Mise en liste blanche
Autoriser uniquement des sources de données, des bibliothèques ou des composants de modèle pré-approuvés dans les processus d'IA afin de réduire les risques liés à des éléments non vérifiés ou malveillants.
Orchestration des flux de travail
Automatisation et séquençage des tâches du cycle de vie de l'IA (ingestion de données, formation, validation, déploiement) pour appliquer les politiques de gouvernance et garantir la cohérence.
Segmentation des charges de travail
Séparer les environnements de calcul IA (par exemple, développement, test, production) et les domaines de données afin de limiter l'impact des pannes ou des violations de sécurité.
Analyse du pire des cas
Évaluer les échecs ou abus potentiels les plus extrêmes d'un système d'IA afin d'informer une atténuation des risques et une planification de contingence robustes.
Stockage WORM (Write-Once Read-Many)
Stockage immuable garantissant que les journaux, pistes d'audit et artefacts de modèles ne peuvent pas être modifiés une fois écrits, soutenant ainsi la non-répudiation et l'examen médico-légal.
X
X-Validation
Une technique de validation de modèle (souvent abrégée « X-Val ») qui partitionne les données en segments afin d'évaluer rigoureusement la généralisation du modèle et de détecter les surapprentissages.
XAI (IA Explicable)
Techniques et méthodes qui rendent le processus de décision d'un modèle d'IA transparent et compréhensible pour les humains, favorisant ainsi la responsabilité et la conformité.
Audit XAI
Un processus de révision qui évalue si les résultats de l'explicabilité de l'IA satisfont aux politiques internes et aux exigences réglementaires, garantissant une transparence suffisante.
Cadre XAI
Une approche structurée ou un ensemble de directives qu'organisations utilisent pour mettre en œuvre, mesurer et régir les pratiques d'explicabilité au sein de leurs systèmes d'IA.
Métriques XAI
Mesures quantitatives ou qualitatives (par exemple, scores d'importance des fonctionnalités, fidélité des explications) utilisées pour évaluer la qualité et la fiabilité des explications d'IA.
Oui
Règles YARA
Un ensemble de modèles de détection basés sur des signatures utilisés pour analyser les pipelines et les artefacts d'IA afin de détecter des codes malveillants connus ou des altérations.
Revue Annuelle de Conformité
Une évaluation annuelle des processus, des politiques et des systèmes de gouvernance de l'IA pour garantir une conformité continue aux réglementations et aux normes internes.
Z
Tolérance Zéro Défaut
Un principe de gouvernance visant l'absence d'erreurs ou de violations de politique dans les résultats de l'IA, soutenu par des cycles rigoureux de test, de surveillance et d'amélioration continue.
Vulnérabilité Zéro Jour
Une faille de sécurité précédemment inconnue dans le logiciel ou l'infrastructure d'IA qui peut être exploitée avant qu'un correctif ou une atténuation ne soit disponible.
Apprentissage sans supervision
Une capacité modèle pour gérer correctement les tâches ou classer les données sur lesquelles il n'a jamais été explicitement formé en utilisant des représentations de connaissances généralisées.
Contrôle d'accès par zone
Une approche de gouvernance réseau ou de données qui divise les ressources en zones avec des politiques distinctes, restreignant l'accès des systèmes d'IA en fonction de la sensibilité des données.
Tous
Livre blanc
Réglementations sur l'IA
Balados
Mises à jour du produit
Couverture Médiatique
Glossaire
Rejoignez notre podcast ou collaborez sur du contenu
Contactez-nous et nous verrons ce que nous pouvons réaliser ensemble.
A
Responsabilité de l'IA
L'obligation des développeurs et opérateurs de systèmes d'IA d'assurer que leurs systèmes sont conçus et utilisés de manière responsable, en respectant les normes éthiques et les exigences légales.
Alignement de l'IA
Le processus consistant à garantir que les objectifs et les comportements des systèmes d'IA sont alignés avec les valeurs et les intentions humaines.
Audit IA
L'évaluation systématique des systèmes d'IA pour vérifier la conformité aux normes éthiques, aux règlements et aux indicateurs de performance.
Biais de l'IA
Erreurs systématiques dans les sorties d'IA résultant de données d'entraînement biaisées ou d'algorithmes défectueux, conduisant à des résultats inéquitables.
Conformité IA
L'adhésion des systèmes d'IA aux lois, réglementations et directives éthiques applicables tout au long de leur cycle de vie.
Éthique de l'IA
Le domaine concerné par les implications morales et les responsabilités liées au développement et au déploiement des technologies d'IA.
Explicabilité de l'IA
Le degré auquel la mécanique interne d'un système d'IA peut être comprise et interprétée par les humains.
Gouvernance de l'IA
Le cadre des politiques, processus et contrôles qui guident le développement et l'utilisation éthiques et efficaces des systèmes d'IA.
Inventaire IA
Un catalogue complet et centralisé de tous les systèmes d'IA, modèles et agents utilisés dans toute l'organisation, permettant de suivre leur objectif commercial, leur niveau de risque et leur propriétaire.
Culture de l'IA
La compréhension des concepts, des capacités et des limitations de l'IA, permettant une interaction éclairée avec les technologies de l'IA.
Surveillance de l'IA
L'observation et l'analyse continues des performances des systèmes d'IA afin de garantir la fiabilité, la sécurité et la conformité.
Risque lié à l'IA
Le potentiel des systèmes d'intelligence artificielle à causer des préjudices ou des conséquences imprévues, y compris les risques éthiques, juridiques et opérationnels.
Gestion des Risques liés à l'IA
Le processus d'identification, d'évaluation et d'atténuation des risques associés aux systèmes d'IA.
TRiSM IA
Un acronyme inventé par Gartner signifiant Gestion de la Confiance, des Risques et de la Sécurité de l'IA ; un cadre qui unifie la gouvernance, la fiabilité et la sécurité en une seule stratégie opérationnelle.
Transparence de l'IA
Le principe selon lequel les systèmes d'IA doivent être ouverts et clairs quant à leurs opérations, décisions et utilisation des données.
Précision
Le degré auquel les résultats d'un système d'IA reflètent correctement les données du monde réel ou les résultats escomptés.
Attaque Adversariale
Techniques qui manipulent les modèles d'IA en introduisant des entrées trompeuses pour provoquer des résultats incorrects.
Agentic IA
Une catégorie de systèmes d'intelligence artificielle conçus pour atteindre de manière autonome des objectifs complexes et exécuter des actions à multiples étapes (telles que le déploiement de logiciels ou les transactions financières) avec une intervention humaine minimale.
Gouvernance d'IA Agentic
La gouvernance des systèmes d'IA autonomes capables d'exécuter des actions indépendantes (par exemple, des transactions, le déploiement de code) se distingue de l'IA prédictive (qui fournit des insights) et de l'IA générative (qui crée du contenu).
Algorithme
Un ensemble de règles ou d'instructions donné à un système d'IA pour l'aider à apprendre de manière autonome.
Biais Algorithmique
Un biais qui survient lorsqu'un algorithme produit des résultats systématiquement biaisés en raison d'hypothèses erronées dans le processus d'apprentissage automatique.
Gouvernance Algorithmique
L'utilisation d'algorithmes pour gérer et réguler les fonctions sociétales, pouvant potentiellement influencer les processus de prise de décision.
Intelligence Artificielle Générale
Un type d'intelligence artificielle qui possède la capacité de comprendre, d'apprendre et d'appliquer des connaissances de manière générale, similaire à l'intelligence humaine.
Intelligence Artificielle
La simulation des processus d'intelligence humaine par des machines, en particulier les systèmes informatiques, y compris l'apprentissage, le raisonnement et l'auto-correction.
B
Rétropropagation
Un algorithme d'apprentissage utilisé dans les réseaux de neurones qui ajuste les poids en propageant les erreurs à rebours depuis la couche de sortie afin de minimiser la perte.
Apprentissage par lot
Une approche d'apprentissage automatique où le modèle est entraîné sur l'ensemble du jeu de données en une seule fois, par opposition à l'apprentissage incrémental.
Évaluation comparative
Le processus de comparaison des performances des systèmes d'IA avec des métriques standard ou d'autres systèmes pour évaluer l'efficacité.
Préjugé
Erreurs systématiques dans les sorties d'IA résultant de données d'entraînement biaisées ou d'algorithmes défectueux, conduisant à des résultats inéquitables.
Amplification des biais
Le phénomène où les systèmes d'IA exacerbent les biais existants présents dans les données d'entraînement, conduisant à des résultats de plus en plus biaisés.
Audit de Biais
Un processus d'évaluation pour détecter et atténuer les biais dans les systèmes d'IA, garantissant l'équité et la conformité avec les normes éthiques.
Détection des Biais
Le processus d'identification des biais dans les modèles d'IA en analysant leurs résultats et leurs processus de prise de décision.
Atténuation des biais
Techniques appliquées lors du développement de l'IA pour réduire ou éliminer les biais dans les modèles et les ensembles de données.
Modèle Boîte Noire
Un système d'IA dont le fonctionnement interne n'est ni transparent ni interprétable, rendant difficile la compréhension du processus de prise de décision.
Robot
Une application logicielle qui exécute des tâches automatisées, souvent utilisée dans le domaine de l'intelligence artificielle pour des tâches telles que le service client ou la collecte de données.
C
Inférence Causale
Une méthode en intelligence artificielle et en statistiques utilisée pour déterminer les relations de cause à effet, aidant à comprendre l'impact des interventions ou des modifications des variables.
Assistant conversationnel
Une application logicielle alimentée par l'IA, conçue pour simuler une conversation humaine, souvent utilisée dans le service client et l'acquisition d'informations.
Classification
Une technique d'apprentissage supervisé en apprentissage automatique où le modèle prédit la catégorie ou l'étiquette de classe des nouvelles observations en se basant sur des données d'entraînement.
Biais Cognitif
Des schémas systématiques de déviation par rapport à la norme ou à la rationalité dans le jugement, qui peuvent influencer la prise de décision de l'IA s'ils sont présents dans les données d'entraînement.
Informatique cognitive
Un sous-ensemble de l'intelligence artificielle qui simule les processus de pensée humaine dans un modèle informatisé, visant à résoudre des problèmes complexes sans assistance humaine.
Charge cognitive
La quantité totale d'effort mental utilisée dans la mémoire de travail, est prise en compte en IA pour concevoir des systèmes qui ne submergent pas les utilisateurs.
Cadre de Conformité
Un ensemble structuré de directives et de meilleures pratiques que les organisations suivent pour garantir que leurs systèmes d'IA respectent les normes réglementaires et éthiques.
Risque de Conformité
Le risque de sanctions légales ou réglementaires, de pertes financières ou de préjudice à la réputation qu'une organisation encourt lorsqu'elle ne se conforme pas aux lois, réglementations ou pratiques prescrites.
Vision par Ordinateur
Un domaine de l'IA qui forme les ordinateurs à interpréter et traiter les informations visuelles du monde, telles que les images et les vidéos.
Dérive de Concept
La modification des propriétés statistiques de la variable cible, que le modèle cherche à prédire, au fil du temps, conduit à une dégradation du modèle.
Intervalle de Confiance
Une gamme de valeurs, dérivées de statistiques d'échantillons, qui est susceptible de contenir la valeur d'un paramètre de population inconnu, utilisée en IA pour exprimer l'incertitude.
Évaluation de la conformité
Un processus destiné à déterminer si un système d'IA répond aux exigences, normes ou réglementations spécifiées, impliquant souvent des tests et une certification.
Apprentissage Continu
La capacité d'un système d'intelligence artificielle à apprendre et à s'adapter en continu à partir de nouvelles données sans intervention humaine, s'améliorant au fil du temps.
Maîtrise
La mesure dans laquelle les humains peuvent diriger, influencer ou remplacer les décisions et les comportements d'un système d'intelligence artificielle.
Validation croisée
Une technique de validation de modèle pour évaluer comment les résultats d'une analyse statistique se généraliseront à un ensemble de données indépendant.
Cybersécurité
La pratique de la protection des systèmes, réseaux et programmes contre les attaques numériques, essentielle pour sécuriser les systèmes d'intelligence artificielle contre les menaces.
D
Variation des données
L'évolution des données d'entrée du modèle avec le temps, qui peut entraîner une dégradation des performances du modèle si elle n'est pas surveillée et corrigée.
Éthique des Données
La branche de l'éthique qui évalue les pratiques en matière de données en ce qui concerne les obligations morales liées à la collecte, à la protection et à l'utilisation des informations personnellement identifiables.
Gouvernance des données
La gestion globale de la disponibilité, de l'utilisabilité, de l'intégrité et de la sécurité des données dans une entreprise, garantissant que les données sont correctement traitées tout au long de leur cycle de vie.
Gestion du cycle de vie des données
La gestion des flux de données basée sur des politiques tout au long de leur cycle de vie : de leur création et stockage initial à leur obsolescence et suppression.
Minimisation des Données
Le principe de ne collecter que les données nécessaires à un objectif spécifique, réduisant ainsi le risque de mauvaise utilisation ou de violation.
Confidentialité des données
L'aspect de la technologie de l'information qui traite de la capacité à contrôler quelles données sont partagées et avec qui, en veillant à ce que les données personnelles soient traitées de manière appropriée.
Protection des Données
Le processus de protection des informations importantes contre la corruption, la compromission ou la perte, tout en garantissant la conformité avec les lois et régulations sur la protection des données.
Qualité des Données
La condition des données, basée sur des facteurs tels que l'exactitude, la complétude, la fiabilité et la pertinence, est cruciale pour la performance efficace des modèles d'intelligence artificielle.
Résidence des données
Le lieu physique ou géographique des données d'une organisation, qui peut avoir des implications pour la conformité aux lois sur la protection des données.
Souveraineté des Données
Le concept selon lequel les données sont soumises aux lois et structures de gouvernance du pays où elles sont collectées, stockées ou traitées.
Personne concernée par les données
Une personne dont les données personnelles sont collectées, conservées ou traitées, est particulièrement pertinente dans le contexte des lois sur la protection des données comme le RGPD.
Dé-identification
Le processus de suppression ou de masquage des identifiants personnels des ensembles de données, rendant difficile l'identification des individus, est utilisé pour protéger la confidentialité.
Apprentissage Profond
Un sous-ensemble d'apprentissage automatique impliquant des réseaux neuronaux avec plusieurs couches, permettant de modéliser des schémas complexes dans les données.
Hypertrucage
Médias synthétiques dans lesquels une personne dans une image ou une vidéo existante est remplacée par la ressemblance de quelqu'un d'autre, créée en utilisant des techniques d'apprentissage profond.
Confidentialité Différentielle
Un système pour partager publiquement des informations sur un ensemble de données en décrivant les tendances des groupes au sein de cet ensemble tout en préservant la confidentialité des informations individuelles.
Discrimination
En IA, cela se réfère à un traitement injuste des individus ou des groupes basé sur des biais dans les données ou les algorithmes, conduisant à des résultats inégaux.
Apprentissage Distribué
Une approche d'apprentissage automatique où les données d'entraînement sont réparties sur plusieurs appareils ou emplacements, et les modèles sont formés de manière collaborative sans partager les données brutes.
Adaptation de Domaine
Une technique en apprentissage automatique où un modèle entraîné dans un domaine est adapté pour fonctionner dans un domaine différent mais connexe.
Évaluation Dynamique des Risques
Le processus continu d'identification et d'évaluation des risques en temps réel, permettant des réponses opportunes aux menaces émergentes dans les systèmes d'IA.
Entreprises
IA de pointe
Le déploiement d'algorithmes d'intelligence artificielle sur des dispositifs périphériques, permettant le traitement des données et la prise de décisions à la source de génération des données.
Analyse de pointe
L'analyse des données à la périphérie du réseau, près de la source de génération des données, réduisant la latence et l'utilisation de la bande passante.
Apprentissage Collectif
Un paradigme d'apprentissage automatique où plusieurs modèles sont entraînés et combinés pour résoudre le même problème, améliorant ainsi la performance globale.
Résolution d'Entité
Le processus d'identification et de liaison des enregistrements faisant référence à la même entité du monde réel dans différents ensembles de données.
Enzai
Une plateforme de gouvernance de l'IA d'entreprise qui permet aux organisations de répertorier, d'évaluer et de contrôler leurs systèmes d'IA, assurant une adoption maximale de l'IA tout en minimisant les risques liés à l'IA.
IA Éthique
La pratique de concevoir, développer et déployer des systèmes d'intelligence artificielle d'une manière qui s'aligne sur des principes et valeurs éthiques, garantissant l'équité, la responsabilité et la transparence.
Audit d'IA Éthique
Le processus d'évaluation systématique des systèmes d'IA pour garantir leur conformité aux normes éthiques et éviter tout dommage.
Certification de l'IA Éthique
Une reconnaissance formelle qu'un système d'IA respecte les normes et directives éthiques établies.
Gouvernance Éthique de l'IA
Le cadre des politiques, procédures et pratiques qui garantissent que les systèmes d'IA sont développés et utilisés de manière responsable et éthique.
Cadres éthiques
Ensembles structurés de principes et de lignes directrices conçus pour guider le développement et le déploiement éthique des systèmes d'intelligence artificielle.
Pirate Éthique
La pratique consistant à explorer intentionnellement les systèmes pour en déceler les vulnérabilités afin d'identifier et de corriger les problèmes de sécurité, garantissant ainsi la robustesse des systèmes d'IA.
Évaluation de l'Impact Éthique
Un processus d'évaluation systématique pour identifier et traiter les implications éthiques ainsi que les impacts sociétaux potentiels des systèmes d'IA avant leur déploiement.
Risques éthiques
Le potentiel d'un système d'IA à causer des dommages en raison d'un comportement non éthique, notamment des préjugés, de la discrimination ou de la violation de la vie privée.
Principes Éthiques pour une IA de Confiance
Un ensemble de lignes directrices élaborées par le groupe d'experts de haut niveau sur l'IA de la Commission européenne pour promouvoir une IA digne de confiance, axée sur l'autonomie humaine, la robustesse technique, la confidentialité, la transparence, la diversité, le bien-être sociétal et la responsabilité.
Techniques d'explicabilité
Méthodes utilisées pour interpréter et comprendre les décisions prises par les modèles d'IA, telles que LIME, SHAP et les cartes de saillance.
Explicabilité vs Interprétabilité
Bien que les deux visent à rendre compréhensibles les décisions de l'IA, l'explicabilité se concentre sur le raisonnement derrière les décisions, tandis que l'interprétabilité se rapporte à la transparence des mécaniques internes du modèle.
Intelligence Artificielle Explicable (IAE)
Les systèmes d'IA conçus pour fournir des justifications compréhensibles par l'homme pour leurs décisions et actions, renforçant la transparence et la confiance.
Apprentissage Automatique Explicable
Modèles d'apprentissage automatique conçus pour fournir des explications claires et compréhensibles de leurs prédictions et décisions.
F
Équité
Assurer que les systèmes d'IA produisent des résultats impartiaux et équitables à travers différents individus et groupes, et atténuer les impacts discriminatoires.
Indicateurs d'Équité
Des mesures quantitatives (par exemple, parité démographique, chances égalisées) utilisées pour évaluer la justice des prédictions d'un modèle d'IA à travers différents groupes.
Faux négatif
Lorsqu'un modèle d'IA prédit incorrectement une classe négative pour un cas qui est en réalité positif (Erreur de Type II).
Faux Positif
Lorsqu'un modèle d'IA prédit incorrectement une classe positive pour un cas qui est en réalité négatif (erreur de Type I).
Tolérance aux pannes
La capacité d'un système d'IA à continuer de fonctionner correctement même lorsque certains composants échouent ou produisent des erreurs.
Ingénierie des fonctionnalités
Créer, sélectionner ou transformer des attributs de jeux de données bruts en fonctionnalités qui améliorent la performance des modèles d'apprentissage automatique.
Extraction de fonctionnalités
Le processus de conversion des données brutes (par exemple, texte, images) en représentations numériques (caractéristiques) adaptées à l'entrée dans des algorithmes d'apprentissage automatique.
Sélection de Fonctionnalités
Identifier et sélectionner les fonctionnalités les plus pertinentes pour l'entraînement du modèle afin de réduire la complexité et améliorer la précision.
Apprentissage Fédéré
Une approche de ML décentralisée où les modèles sont entraînés sur plusieurs appareils ou serveurs contenant des données locales, sans partager les données brutes de manière centralisée.
Boucle de Rétroaction
Un processus où les sorties de l'IA sont réintroduites comme entrées, ce qui peut amplifier le comportement du modèle — pour le meilleur (apprentissage par renforcement) ou pour le pire (renforcement des biais).
Ajustement Fin
Adapter un modèle d'IA pré-entraîné à une tâche spécifique ou à un ensemble de données en poursuivant la formation sur de nouvelles données, ce qui améliore souvent les performances spécifiques à la tâche.
Vérification Formelle
Prouver mathématiquement que les algorithmes d'IA respectent les propriétés de correction spécifiées, souvent utilisées dans des systèmes critiques pour la sécurité.
Cadre
Un ensemble structuré de politiques, de processus et d'outils guidant la gouvernance, le développement, le déploiement et la surveillance des systèmes d'IA.
Détection de fraude
Utiliser des techniques d'IA (par exemple, la détection d'anomalies, la reconnaissance de motifs) pour identifier et prévenir les activités frauduleuses dans le domaine de la finance, de l'assurance, etc.
Sécurité Fonctionnelle
Garantir que les systèmes d'IA fonctionnent en toute sécurité dans toutes les conditions, en particulier dans des secteurs tels que l'automobile ou la santé, souvent par le biais de redondances et de vérifications.
Logique floue
Un système de logique qui gère le raisonnement avec des valeurs approximatives, plutôt que des valeurs binaires vraies/faux—utile dans les systèmes de contrôle et la gestion de l'incertitude.
G
RGPD
Le Règlement général sur la protection des données (RGPD) de l'UE, établissant des exigences strictes pour la collecte et le traitement des données personnelles, ainsi que les droits individuels.
processeur graphique
Accélérateur matériel spécialisé pour les calculs parallèles, largement utilisé pour entraîner et exécuter efficacement des modèles d'IA à grande échelle.
Analyse des écarts
Le processus de comparaison des pratiques actuelles de gouvernance de l'IA avec les normes ou réglementations souhaitées afin d'identifier les domaines nécessitant des améliorations.
Généralisation
La capacité d'un modèle d'intelligence artificielle à bien performer sur des données nouvelles et inédites en capturant des motifs sous-jacents plutôt qu'en mémorisant des exemples d'entraînement.
Intelligence Artificielle Générative
Les techniques d'IA (par exemple, GANs, transformers) qui génèrent de nouveaux contenus—texte, images ou autres médias—soulèvent souvent des préoccupations inédites en matière de gouvernance et de propriété intellectuelle.
Modèle Global
Un modèle d'IA consolidé, formé sur des données agrégées provenant de multiples sources, contrairement aux modèles localisés ou personnalisés.
Gouvernance
L'ensemble des politiques, procédures, rôles et responsabilités qui guident le développement et le déploiement éthique, légal et efficace des systèmes d'IA.
Instance de gouvernance
Un groupe interfonctionnel (par exemple, juridique, éthique, technique) chargé de superviser les politiques de gouvernance de l'IA et leur mise en œuvre au sein d'une organisation.
Cadre de Gouvernance
Un modèle structuré décrivant comment les composants de la gouvernance de l'IA (gestion des risques, responsabilité, supervision) s'imbriquent pour garantir la conformité et l'utilisation éthique.
Modèle de Maturité en Gouvernance
Un cadre organisé qui évalue le degré d'avancement des pratiques de gouvernance de l'IA au sein d'une organisation, allant de l'ad-hoc à l'optimisé.
Politique de Gouvernance
Un document formel qui codifie les règles, rôles et procédures pour le développement et la supervision de l'IA au sein d'une organisation.
Tableau de bord de gouvernance
Un tableau de bord ou un rapport qui suit les indicateurs clés (par exemple, incidents de partialité, audits de conformité) pour évaluer l'efficacité de la gouvernance de l'IA au fil du temps.
Descente de Gradient
Un algorithme d'optimisation qui ajuste itérativement les paramètres du modèle dans une direction qui diminue minimalement la fonction de perte.
Consentement Granulaire
Une approche de la protection des données permettant aux individus d'accorder ou de refuser des permissions spécifiques pour chaque type d'utilisation des données, renforçant ainsi la transparence et le contrôle.
IA Verte
La pratique de réduire l'impact environnemental de l'IA grâce à des algorithmes économes en énergie et à des pratiques informatiques durables.
Modèle Boîte Grise
Un modèle dont la logique interne est partiellement transparente (certains composants sont interprétables, d'autres sont opaques), équilibrant performance et explicabilité.
Vérité de terrain
Les données ou étiquettes précises et réelles utilisées comme référence pour entraîner et évaluer les performances des modèles d'IA.
Garde-fous
Contraintes prédéfinies ou vérifications (techniques et politiques) intégrées dans les systèmes d'intelligence artificielle pour prévenir les comportements dangereux ou non conformes pendant l'exécution.
Directive (IA Éthique)
Une recommandation non contraignante ou un document de bonnes pratiques émis par des organisations (par exemple, IEEE, UE) pour orienter le développement et le déploiement responsable de l'IA.
Bonjour
Hallucination
Lorsque l'IA générative produit des informations incorrectes ou fabriquées qui semblent plausibles mais qui n'ont aucun fondement dans les données d'entraînement.
Gestion des données manquantes
Techniques (par exemple, imputation, suppression, modélisation) pour combler les lacunes dans les ensembles de données afin de maintenir l'intégrité et l'équité des modèles.
Accélérateur Matériel
Des puces spécialisées (par exemple, GPU, TPU) conçues pour accélérer les calculs d'IA, avec des implications pour la consommation d'énergie et les risques liés à la chaîne d'approvisionnement.
Évaluation des risques
Évaluer les impacts négatifs potentiels (physiques, psychologiques, sociétaux) des systèmes d'IA et définir des stratégies d'atténuation.
Harmonisation
Aligner les politiques, normes et réglementations sur l'IA à travers les juridictions pour réduire les conflits et favoriser l'interopérabilité.
Hachage
Le processus de conversion des données en une chaîne de caractères de taille fixe, utilisé pour les vérifications d'intégrité des données et le couplage d'enregistrements préservant la confidentialité.
Données Hétérogènes
La combinaison de données de différents types (texte, image, capteur) ou provenant de multiples domaines présente des défis en matière d'intégration et de gouvernance.
Heuristique
Une règle empirique ou une stratégie simplifiée de prise de décision utilisée pour accélérer les processus d'IA, échangeant souvent l'optimalité pour l'efficacité.
Évaluation heuristique
Une méthode d'inspection de l'utilisabilité où des experts évaluent un système d'IA par rapport à des principes d'utilisabilité établis afin d'identifier les problèmes potentiels.
IA à enjeux élevés
Les applications d'IA dont les défaillances pourraient causer des préjudices significatifs (par exemple, les diagnostics médicaux, les véhicules autonomes), nécessitant une gouvernance et une supervision accrues.
Supervision Humaine
Des mécanismes permettant à des individus désignés de surveiller, intervenir ou remplacer les décisions des systèmes d'IA afin d'assurer le respect des normes éthiques et légales.
Évaluation de l'impact sur les droits de l'homme
Un processus d'évaluation de l'impact des systèmes d'IA sur les droits fondamentaux (vie privée, expression, non-discrimination) et d'identification des mesures d'atténuation.
Humain dans le processus
Impliquer le jugement humain dans les processus d'IA (entraînement, validation, révision des décisions) pour améliorer la précision et la responsabilité.
Modèle Hybride
Les systèmes d'IA alliant plusieurs paradigmes d'apprentissage (par exemple, symbolique et neuronal) pour équilibrer l'explicabilité et la performance.
Hyperparamètre
Une variable de configuration (par exemple, taux d'apprentissage, profondeur d'arbre) définie avant l'entraînement du modèle qui influence le comportement d'apprentissage et les performances.
Optimisation des hyperparamètres
Le processus de recherche des valeurs optimales des hyperparamètres (par exemple, via une recherche en grille, l'optimisation bayésienne) pour maximiser la performance du modèle.
Je
ISO/IEC JTC 1/SC 42
Le comité conjoint ISO/IEC sur la normalisation de l'intelligence artificielle, développe des normes internationales d'IA pour la gouvernance, la gestion des risques et l'interopérabilité.
Données Déséquilibrées
Un ensemble de données dans lequel une classe ou catégorie dépasse significativement les autres, ce qui peut amener les modèles d'IA à privilégier la classe majoritaire, sauf en cas de mesures d'atténuation.
Registre Immuable
Un mécanisme de tenue de registres à l'épreuve des altérations (par exemple, la blockchain) qui garantit qu'une fois les données enregistrées, elles ne peuvent pas être modifiées sans être détectées, ce qui est utile pour les pistes d'audit de l'IA.
Évaluation d'Impact
Une évaluation structurée pour identifier, analyser et atténuer les impacts potentiels éthiques, juridiques et sociétaux d'un système d'IA avant son déploiement.
Biais Implicite
Les biais inconscients ou involontaires intégrés dans les données de formation ou la conception du modèle peuvent conduire à des résultats discriminatoires.
Alignement des incitations
La conception des structures de récompense et des objectifs afin que les buts des systèmes d'IA restent en adéquation avec les valeurs humaines et les priorités organisationnelles.
Biais Inductif
L'ensemble des hypothèses qu'un algorithme d'apprentissage utilise pour généraliser des données observées à des instances non vues.
Inférence
Le processus par lequel un modèle d'IA formé traite de nouvelles entrées de données pour produire des prédictions ou des décisions.
Moteur d'Inférence
Le composant d'un système d'intelligence artificielle (souvent dans des systèmes basés sur des règles ou des systèmes experts) qui applique une base de connaissances aux données d'entrée pour en tirer des conclusions.
Gouvernance de l'information
Les politiques, procédures et contrôles qui garantissent la qualité, la confidentialité et l'utilisabilité des données à travers les actifs de données d'une organisation, y compris les ensembles de données d'entraînement de l'IA.
Confidentialité de l'information
Le droit des individus de contrôler comment leurs données personnelles sont collectées, utilisées, stockées et partagées par les systèmes d'IA.
Infrastructure en tant que Code (IaC)
Gérer et provisionner l'infrastructure d'IA (calcul, stockage, réseau) par le biais de fichiers de configuration lisibles par machine, améliorant ainsi la reproductibilité et l'auditabilité.
Interopérabilité
La capacité des divers systèmes et composants d'IA à échanger, comprendre et utiliser des informations de manière transparente, souvent via des normes ouvertes ou des API.
Interprétabilité
Le degré auquel un être humain peut comprendre les mécanismes internes ou la logique décisionnelle d'un modèle d'IA.
Détection d'Intrusion
Surveillance de l'infrastructure et des applications d'intelligence artificielle afin de détecter toute activité malveillante ou tout manquement aux politiques, avec déclenchement d'alertes ou de réponses automatisées.
J
Matrice Jacobienne
En termes d'explicabilité de l'IA, la matrice de toutes les dérivées partielles d'ordre un des sorties d'un modèle par rapport à ses entrées, utilisée pour évaluer la sensibilité et l'importance des caractéristiques.
Attaque de Jailbreak
Un type d'injection de commande où les utilisateurs exploitent des vulnérabilités pour contourner les protections dans les modèles d'IA générative, ce qui peut potentiellement conduire à des résultats non sécurisés ou non autorisés.
Responsabilité Conjointe
Principe juridique selon lequel plusieurs parties (par exemple, développeurs, déployeurs) partagent la responsabilité des préjudices liés à l'IA, influençant les structures contractuelles et de gouvernance.
Modélisation Conjointe
Créer des systèmes d'IA qui apprennent conjointement plusieurs tâches (par exemple, reconnaissance vocale et traduction), avec une gouvernance nécessaire pour la complexité et l'auditabilité.
Biais de Jugement
Erreurs systématiques dans les processus de prise de décision humains ou d'IA causées par des raccourcis cognitifs ou des données erronées, nécessitant des audits et une atténuation des biais.
Révision Judiciaire
Le processus légal par lequel les tribunaux évaluent la légalité des décisions prises ou assistées par l'IA, garantissant la responsabilité et le respect des procédures.
Juridiction
L'autorité légale sur les données, les opérations liées à l'intelligence artificielle et la responsabilité, qui varie selon la géographie et impacte la conformité aux réglementations régionales (par exemple, RGPD, CCPA).
Automatisation du Jury
L'utilisation de l'IA pour aider à la sélection du jury ou à l'analyse des dossiers soulève des préoccupations éthiques concernant l'équité, la transparence et la supervision juridique.
Métriques de la Justice
Mesures quantitatives (par exemple, impact disparate, égalité des chances) utilisées pour évaluer l'équité et la non-discrimination dans la prise de décision par l'IA.
K
Indicateur Clé de Performance
Une métrique quantifiable (par exemple, la dérive de précision du modèle, le temps de correction des biais) utilisée pour surveiller et rendre compte des objectifs de gouvernance et de conformité de l'IA.
Indicateur Clé de Risque
Un indicateur clé (par exemple, la fréquence des prédictions hors cadre, le taux de décisions inexplicables) qui signale les risques émergents liés à l'IA avant qu'ils ne se concrétisent.
Connaître Votre Client (KYC)
Les processus de conformité pour vérifier l'identité, le profil de risque et la légitimité des individus ou des entités interagissant avec les systèmes d'IA, en particulier dans les industries réglementées.
Distillation des connaissances
Une méthode de transfert des connaissances d'un modèle « enseignant » plus grand vers un modèle « étudiant » plus petit, équilibrant la performance avec les contraintes de ressources et de gouvernance.
Graph de Connaissances
Une représentation structurée des entités et de leurs relations utilisée pour améliorer l'explicabilité de l'IA, l'auditabilité et l'alignement avec les ontologies de domaine.
Gestion des connaissances
Pratiques et outils pour capturer, organiser et partager les connaissances organisationnelles (par exemple, la documentation des modèles, les journaux d'audit) afin d'assurer la reproductibilité et la supervision.
L'entreprise
Fuite d'Étiquettes
L'inclusion involontaire d'informations de sortie dans les étiquettes des données d'entraînement, pouvant gonfler les indicateurs de performance et masquer les véritables problèmes de généralisation du modèle.
Modèle de Langage de Grande Envergure
Un modèle d'apprentissage profond entraîné sur de vastes corpus de texte, capable de réaliser des tâches telles que la génération de texte, la traduction et la synthèse, nécessitant souvent une gouvernance pour éviter les biais et les abus.
Moindre Privilège
Un principe de sécurité selon lequel les composants d'IA et les utilisateurs ne reçoivent que les droits d'accès minimaux nécessaires pour exécuter leurs fonctions, réduisant ainsi le risque d'utilisation abusive.
Conformité Légale
La pratique de garantir que les systèmes d'IA respectent les lois, règlements et normes industrielles applicables tout au long de leur cycle de vie.
Cadre de Responsabilité
Une approche structurée définissant qui est responsable des préjudices ou des échecs liés à l'IA, y compris les développeurs, les déployeurs et les opérateurs.
Gestion du Cycle de Vie
Les processus coordonnés pour le développement, le déploiement, la surveillance, la maintenance et le retrait des systèmes d'IA afin de garantir la conformité continue et le contrôle des risques.
Détection de vitalité
Techniques utilisées pour vérifier qu'une entrée (par exemple, biométrique) provient d'un sujet vivant plutôt que d'une fraude ou d'une répétition, renforçant ainsi la sécurité et l'intégrité du système.
Localisation
Adaptation des systèmes d'IA aux langues locales, aux réglementations, aux normes culturelles et aux exigences de résidence des données dans différentes juridictions.
Gestion des journaux
La collecte, le stockage et l'analyse des journaux de système et d'application issus des workflows d'IA pour soutenir l'audit, la gestion des incidents et le suivi des performances des modèles.
Fonction de Perte
Une fonction mathématique qui quantifie la différence entre les résultats prévus et les valeurs réelles, guidant ainsi la formation et l'optimisation du modèle.
M
Contrôle Humain Significatif
Une norme réglementaire et opérationnelle garantissant que les humains conservent la capacité de superviser, d'intervenir et de contrecarrer les processus décisionnels de l'IA.
Gestion des métadonnées
La pratique de capture et de maintien de données descriptives (par exemple, provenance des données, définitions des fonctionnalités, paramètres de modèle) pour soutenir la traçabilité et les audits.
Mesures et indicateurs clés de performance
Des mesures quantitatives (par exemple, dérive de précision, scores d'équité, temps de réponse aux incidents) utilisées pour surveiller la santé, les risques et les objectifs de conformité des systèmes d'IA.
Stratégies d'atténuation
Actions prévues (par exemple, la correction des biais, la reformation, la réingénierie des fonctionnalités) pour traiter les risques d'IA identifiés et les lacunes en matière de conformité.
Explicabilité du Modèle
Techniques et documentation qui rendent la logique décisionnelle d'un modèle d'IA compréhensible pour les parties prenantes et les auditeurs.
Gouvernance du Modèle
Les politiques, rôles et contrôles qui garantissent que les modèles d'IA sont développés, approuvés et utilisés conformément aux normes organisationnelles et aux exigences réglementaires.
Surveillance du Modèle
Suivi continu des performances d'un modèle d'IA, des dérives de données et des indicateurs opérationnels pour détecter toute dégradation ou nouveaux risques potentiels.
Réentraînement du Modèle
Le processus de mise à jour d’un modèle d'IA avec des données nouvelles ou actualisées pour maintenir la performance et la conformité à mesure que les distributions de données évoluent.
Gestion des risques du modèle
Le processus structuré d'identification, d'évaluation et de réduction des risques découlant des modèles IA/ML tout au long de leur cycle de vie.
Validation du modèle
Les activités d'évaluation (par exemple, tests sur des données de validation, scénarios de stress) qui confirment qu'un modèle d'IA répond à son objectif et à ses critères de performance.
Engagement Multi-Intervenants
Impliquer divers groupes (par exemple, juridique, éthique, opérations, utilisateurs finaux) dans les processus de gouvernance de l'intelligence artificielle pour garantir une supervision équilibrée des risques et une alignement avec les objectifs commerciaux.
Non
Cadre de Gestion des Risques de l'IA de NIST
Une orientation volontaire de l'Institut National des Standards et de la Technologie des États-Unis décrivant les meilleures pratiques pour atténuer les risques tout au long des cycles de vie des systèmes d'intelligence artificielle.
Traitement Automatique du Langage Naturel (TALN)
Techniques et outils qui permettent aux machines d'interpréter, de générer et d'analyser le langage humain sous forme de texte ou de parole.
Sécurité du Réseau
Mesures et contrôles (par exemple, segmentation, pare-feu, détection d'intrusion) pour protéger l'infrastructure de l'IA et les pipelines de données contre l'accès non autorisé ou la falsification.
Recherche d'Architecture Neurale
Méthodes automatisées pour concevoir et optimiser les structures de réseaux neuronaux afin d'améliorer la performance des modèles tout en équilibrant la complexité et les contraintes de ressources.
Injection de bruit
Introduction délibérée de perturbations aléatoires dans les données d'entraînement ou les paramètres du modèle afin d'améliorer la robustesse et de se protéger contre la manipulation malveillante.
Détection de Nouveautés
Techniques pour identifier les entrées ou scénarios qui diffèrent significativement des données d'entraînement, déclenchant une révision ou un mode de fonctionnement sécurisé afin de prévenir des défaillances inattendues.
O
Observabilité
La capacité de déduire l'état interne et le comportement d'un système d'IA par la collecte et l'analyse des journaux, des métriques et des résultats pour un suivi et un dépannage efficaces.
Surveillance Continue
Suivi continu des performances des systèmes d'IA, de la dérive des données, des métriques de biais et des événements de sécurité afin de détecter et traiter les risques émergents au fil du temps.
Opacité
L'absence de transparence dans la manière dont un modèle d'IA parvient à des décisions ou à des prédictions pose des défis en termes de confiance et de conformité réglementaire.
Résilience Opérationnelle
La capacité des systèmes d'intelligence artificielle et de leur infrastructure de soutien à anticiper, résister, se rétablir et s'adapter aux perturbations ou aux événements défavorables.
Orchestration
La coordination automatisée des flux de travail et des services d'IA—l'ingestion de données, la formation des modèles, le déploiement—assurant la conformité avec les politiques et la gouvernance des ressources.
Détection des valeurs aberrantes
Techniques pour identifier les points de données ou les prédictions modélisées qui s'écartent significativement des schémas attendus, déclenchant ainsi des actions de révision ou de mitigation.
Surapprentissage
Un problème de modélisation où un système d'IA apprend le bruit ou les particularités des données d'entraînement, réduisant ainsi sa capacité à généraliser à de nouvelles données non vues.
Supervision
Le processus structuré d'examen, d'approbation et de responsabilité pour le développement et le déploiement de l'IA, impliquant généralement des instances de gouvernance interfonctionnelles.
Propriété
La répartition claire des responsabilités et de l'autorité concernant les actifs IA—données, modèles, processus—pour garantir la responsabilité tout au long du cycle de vie du système.
P
Autorisation
La gestion des droits d'accès des utilisateurs et des systèmes aux données et fonctions de l'IA, garantissant le principe du moindre privilège et empêchant toute utilisation non autorisée.
Essai Pilote
Un essai à portée limitée d'un système d'IA dans un environnement contrôlé pour évaluer les performances, les risques et les contrôles de gouvernance avant le déploiement à grande échelle.
Mise en Application des Politiques
Les mécanismes automatisés ou manuels qui garantissent que les opérations d'IA respectent les politiques organisationnelles, les réglementations et les lignes directrices éthiques.
Surveillance post-déploiement
Observation continue du comportement du système d'IA et de l'environnement après le déploiement afin de détecter toute dégradation, dérive ou violation de conformité.
Maintenance Prédictive
Surveillance et analyse pilotées par l'IA pour prévoir les défaillances des composants ou des systèmes, assurant ainsi la résilience opérationnelle et la réduction des risques dans des environnements critiques.
Évaluation de l'impact sur la vie privée
Une analyse structurée pour identifier et atténuer les risques de confidentialité associés aux systèmes d'IA, couvrant la collecte, l'utilisation, le partage et la conservation des données.
Confidentialité dès la Conception
Une approche qui intègre la protection des données et les considérations de la vie privée des utilisateurs dans l'architecture et les processus des systèmes d'intelligence artificielle dès le départ.
Automatisation des Processus
Utilisation de l'IA et des outils de gestion des flux de travail pour rationaliser la gouvernance, les contrôles de conformité et les activités de réduction des risques, réduisant ainsi les efforts manuels et les erreurs.
Q
Évaluation Qualitative
L'évaluation subjective des comportements, des décisions et de la documentation des systèmes d'IA par des experts, visant à identifier les préoccupations éthiques, juridiques ou réputationnelles qui ne sont pas quantifiées.
Assurance Qualité
Les processus systématiques et les vérifications visant à garantir que les modèles d'IA et les flux de données répondent aux normes définies en termes de précision, de fiabilité et de conformité éthique.
Contrôle de Qualité
La vérification continue des résultats et des processus d'IA par rapport aux référentiels et aux cas de test, afin de détecter les défauts, les incidents de biais ou les violations de politique.
Évaluation Quantitative des Risques
Une évaluation fondée sur les données des menaces potentielles de l'IA, estimant les probabilités et les impacts de manière numérique afin de prioriser les efforts d'atténuation.
Calcul Quantique
Le paradigme computationnel émergent qui exploite la mécanique quantique pose de nouveaux défis de gouvernance en matière de sécurité, de standardisation et de gestion des risques.
Enregistrement des Requêtes
La pratique d'enregistrer les entrées du système d'IA et les requêtes des utilisateurs pour permettre des pistes d'audit, détecter les abus et soutenir la responsabilité.
Confidentialité des Requêtes
Techniques et politiques visant à protéger les informations sensibles dans les requêtes des utilisateurs, garantissant que les entrées enregistrées ne compromettent pas les données personnelles ou propriétaires.
Cadre de Questionnaire
Un ensemble structuré de questions axées sur la gouvernance utilisé lors de la conception, de l'acquisition ou du déploiement pour garantir que les systèmes d'IA sont conformes aux exigences réglementaires.
Quorum pour le Conseil de Gouvernance
Le nombre minimum de membres du comité de gouvernance requis pour être présents afin de prendre des décisions officielles concernant les risques liés à l'IA, les approbations de politiques ou les résultats d'audit.
Gestion des quotas
Les contrôles et limites imposés à l'utilisation des ressources d'IA (par exemple, appels API, temps de calcul) afin de appliquer les politiques de gouvernance et prévenir les coûts excessifs ou les abus.
R
Recours
Mécanismes permettant aux individus concernés de contester ou de demander un recours pour des décisions prises par l'IA qui affectent leurs droits ou leurs intérêts.
Équipe Rouge
Une approche proactive de test où des experts internes ou externes simulent des attaques ou des scénarios d'utilisation abusive afin de découvrir les vulnérabilités des systèmes d'intelligence artificielle.
Conformité Réglementaire
Garantir que les systèmes d'IA respectent les lois, réglementations et normes industrielles applicables (par exemple, RGPD, FDA, surveillance financière) tout au long de leur fonctionnement.
Reproductibilité
La capacité de régénérer systématiquement les résultats des modèles d'IA en utilisant les mêmes données, code et configurations, garantissant ainsi la transparence et l'auditabilité.
Matrice d'Attribution des Responsabilités
Un outil (par exemple, RACI) qui clarifie les rôles et les responsabilités pour chaque activité de gouvernance—qui est Responsable, Comptable, Consulté et Informé.
Intelligence Artificielle Responsable
La pratique de concevoir, développer et déployer des systèmes d'IA de manière éthique, transparente et responsable envers les parties prenantes et la société.
Évaluation des Risques
Le processus d'identification, d'analyse et de hiérarchisation des dommages ou défaillances potentiels dans les systèmes d'IA afin de déterminer les stratégies d'atténuation appropriées.
Cadre de Gestion des Risques
Un ensemble structuré de directives et de processus pour aborder systématiquement les risques liés à l'IA tout au long du cycle de vie du système, de la conception à la mise au rebut.
Robustesse
La capacité d'un système d'intelligence artificielle à maintenir une performance fiable dans une variété de conditions difficiles ou adverses.
Analyse des Causes Racines
Une enquête structurée visant à déterminer les raisons sous-jacentes des défaillances ou des comportements inattendus des systèmes d'IA, guidant les actions correctives.
S
Politique d'Utilisation Sanctionnée
Des règles et contrôles définis spécifiant les contextes, les utilisateurs et les objectifs approuvés pour le fonctionnement des systèmes d'intelligence artificielle afin de prévenir tout usage abusif.
Sécurité par Conception
Intégrer des contrôles de sécurité et des pratiques exemplaires dans les systèmes d'IA dès les premières phases de conception pour prévenir les vulnérabilités et les violations de données.
Intelligence Artificielle de l'Ombre
L'utilisation non autorisée de modèles d'IA, d'agents ou d'outils par les employés sans l'approbation du service informatique crée des vulnérabilités de sécurité cachées dues à des fuites de données et à des actions autonomes non autorisées.
Évaluation de l'Impact Sociétal
Une évaluation structurée de l'impact d'un système d'IA sur les aspects sociaux, économiques et culturels des communautés, identifiant les dommages potentiels et les avantages.
Cycle de vie du développement logiciel
Le processus de bout en bout (exigences, conception, construction, test, déploiement, surveillance) pour les applications d'IA, intégrant des vérifications de gouvernance et de conformité à chaque étape.
Engagement des parties prenantes
Le processus d'implication des parties affectées (par exemple, utilisateurs, régulateurs, communautés concernées) dans le développement et la supervision de l'IA afin de garantir des perspectives variées et leur approbation.
Risque de Surveillance
La menace que les systèmes d'IA puissent être exploités pour une surveillance intrusive des individus ou des groupes, portant atteinte à la vie privée et aux libertés civiles.
Données Synthétiques
Jeux de données générés artificiellement qui imitent les distributions de données réelles, utilisés pour augmenter les ensembles d'entraînement tout en protégeant la confidentialité.
T
Risque de queue
Le potentiel de résultats rares et extrêmes dans le comportement ou la prise de décision de l'IA qui dépassent les attentes normales et nécessitent une planification spéciale d'atténuation.
Test et Validation
Le processus systématique d'évaluation des modèles d'IA par rapport à des références, des cas limites et des conditions de stress pour garantir qu'ils répondent aux critères de performance, de sécurité et de conformité.
Risque lié aux tiers
L'exposition résultant de la dépendance envers des fournisseurs de données externes, des vendeurs de modèles ou des plateformes de services qui pourraient introduire des vulnérabilités de conformité ou de sécurité.
Paramétrage du Seuil
Définir des limites ou des valeurs seuil dans les règles de décision de l'IA (par exemple, les scores de confiance) afin de trouver un équilibre entre les risques tels que les faux positifs et les faux négatifs.
Traçabilité
La capacité de suivre et de documenter chaque étape du cycle de vie de l'IA, depuis la collecte de données jusqu'au développement du modèle et son déploiement, afin de soutenir l'audit et la criminalistique.
Ensemble de données de formation
La collection soigneusement sélectionnée de données annotées ou non annotées utilisée pour enseigner à un modèle d'intelligence artificielle les relations et les modèles qu'il doit apprendre pour accomplir sa tâche.
Apprentissage par Transfert
Une technique où un modèle développé pour une tâche est adapté à une tâche connexe, réduisant ainsi le temps de développement, mais nécessitant la gouvernance des biais hérités.
Transparence
La pratique consistant à rendre les processus des systèmes d'IA, la logique de décision, et l'utilisation des données clairs et compréhensibles pour les parties prenantes afin d'assurer la responsabilité.
IA fiable
Des systèmes d'IA conçus et exploités de manière éthique, fiable, sûre et en adéquation avec les valeurs humaines et les normes sociétales.
Vous
Sous-ajustement
Un problème de modélisation où un système d'IA est trop simpliste pour saisir les motifs sous-jacents des données, entraînant des performances médiocres tant sur les données d'entraînement que sur les nouvelles données.
Uniformité
Assurer une application cohérente des politiques, contrôles et normes à travers tous les systèmes d'IA pour éviter les lacunes de gouvernance ou une gestion des risques inégale.
Apprentissage Non Supervisé
Une approche d'apprentissage automatique où les modèles identifient des motifs ou des regroupements dans des données non étiquetées sans orientation explicite sur les résultats.
Surveillance de la disponibilité
Suivi continu de la disponibilité et des performances des systèmes d'IA pour détecter les pannes ou les dégradations pouvant affecter les opérations critiques ou les obligations de conformité.
Gouvernance des Cas d'Utilisation
La pratique de définir, approuver et surveiller des cas d'utilisation spécifiques de l'IA pour s'assurer que chacun est conforme aux politiques organisationnelles, aux normes éthiques et à l'appétit pour le risque.
Consentement de l'utilisateur
Le processus d'obtention et d'enregistrement d'une autorisation explicite de la part des individus avant de collecter, traiter ou utiliser leurs données personnelles dans des systèmes d'IA.
Utilité
Une mesure de la valeur ou de l'efficacité d'un système d'IA à atteindre ses objectifs visés, équilibrée par rapport aux risques ou aux coûts en ressources associés.
V
Validation
Le processus de confirmation qu'un modèle d'intelligence artificielle fonctionne de manière précise et fiable sur les tâches prévues et répond aux critères de performance définis.
Surveillance des Variances
Suivi des fluctuations des sorties des modèles d'IA ou des indicateurs de performance au fil du temps pour détecter les dérives et en déduire une éventuelle dégradation ou un risque.
Gestion des Risques Fournisseurs
Évaluer et surveiller les fournisseurs tiers de composants ou services d'IA pour identifier et atténuer les risques potentiels de conformité, de sécurité ou d'éthique.
Contrôle de Version
La pratique de la gestion et du suivi des modifications du code de l'IA, des modèles et des ensembles de données au fil du temps pour garantir la reproductibilité et l'auditabilité.
Autorité de Veto
Le droit formel détenu par un organe de gouvernance ou un intervenant pour bloquer ou exiger des modifications des déploiements d'IA présentant des risques inacceptables.
Surveillance de la Vigilance
Surveillance continue du comportement de l'IA et des signaux externes (par exemple, les mises à jour réglementaires) afin d'identifier et de répondre rapidement aux risques émergents ou aux non-conformités.
Surveillance IA Vision
Les processus de gouvernance spécifiques aux systèmes de vision par ordinateur, garantissant la qualité des données, les vérifications des biais et la transparence dans la prise de décision basée sur des images et des vidéos.
Évaluation des vulnérabilités
Identifier, analyser et prioriser les faiblesses de sécurité dans l'infrastructure et les applications d'IA afin de guider les efforts de remédiation.
W
Surveillance Surveillance
Contrôles d'exécution indépendants qui observent les décisions de l'IA et déclenchent des alertes ou des interventions lorsque des politiques ou des seuils sont enfreints.
Audit de Poids
Examiner les poids et les structures des modèles pour détecter des anomalies, des portes dérobées ou des biais pouvant indiquer une altération ou des comportements non souhaités.
Testage en boîte blanche
Évaluer les systèmes d'IA avec une pleine connaissance du fonctionnement interne (code, paramètres, architecture) pour vérifier l'exactitude, la sécurité et la conformité.
Politique de liste blanche/liste noire
Règle de gouvernance définissant les entrées, caractéristiques ou opérations autorisées (liste blanche) et interdites (liste noire) afin d'assurer la conformité et de prévenir tout abus.
Mise en liste blanche
Autoriser uniquement des sources de données, des bibliothèques ou des composants de modèle pré-approuvés dans les processus d'IA afin de réduire les risques liés à des éléments non vérifiés ou malveillants.
Orchestration des flux de travail
Automatisation et séquençage des tâches du cycle de vie de l'IA (ingestion de données, formation, validation, déploiement) pour appliquer les politiques de gouvernance et garantir la cohérence.
Segmentation des charges de travail
Séparer les environnements de calcul IA (par exemple, développement, test, production) et les domaines de données afin de limiter l'impact des pannes ou des violations de sécurité.
Analyse du pire des cas
Évaluer les échecs ou abus potentiels les plus extrêmes d'un système d'IA afin d'informer une atténuation des risques et une planification de contingence robustes.
Stockage WORM (Write-Once Read-Many)
Stockage immuable garantissant que les journaux, pistes d'audit et artefacts de modèles ne peuvent pas être modifiés une fois écrits, soutenant ainsi la non-répudiation et l'examen médico-légal.
X
X-Validation
Une technique de validation de modèle (souvent abrégée « X-Val ») qui partitionne les données en segments afin d'évaluer rigoureusement la généralisation du modèle et de détecter les surapprentissages.
XAI (IA Explicable)
Techniques et méthodes qui rendent le processus de décision d'un modèle d'IA transparent et compréhensible pour les humains, favorisant ainsi la responsabilité et la conformité.
Audit XAI
Un processus de révision qui évalue si les résultats de l'explicabilité de l'IA satisfont aux politiques internes et aux exigences réglementaires, garantissant une transparence suffisante.
Cadre XAI
Une approche structurée ou un ensemble de directives qu'organisations utilisent pour mettre en œuvre, mesurer et régir les pratiques d'explicabilité au sein de leurs systèmes d'IA.
Métriques XAI
Mesures quantitatives ou qualitatives (par exemple, scores d'importance des fonctionnalités, fidélité des explications) utilisées pour évaluer la qualité et la fiabilité des explications d'IA.
Oui
Règles YARA
Un ensemble de modèles de détection basés sur des signatures utilisés pour analyser les pipelines et les artefacts d'IA afin de détecter des codes malveillants connus ou des altérations.
Revue Annuelle de Conformité
Une évaluation annuelle des processus, des politiques et des systèmes de gouvernance de l'IA pour garantir une conformité continue aux réglementations et aux normes internes.
Z
Tolérance Zéro Défaut
Un principe de gouvernance visant l'absence d'erreurs ou de violations de politique dans les résultats de l'IA, soutenu par des cycles rigoureux de test, de surveillance et d'amélioration continue.
Vulnérabilité Zéro Jour
Une faille de sécurité précédemment inconnue dans le logiciel ou l'infrastructure d'IA qui peut être exploitée avant qu'un correctif ou une atténuation ne soit disponible.
Apprentissage sans supervision
Une capacité modèle pour gérer correctement les tâches ou classer les données sur lesquelles il n'a jamais été explicitement formé en utilisant des représentations de connaissances généralisées.
Contrôle d'accès par zone
Une approche de gouvernance réseau ou de données qui divise les ressources en zones avec des politiques distinctes, restreignant l'accès des systèmes d'IA en fonction de la sensibilité des données.
Rejoignez notre bulletin d'information
En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai
Rejoignez notre bulletin d'information
En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai
Rejoignez notre bulletin d'information
En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai
Rejoignez notre bulletin d'information
En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai
Gouvernance de l'IA
Gouvernance de l'IA
Infrastructure
Infrastructure
conçu pour la Confiance.
conçu pour la Confiance.
Donnez à votre organisation les moyens d'adopter, de gérer et de surveiller l'IA avec une confiance de niveau entreprise. Conçu pour les organisations réglementées opérant à grande échelle.
Connectez sans effort vos systèmes existants, vos politiques et vos flux de travail d'IA — le tout sur une plateforme unifiée.
Connectez sans effort vos systèmes existants, vos politiques et vos flux de travail d'IA — le tout sur une plateforme unifiée.

