Comprenez les termes et concepts clés de la gouvernance de l'IA grâce à des définitions simples pour vous aider à naviguer sur la plateforme Enzai.
L'inclusion involontaire d'informations de sortie dans les étiquettes de données d'entraînement, ce qui peut gonfler les indicateurs de performance et masquer de véritables problèmes de généralisation des modèles.
Pratiques et outils pour saisir, organiser et partager les connaissances organisationnelles (par exemple, documentation des modèles, journaux d'audit) afin d'assurer la reproductibilité et la supervision.
Techniques (par exemple, imputation, suppression, modélisation) pour combler les lacunes dans les ensembles de données afin de préserver l'intégrité et l'équité du modèle.
La collecte, le stockage et l'analyse des journaux des systèmes et des applications à partir des flux de travail d'IA pour faciliter l'audit, la réponse aux incidents et le suivi des performances des modèles.
Pratique consistant à saisir et à conserver des données descriptives (par exemple, provenance des données, définitions des caractéristiques, paramètres du modèle) pour faciliter la traçabilité et les audits.
Les contrôles et les limites imposés à l'utilisation des ressources d'IA (par exemple, les appels d'API, le temps de calcul) pour appliquer les politiques de gouvernance et prévenir les coûts excessifs ou les abus.
Évaluer et surveiller les fournisseurs tiers de composants ou de services d'IA afin d'identifier et d'atténuer les risques potentiels en matière de conformité, de sécurité ou d'éthique.
Processus structuré d'identification, d'évaluation et d'atténuation des risques liés aux modèles d'IA/ML tout au long de leur cycle de vie.
Processus d'identification, d'évaluation et d'atténuation des risques associés aux systèmes d'IA.
Les processus coordonnés de développement, de déploiement, de surveillance, de maintenance et de mise hors service des systèmes d'IA afin de garantir une conformité continue et un contrôle des risques.
La gestion basée sur des règles du flux de données tout au long de son cycle de vie : depuis la création et le stockage initial jusqu'au moment où il devient obsolète et est supprimé.
Ensemble de politiques, de procédures, de rôles et de responsabilités qui guident le développement et le déploiement éthiques, juridiques et efficaces des systèmes d'IA.
L'utilisation d'algorithmes pour gérer et réguler les fonctions de la société, ce qui peut avoir un impact sur les processus de prise de décision.
Cadre de politiques, de processus et de contrôles qui guident le développement et l'utilisation éthiques et efficaces des systèmes d'IA.
Les politiques, procédures et contrôles qui garantissent la qualité, la confidentialité et la facilité d'utilisation des données dans l'ensemble des actifs de données d'une organisation, y compris les ensembles de données de formation à l'IA.
Pratique qui consiste à définir, approuver et surveiller des cas d'utilisation spécifiques de l'IA afin de s'assurer que chacun est conforme aux politiques organisationnelles, aux normes éthiques et à la propension au risque.
Gestion globale de la disponibilité, de l'utilisabilité, de l'intégrité et de la sécurité des données dans une entreprise, garantissant que les données sont gérées correctement tout au long de leur cycle de vie.
Le cadre de politiques, de procédures et de pratiques qui garantit que les systèmes d'IA sont développés et utilisés de manière responsable et éthique.
Un modèle d'apprentissage profond basé sur de vastes corpus de textes qui peut effectuer des tâches telles que la génération, la traduction et la synthèse de textes, nécessitant souvent une gouvernance en matière de biais et d'abus.
Une représentation structurée des entités et de leurs relations utilisée pour améliorer l'explicabilité, l'auditabilité et l'alignement de l'IA avec les ontologies de domaine.
Capacité d'un modèle d'IA à bien fonctionner sur de nouvelles données invisibles en capturant des modèles sous-jacents plutôt que de mémoriser des exemples d'entraînement.
Lorsque l'IA générative produit des informations incorrectes ou fabriquées qui semblent plausibles mais qui n'ont aucun fondement dans les données d'entraînement.
Aligner les politiques, les normes et les réglementations en matière d'IA entre les juridictions afin de réduire les conflits et de permettre l'interopérabilité.
Règle empirique ou stratégie de prise de décision simplifiée utilisée pour accélérer les processus d'IA, en privilégiant souvent l'optimalité au profit de l'efficacité.
Une variable de configuration (par exemple, le taux d'apprentissage, la profondeur de l'arbre) définie avant l'entraînement du modèle qui influence le comportement d'apprentissage et les performances.
Des systèmes d'IA conçus pour fournir des justifications compréhensibles par l'homme à leurs décisions et à leurs actions, améliorant ainsi la transparence et la confiance.
Les techniques d'IA (par exemple, les GAN, les transformateurs) qui créent de nouveaux contenus (textes, images ou autres supports) soulèvent souvent de nouvelles préoccupations en matière de gouvernance et de propriété intellectuelle.
Pratique qui consiste à concevoir, développer et déployer des systèmes d'IA de manière éthique, transparente et responsable envers les parties prenantes et la société.
Les applications d'IA dont les défaillances pourraient causer des dommages importants (par exemple, diagnostic médical, véhicules autonomes), nécessitant une gouvernance et une supervision renforcées.
Pratique qui consiste à concevoir, développer et déployer des systèmes d'IA d'une manière conforme aux principes et valeurs éthiques, garantissant l'équité, la responsabilité et la transparence.
Le comité mixte ISO/IEC sur la normalisation de l'intelligence artificielle, qui élabore des normes internationales d'IA pour la gouvernance, les risques et l'interopérabilité.
Une métrique quantifiable (par exemple, la dérive de précision du modèle, le temps de correction des biais) utilisée pour surveiller et rendre compte des objectifs de gouvernance et de conformité de l'IA.
Un indicateur avancé (par exemple, la fréquence des prévisions hors du cadre, le taux de décisions inexplicables) qui signale les risques émergents liés à l'IA avant qu'ils ne se concrétisent.
Mesures quantitatives (par exemple, parité démographique, chances égalisées) utilisées pour évaluer dans quelle mesure les prédictions d'un modèle d'IA sont justes entre les groupes.
Sous-ensemble de l'IA qui simule les processus de pensée humains dans un modèle informatisé, dans le but de résoudre des problèmes complexes sans assistance humaine.
Le paradigme informatique émergent qui tire parti de la mécanique quantique, posant de nouveaux défis de gouvernance en matière de sécurité, de standardisation et de risque.
Gestion et provisionnement de l'infrastructure d'IA (calcul, stockage, réseau) via des fichiers de configuration lisibles par machine, améliorant ainsi la répétabilité et l'auditabilité.
Une méthode d'IA et de statistiques utilisée pour déterminer les relations de cause à effet, aidant à comprendre l'impact des interventions ou des changements de variables.
Création, sélection ou transformation d'attributs de jeu de données bruts en fonctionnalités qui améliorent les performances des modèles d'apprentissage automatique.
Introduction délibérée de perturbations aléatoires dans les données d'entraînement ou les paramètres du modèle afin d'améliorer la robustesse et de se prémunir contre les manipulations contradictoires.
La simulation des processus de l'intelligence humaine par des machines, en particulier des systèmes informatiques, y compris l'apprentissage, le raisonnement et l'autocorrection.
Type d'IA qui possède la capacité de comprendre, d'apprendre et d'appliquer les connaissances de manière généralisée, comme l'intelligence humaine.
La capacité de divers systèmes et composants d'IA à échanger, comprendre et utiliser des informations de manière fluide, souvent via des normes ouvertes ou des API.
Degré auquel un être humain peut comprendre les mécanismes internes ou les raisons de décision d'un modèle d'IA.
Plage de valeurs, dérivée de statistiques d'échantillons, susceptible de contenir la valeur d'un paramètre de population inconnu, utilisée en IA pour exprimer l'incertitude.
Pratique qui consiste à enregistrer les entrées du système d'IA et les requêtes des utilisateurs pour permettre des pistes d'audit, détecter les abus et favoriser la responsabilisation.
L'autorité légale en matière de données, d'opérations d'IA et de responsabilité, qui varie selon la zone géographique et a une incidence sur la conformité aux réglementations régionales (par exemple, le RGPD, le CCPA).
Un paradigme d'apprentissage automatique dans lequel plusieurs modèles sont entraînés et combinés pour résoudre le même problème, améliorant ainsi les performances globales.
Impliquer le jugement humain dans les processus d'IA (formation, validation, révision des décisions) pour améliorer la précision et la responsabilité.
Une approche qui intègre dès le départ les considérations relatives à la protection des données et à la confidentialité des utilisateurs dans l'architecture et les processus des systèmes d'IA.
Intégrer les contrôles de sécurité et les meilleures pratiques dans les systèmes d'IA dès les premières phases de conception afin de prévenir les vulnérabilités et les violations de données.
Un principe de sécurité selon lequel les composants de l'IA et les utilisateurs ne disposent que des droits d'accès minimaux nécessaires à l'exécution de leurs fonctions, réduisant ainsi le risque d'utilisation abusive.
Une recommandation non contraignante ou un document de bonnes pratiques émis par des organisations (par exemple, l'IEEE, l'UE) pour façonner le développement et le déploiement responsables de l'IA.
N'autoriser que les sources de données, les bibliothèques ou les composants de modèles préapprouvés dans les pipelines d'IA afin de réduire les risques liés à des éléments non vérifiés ou malveillants.
Adapter les systèmes d'IA aux langues locales, aux réglementations, aux normes culturelles et aux exigences de résidence des données dans différentes juridictions.
Système logique qui gère le raisonnement avec des valeurs approximatives plutôt que binaires vrai/faux, ce qui est utile dans les systèmes de contrôle et la gestion des incertitudes.
Surveillance et analyse pilotées par l'IA pour prévoir les défaillances des composants ou des systèmes, garantir la résilience opérationnelle et l'atténuation des risques dans les environnements critiques.
Un outil (par exemple, RACI) qui précise les rôles et les responsabilités pour chaque activité de gouvernance : qui est responsable, responsable, consulté et informé.
Dans l'explicabilité de l'IA, la matrice de toutes les dérivées partielles du premier ordre des sorties d'un modèle par rapport à ses entrées, est utilisée pour évaluer la sensibilité et l'importance des caractéristiques.
La compréhension des concepts, des capacités et des limites de l'IA, permettant une interaction informée avec les technologies d'IA.
Le principe qui consiste à ne collecter que les données nécessaires à une fin spécifique, afin de réduire le risque d'utilisation abusive ou de violation.
Un système d'IA dont le fonctionnement interne n'est ni transparent ni interprétable, ce qui rend difficile la compréhension de la façon dont les décisions sont prises.
Un modèle dont la logique interne est partiellement transparente (certains composants sont interprétables, d'autres opaques), équilibrant performance et explicabilité.
Les politiques, les rôles et les contrôles qui garantissent que les modèles d'IA sont développés, approuvés et utilisés conformément aux normes organisationnelles et aux exigences réglementaires.
Un cadre par étapes qui évalue le degré d'avancement des pratiques de gouvernance de l'IA d'une organisation, qu'il s'agisse de pratiques ad hoc ou optimisées.
Systèmes d'IA combinant plusieurs paradigmes d'apprentissage (par exemple, symbolique et neuronal) pour équilibrer explicabilité et performance.
Un modèle d'IA consolidé formé à partir de données agrégées provenant de sources multiples, par opposition à des modèles localisés ou personnalisés.
Création de systèmes d'IA capables d'apprendre conjointement plusieurs tâches (par exemple, reconnaissance vocale et traduction), avec une gouvernance nécessaire pour des raisons de complexité et d'auditabilité.
Composant d'un système d'IA (souvent basé sur des règles ou des systèmes experts) qui applique une base de connaissances pour saisir des données afin de tirer des conclusions.
Mesures quantitatives ou qualitatives (par exemple, scores d'importance des caractéristiques, fidélité des explications) utilisées pour évaluer la qualité et la fiabilité des explications de l'IA.
Mesures quantitatives (par exemple, impact disparate, égalité des chances) utilisées pour évaluer l'équité et la non-discrimination dans la prise de décisions en matière d'IA.
Mesures quantitatives (par exemple, dérive de précision, scores d'équité, temps de réponse aux incidents) utilisées pour surveiller la santé, les risques et les objectifs de conformité du système d'IA.
Capacité à déduire l'état et le comportement internes d'un système d'IA grâce à la collecte et à l'analyse de journaux, de mesures et de sorties pour une surveillance et un dépannage efficaces.
La coordination automatisée des flux de travail et des services d'IA (ingestion de données, formation de modèles, déploiement) garantit la conformité aux politiques et à la gouvernance des ressources.
Automatiser et séquencer les tâches du cycle de vie de l'IA (ingestion de données, formation, validation, déploiement) pour appliquer les politiques de gouvernance et garantir la cohérence.
Groupe interfonctionnel (juridique, éthique, technique, etc.) chargé de superviser les politiques de gouvernance de l'IA et leur exécution au sein d'une organisation.
Pratique qui consiste à sonder intentionnellement les systèmes à la recherche de vulnérabilités afin d'identifier et de résoudre les problèmes de sécurité, garantissant ainsi la robustesse des systèmes d'IA.
Règles et contrôles définis qui spécifient les contextes, les utilisateurs et les objectifs approuvés pour le fonctionnement du système d'IA afin d'empêcher toute utilisation abusive.
Document officiel qui codifie les règles, les rôles et les procédures pour le développement et la supervision de l'IA au sein d'une organisation.
Règle de gouvernance définissant les entrées, fonctionnalités ou opérations autorisées (liste blanche) et interdites (liste noire) afin de garantir la conformité et d'empêcher les abus.
Processus visant à protéger les informations importantes contre la corruption, la compromission ou la perte, en garantissant le respect des lois et réglementations en matière de protection des données.
État des données basé sur des facteurs tels que la précision, l'exhaustivité, la fiabilité et la pertinence, essentiels à la performance efficace des modèles d'IA.
Le nombre minimum de membres du comité de gouvernance devant être présents pour prendre des décisions officielles concernant les risques liés à l'IA, les approbations des politiques ou les résultats des audits.
Méthodes automatisées pour concevoir et optimiser les structures de réseaux neuronaux afin d'améliorer les performances des modèles tout en équilibrant la complexité et les contraintes de ressources.
Processus de mise à jour d'un modèle d'IA avec des données nouvelles ou actualisées afin de maintenir les performances et la conformité à mesure que les distributions de données évoluent.
Une approche de test proactive dans laquelle des experts internes ou externes simulent des attaques ou des scénarios d'utilisation abusive pour découvrir les vulnérabilités des systèmes d'IA.
Un mécanisme d'archivage inviolable (par exemple, une chaîne de blocs) garantissant qu'une fois les données écrites, elles ne peuvent pas être modifiées sans détection, ce qui est utile pour les pistes d'audit basées sur l'IA.
La capacité de régénérer de manière cohérente les résultats des modèles d'IA en utilisant les mêmes données, le même code et les mêmes configurations, garantissant ainsi la transparence et l'auditabilité.
Principe juridique selon lequel plusieurs parties (par exemple, les développeurs, les déployeurs) partagent la responsabilité des dommages liés à l'IA, influençant ainsi les structures contractuelles et de gouvernance.
L'obligation des développeurs et des opérateurs de systèmes d'IA de s'assurer que leurs systèmes sont conçus et utilisés de manière responsable, dans le respect des normes éthiques et des exigences légales.