Glossaire de la gouvernance de l'IA.

Comprenez les termes et concepts clés de la gouvernance de l'IA grâce à des définitions simples pour vous aider à naviguer sur la plateforme Enzai.

Merci ! Votre candidature a été reçue !
Oups ! Une erreur s'est produite lors de l'envoi du formulaire.
Risque d'IA

La possibilité pour les systèmes d'IA de provoquer des dommages ou des conséquences imprévues, y compris des risques éthiques, juridiques et opérationnels.

Risque de conformité

Le risque de sanctions légales ou réglementaires, de pertes financières ou d'atteinte à la réputation auquel une organisation est confrontée en cas de non-respect des lois, des réglementations ou des pratiques prescrites.

Risque de queue

Possibilité de résultats rares et extrêmes dans le comportement ou la prise de décisions de l'IA qui dépassent les attentes normales et nécessitent une planification d'atténuation spéciale.

Risque de surveillance

La menace que les systèmes d'IA puissent être exploités pour surveiller de manière invasive des individus ou des groupes, portant ainsi atteinte à la vie privée et aux libertés civiles.

Risque lié aux tiers

Exposition résultant du recours à des fournisseurs de données externes, à des fournisseurs de modèles ou à des plateformes de services susceptibles d'introduire des failles de conformité ou de sécurité.

Risque éthique

Le risque qu'un système d'IA cause des dommages en raison d'un comportement contraire à l'éthique, notamment de partialité, de discrimination ou de violation de la vie privée.

Robot

Application logicielle qui exécute des tâches automatisées, souvent utilisée dans l'IA pour des tâches telles que le service client ou la collecte de données.

Robustesse

La capacité d'un système d'IA à maintenir des performances fiables dans diverses conditions difficiles ou contradictoires.

Règles YARA

Ensemble de modèles de détection basés sur les signatures utilisés pour analyser les pipelines et les artefacts d'IA à la recherche de code malveillant ou de falsification connus.

Réduction des biais

Techniques appliquées lors du développement de l'IA pour réduire ou éliminer les biais dans les modèles et les ensembles de données.

Réglage des hyperparamètres

Processus de recherche des valeurs d'hyperparamètres optimales (par exemple, via une recherche par grille, une optimisation bayésienne) afin de maximiser les performances du modèle.

Réglage du seuil

Définir des limites ou des valeurs limites dans les règles de décision de l'IA (par exemple, les scores de confiance) pour équilibrer les risques tels que les faux positifs par rapport aux faux négatifs.

Réglage fin

Adapter un modèle d'IA pré-entraîné à une tâche ou à un ensemble de données spécifique en poursuivant la formation sur de nouvelles données, améliorant souvent les performances spécifiques à une tâche.

Résidence des données

L'emplacement physique ou géographique des données d'une organisation, qui peut avoir des implications pour la conformité aux lois sur la protection des données.

Résilience opérationnelle

La capacité des systèmes d'IA et de leur infrastructure de support à anticiper les perturbations ou les événements indésirables, à y résister, à s'en remettre et à s'y adapter.

Résolution des entités

Processus qui consiste à identifier et à relier des enregistrements faisant référence à la même entité du monde réel dans différents ensembles de données.

Rétropropagation

Algorithme d'entraînement utilisé dans les réseaux neuronaux qui ajuste les poids en propageant les erreurs vers l'arrière depuis la couche de sortie afin de minimiser les pertes.

Sous-ajustement

Un problème de modélisation où un système d'IA est trop simple pour capturer des modèles de données sous-jacents, ce qui entraîne de mauvaises performances à la fois en matière de formation et de nouvelles données.

Souveraineté des données

Le concept selon lequel les données sont soumises aux lois et aux structures de gouvernance du pays où elles sont collectées, stockées ou traitées.

Stockage WORM (Write Once Read Many)

Stockage immuable garantissant que les journaux, les pistes d'audit et les artefacts des modèles ne peuvent pas être modifiés une fois écrits, ce qui favorise la non-répudiation et l'examen médico-légal.

Stratégies d'atténuation

Actions prévues (par exemple, correction des biais, reconversion, réingénierie des fonctionnalités) pour remédier aux risques identifiés en matière d'IA et aux lacunes de conformité.

Sujet des données

Personne dont les données personnelles sont collectées, conservées ou traitées, ce qui est particulièrement pertinent dans le contexte des lois sur la protection des données telles que le RGPD.

Supervision

Processus structuré d'examen, d'approbation et de responsabilité pour le développement et le déploiement de l'IA, impliquant généralement des organes de gouvernance interfonctionnels.

Supervision humaine

Mécanismes qui permettent à des personnes désignées de surveiller, d'intervenir ou d'annuler les décisions relatives aux systèmes d'IA afin de garantir la conformité éthique et légale.

Surajustement

Problème de modélisation dans lequel un système d'IA apprend le bruit ou les particularités des données d'entraînement, réduisant ainsi sa capacité à généraliser à de nouvelles données invisibles.

Surveillance après le déploiement

Observation continue du comportement et de l'environnement des systèmes d'IA après leur publication afin de détecter les dégradations, les dérives ou les violations de conformité.

Surveillance continue

Suivi continu des performances des systèmes d'IA, de la dérive des données, des indicateurs de biais et des événements de sécurité afin de détecter et de gérer les risques émergents au fil du temps.

Surveillance de l'IA

L'observation et l'analyse continues des performances des systèmes d'IA pour garantir la fiabilité, la sécurité et la conformité.

Surveillance de la disponibilité

Suivi continu de la disponibilité et des performances des systèmes d'IA afin de détecter les pannes ou les dégradations susceptibles d'avoir un impact sur les opérations critiques ou les obligations de conformité.

Surveillance de la vigilance

Surveillance continue du comportement de l'IA et des signaux externes (par exemple, les mises à jour réglementaires) afin d'identifier et de répondre rapidement aux risques émergents ou à la non-conformité.

Surveillance des chiens de garde

Des contrôles d'exécution indépendants qui observent les décisions de l'IA et déclenchent des alertes ou des interventions en cas de violation des politiques ou des seuils.

Surveillance des modèles

Suivi continu des performances, de la dérive des données et des mesures opérationnelles d'un modèle d'IA afin de détecter la dégradation ou les risques émergents.

Surveillance des écarts

Suivi des fluctuations des résultats des modèles d'IA ou des mesures de performance au fil du temps pour détecter toute dérive et déduire une dégradation ou un risque potentiel.

Sécurité du réseau

Mesures et contrôles (par exemple, segmentation, pare-feu, détection d'intrusion) pour protéger l'infrastructure d'IA et les pipelines de données contre tout accès non autorisé ou toute altération.

Sécurité fonctionnelle

Veiller à ce que les systèmes d'IA fonctionnent en toute sécurité dans toutes les conditions, en particulier dans des secteurs tels que l'automobile ou la santé, souvent par le biais de la redondance et des contrôles.

Sélection des fonctionnalités

Identifier et sélectionner les fonctionnalités les plus pertinentes pour l'entraînement des modèles afin de réduire la complexité et d'améliorer la précision.

Séparation de la charge

Séparer les environnements informatiques de l'IA (par exemple, développement, test, production) et les domaines de données afin de limiter le rayon d'action des défaillances ou des failles de sécurité.

Tableau de bord de la gouvernance

Un tableau de bord ou un bulletin qui permet de suivre les indicateurs clés (par exemple, les incidents liés aux biais, les audits de conformité) afin de mesurer l'efficacité de la gouvernance de l'IA au fil du temps.

Techniques d'explicabilité

Méthodes utilisées pour interpréter et comprendre les décisions prises par les modèles d'IA, telles que LIME, SHAP et les cartes de saillance.

Test en boîte blanche

Évaluer les systèmes d'IA avec une connaissance complète de leur fonctionnement interne (code, paramètres, architecture) afin de vérifier leur exactitude, leur sécurité et leur conformité.

Tests et validation

Processus systématique d'évaluation des modèles d'IA par rapport à des points de référence, à des cas extrêmes et à des conditions de stress afin de s'assurer qu'ils répondent aux critères de performance, de sécurité et de conformité.

Tests pilotes

Un essai à portée limitée d'un système d'IA dans un environnement contrôlé pour évaluer les performances, les risques et les contrôles de gouvernance avant un déploiement à grande échelle.

Tolérance aux pannes

La capacité d'un système d'IA à continuer à fonctionner correctement même lorsque certains composants tombent en panne ou génèrent des erreurs.

Tolérance zéro défaut

Un principe de gouvernance visant à éviter les erreurs ou les violations des politiques dans les résultats de l'IA, soutenu par des tests rigoureux, un suivi et des cycles d'amélioration continue.

Traitement du langage naturel (NLP)

Techniques et outils qui permettent aux machines d'interpréter, de générer et d'analyser le langage humain sous forme de texte ou de parole.

Transparence

Pratique consistant à rendre les processus des systèmes d'IA, la logique de décision et l'utilisation des données clairs et compréhensibles pour les parties prenantes à des fins de responsabilisation.

Transparence des IA

Le principe selon lequel les systèmes d'IA doivent être ouverts et clairs quant à leurs opérations, leurs décisions et leur utilisation des données.

Traçabilité

La capacité de suivre et de documenter chaque étape du cycle de vie de l'IA, de la collecte des données au développement de modèles en passant par le déploiement, afin de faciliter l'audit et la criminalistique.

Une IA fiable

Les systèmes d'IA sont conçus et exploités de manière éthique, fiable, sûre et conforme aux valeurs humaines et aux normes sociétales.

Uniformité

Garantir l'application cohérente des politiques, des contrôles et des normes dans tous les systèmes d'IA afin d'éviter les lacunes en matière de gouvernance ou la gestion inégale des risques.

Utilité

Mesure de la valeur ou de l'efficacité d'un système d'IA pour atteindre ses objectifs, en tenant compte des risques associés ou des coûts liés aux ressources.

Validation

Processus qui permet de confirmer qu'un modèle d'IA exécute de manière précise et fiable les tâches prévues et répond à des critères de performance définis.

Validation X

Technique de validation de modèle (souvent abrégée « X-Val ») qui partitionne les données en plis afin d'évaluer rigoureusement la généralisation du modèle et de détecter le surajustement.

Validation croisée

Technique de validation de modèles permettant d'évaluer comment les résultats d'une analyse statistique seront généralisés à un ensemble de données indépendant.

Validation du modèle

Les activités d'évaluation (par exemple, les tests par rapport à des données d'attente, des scénarios de crise) qui confirment qu'un modèle d'IA répond à son objectif et à ses critères de performance.

Vision et supervision de l'IA

Les processus de gouvernance spécifiques aux systèmes de vision par ordinateur, garantissant la qualité des données, la vérification des biais et la transparence de la prise de décision basée sur l'image/la vidéo.

Vision par ordinateur

Domaine de l'IA qui entraîne les ordinateurs à interpréter et à traiter les informations visuelles du monde, telles que les images et les vidéos.

Vulnérabilité Zero-Day

Faille de sécurité jusqu'alors inconnue dans un logiciel ou une infrastructure d'IA qui peut être exploitée avant qu'un correctif ou une atténuation ne soit disponible.

Vérification formelle

Prouver mathématiquement que les algorithmes d'IA sont conformes à des propriétés d'exactitude spécifiées, souvent utilisées dans les systèmes critiques pour la sécurité.

Vérité fondamentale

Les données ou étiquettes précises et réelles utilisées comme référence pour entraîner et évaluer les performances des modèles d'IA.

XAI (IA explicable)

Techniques et méthodes qui rendent le processus de décision d'un modèle d'IA transparent et compréhensible pour les humains, renforçant ainsi la responsabilité et la conformité.

Équité

Veiller à ce que les systèmes d'IA produisent des résultats impartiaux et équitables pour les différents individus et groupes, et atténuer les impacts discriminatoires.

Éthique de l'IA

Le domaine concerné par les implications morales et les responsabilités associées au développement et au déploiement des technologies d'IA.

Éthique des données

Branche de l'éthique qui évalue les pratiques en matière de données en ce qui concerne les obligations morales liées à la collecte, à la protection et à l'utilisation des informations personnelles identifiables.

Évaluation d'impact

Évaluation structurée visant à identifier, analyser et atténuer les impacts éthiques, juridiques et sociétaux potentiels d'un système d'IA avant son déploiement.

Évaluation d'impact sur les droits de l'homme

Processus visant à évaluer la manière dont les systèmes d'IA affectent les droits fondamentaux (vie privée, expression, non-discrimination) et à identifier des mesures d'atténuation.

Évaluation de l'impact sociétal

Une évaluation structurée de la manière dont un système d'IA affecte les aspects sociaux, économiques et culturels des communautés, en identifiant les inconvénients et les avantages potentiels.

Évaluation de l'impact sur la confidentialité

Une analyse structurée visant à identifier et à atténuer les risques de confidentialité associés aux systèmes d'IA, couvrant la collecte, l'utilisation, le partage et la conservation des données.

Évaluation de l'impact éthique

Un processus d'évaluation systématique visant à identifier et à traiter les implications éthiques et les impacts sociétaux potentiels des systèmes d'IA avant leur déploiement.

Évaluation de la conformité

Processus visant à déterminer si un système d'IA répond à des exigences, à des normes ou à des réglementations spécifiques, impliquant souvent des tests et une certification.

Évaluation de la vulnérabilité

Identifier, analyser et hiérarchiser les faiblesses de sécurité de l'infrastructure et des applications d'IA afin de guider les efforts de remédiation.

Évaluation des dommages

Évaluer les impacts négatifs potentiels (physiques, psychologiques, sociétaux) des systèmes d'IA et définir des stratégies d'atténuation.

Évaluation des risques

Processus d'identification, d'analyse et de hiérarchisation des dommages ou défaillances potentiels des systèmes d'IA afin de déterminer les stratégies d'atténuation appropriées.

Évaluation dynamique des risques

Le processus continu d'identification et d'évaluation des risques en temps réel, permettant de réagir rapidement aux menaces émergentes dans les systèmes d'IA.

Évaluation heuristique

Méthode d'inspection de l'utilisabilité par laquelle des experts évaluent un système d'IA par rapport à des principes d'utilisabilité établis afin d'identifier les problèmes potentiels.

Évaluation qualitative

L'examen subjectif des comportements, des décisions et de la documentation des systèmes d'IA par des experts afin d'identifier les problèmes éthiques, juridiques ou de réputation non capturés quantitativement.

Évaluation quantitative des risques

Une évaluation basée sur les données des menaces potentielles liées à l'IA, en estimant les probabilités et les impacts numériquement afin de hiérarchiser les efforts d'atténuation.