Comprenez les termes et concepts clés de la gouvernance de l'IA grâce à des définitions simples pour vous aider à naviguer sur la plateforme Enzai.
La possibilité pour les systèmes d'IA de provoquer des dommages ou des conséquences imprévues, y compris des risques éthiques, juridiques et opérationnels.
Le risque de sanctions légales ou réglementaires, de pertes financières ou d'atteinte à la réputation auquel une organisation est confrontée en cas de non-respect des lois, des réglementations ou des pratiques prescrites.
Possibilité de résultats rares et extrêmes dans le comportement ou la prise de décisions de l'IA qui dépassent les attentes normales et nécessitent une planification d'atténuation spéciale.
La menace que les systèmes d'IA puissent être exploités pour surveiller de manière invasive des individus ou des groupes, portant ainsi atteinte à la vie privée et aux libertés civiles.
Exposition résultant du recours à des fournisseurs de données externes, à des fournisseurs de modèles ou à des plateformes de services susceptibles d'introduire des failles de conformité ou de sécurité.
Le risque qu'un système d'IA cause des dommages en raison d'un comportement contraire à l'éthique, notamment de partialité, de discrimination ou de violation de la vie privée.
La capacité d'un système d'IA à maintenir des performances fiables dans diverses conditions difficiles ou contradictoires.
Ensemble de modèles de détection basés sur les signatures utilisés pour analyser les pipelines et les artefacts d'IA à la recherche de code malveillant ou de falsification connus.
Techniques appliquées lors du développement de l'IA pour réduire ou éliminer les biais dans les modèles et les ensembles de données.
Processus de recherche des valeurs d'hyperparamètres optimales (par exemple, via une recherche par grille, une optimisation bayésienne) afin de maximiser les performances du modèle.
Définir des limites ou des valeurs limites dans les règles de décision de l'IA (par exemple, les scores de confiance) pour équilibrer les risques tels que les faux positifs par rapport aux faux négatifs.
Adapter un modèle d'IA pré-entraîné à une tâche ou à un ensemble de données spécifique en poursuivant la formation sur de nouvelles données, améliorant souvent les performances spécifiques à une tâche.
L'emplacement physique ou géographique des données d'une organisation, qui peut avoir des implications pour la conformité aux lois sur la protection des données.
La capacité des systèmes d'IA et de leur infrastructure de support à anticiper les perturbations ou les événements indésirables, à y résister, à s'en remettre et à s'y adapter.
Processus qui consiste à identifier et à relier des enregistrements faisant référence à la même entité du monde réel dans différents ensembles de données.
Algorithme d'entraînement utilisé dans les réseaux neuronaux qui ajuste les poids en propageant les erreurs vers l'arrière depuis la couche de sortie afin de minimiser les pertes.
Un problème de modélisation où un système d'IA est trop simple pour capturer des modèles de données sous-jacents, ce qui entraîne de mauvaises performances à la fois en matière de formation et de nouvelles données.
Le concept selon lequel les données sont soumises aux lois et aux structures de gouvernance du pays où elles sont collectées, stockées ou traitées.
Stockage immuable garantissant que les journaux, les pistes d'audit et les artefacts des modèles ne peuvent pas être modifiés une fois écrits, ce qui favorise la non-répudiation et l'examen médico-légal.
Actions prévues (par exemple, correction des biais, reconversion, réingénierie des fonctionnalités) pour remédier aux risques identifiés en matière d'IA et aux lacunes de conformité.
Personne dont les données personnelles sont collectées, conservées ou traitées, ce qui est particulièrement pertinent dans le contexte des lois sur la protection des données telles que le RGPD.
Processus structuré d'examen, d'approbation et de responsabilité pour le développement et le déploiement de l'IA, impliquant généralement des organes de gouvernance interfonctionnels.
Mécanismes qui permettent à des personnes désignées de surveiller, d'intervenir ou d'annuler les décisions relatives aux systèmes d'IA afin de garantir la conformité éthique et légale.
Problème de modélisation dans lequel un système d'IA apprend le bruit ou les particularités des données d'entraînement, réduisant ainsi sa capacité à généraliser à de nouvelles données invisibles.
Observation continue du comportement et de l'environnement des systèmes d'IA après leur publication afin de détecter les dégradations, les dérives ou les violations de conformité.
Suivi continu des performances des systèmes d'IA, de la dérive des données, des indicateurs de biais et des événements de sécurité afin de détecter et de gérer les risques émergents au fil du temps.
L'observation et l'analyse continues des performances des systèmes d'IA pour garantir la fiabilité, la sécurité et la conformité.
Suivi continu de la disponibilité et des performances des systèmes d'IA afin de détecter les pannes ou les dégradations susceptibles d'avoir un impact sur les opérations critiques ou les obligations de conformité.
Surveillance continue du comportement de l'IA et des signaux externes (par exemple, les mises à jour réglementaires) afin d'identifier et de répondre rapidement aux risques émergents ou à la non-conformité.
Des contrôles d'exécution indépendants qui observent les décisions de l'IA et déclenchent des alertes ou des interventions en cas de violation des politiques ou des seuils.
Suivi continu des performances, de la dérive des données et des mesures opérationnelles d'un modèle d'IA afin de détecter la dégradation ou les risques émergents.
Suivi des fluctuations des résultats des modèles d'IA ou des mesures de performance au fil du temps pour détecter toute dérive et déduire une dégradation ou un risque potentiel.
Mesures et contrôles (par exemple, segmentation, pare-feu, détection d'intrusion) pour protéger l'infrastructure d'IA et les pipelines de données contre tout accès non autorisé ou toute altération.
Veiller à ce que les systèmes d'IA fonctionnent en toute sécurité dans toutes les conditions, en particulier dans des secteurs tels que l'automobile ou la santé, souvent par le biais de la redondance et des contrôles.
Identifier et sélectionner les fonctionnalités les plus pertinentes pour l'entraînement des modèles afin de réduire la complexité et d'améliorer la précision.
Séparer les environnements informatiques de l'IA (par exemple, développement, test, production) et les domaines de données afin de limiter le rayon d'action des défaillances ou des failles de sécurité.
Un tableau de bord ou un bulletin qui permet de suivre les indicateurs clés (par exemple, les incidents liés aux biais, les audits de conformité) afin de mesurer l'efficacité de la gouvernance de l'IA au fil du temps.
Méthodes utilisées pour interpréter et comprendre les décisions prises par les modèles d'IA, telles que LIME, SHAP et les cartes de saillance.
Évaluer les systèmes d'IA avec une connaissance complète de leur fonctionnement interne (code, paramètres, architecture) afin de vérifier leur exactitude, leur sécurité et leur conformité.
Processus systématique d'évaluation des modèles d'IA par rapport à des points de référence, à des cas extrêmes et à des conditions de stress afin de s'assurer qu'ils répondent aux critères de performance, de sécurité et de conformité.
Un essai à portée limitée d'un système d'IA dans un environnement contrôlé pour évaluer les performances, les risques et les contrôles de gouvernance avant un déploiement à grande échelle.
La capacité d'un système d'IA à continuer à fonctionner correctement même lorsque certains composants tombent en panne ou génèrent des erreurs.
Un principe de gouvernance visant à éviter les erreurs ou les violations des politiques dans les résultats de l'IA, soutenu par des tests rigoureux, un suivi et des cycles d'amélioration continue.
Techniques et outils qui permettent aux machines d'interpréter, de générer et d'analyser le langage humain sous forme de texte ou de parole.
Pratique consistant à rendre les processus des systèmes d'IA, la logique de décision et l'utilisation des données clairs et compréhensibles pour les parties prenantes à des fins de responsabilisation.
Le principe selon lequel les systèmes d'IA doivent être ouverts et clairs quant à leurs opérations, leurs décisions et leur utilisation des données.
La capacité de suivre et de documenter chaque étape du cycle de vie de l'IA, de la collecte des données au développement de modèles en passant par le déploiement, afin de faciliter l'audit et la criminalistique.
Les systèmes d'IA sont conçus et exploités de manière éthique, fiable, sûre et conforme aux valeurs humaines et aux normes sociétales.
Garantir l'application cohérente des politiques, des contrôles et des normes dans tous les systèmes d'IA afin d'éviter les lacunes en matière de gouvernance ou la gestion inégale des risques.
Processus qui permet de confirmer qu'un modèle d'IA exécute de manière précise et fiable les tâches prévues et répond à des critères de performance définis.
Technique de validation de modèle (souvent abrégée « X-Val ») qui partitionne les données en plis afin d'évaluer rigoureusement la généralisation du modèle et de détecter le surajustement.
Technique de validation de modèles permettant d'évaluer comment les résultats d'une analyse statistique seront généralisés à un ensemble de données indépendant.
Les activités d'évaluation (par exemple, les tests par rapport à des données d'attente, des scénarios de crise) qui confirment qu'un modèle d'IA répond à son objectif et à ses critères de performance.
Les processus de gouvernance spécifiques aux systèmes de vision par ordinateur, garantissant la qualité des données, la vérification des biais et la transparence de la prise de décision basée sur l'image/la vidéo.
Domaine de l'IA qui entraîne les ordinateurs à interpréter et à traiter les informations visuelles du monde, telles que les images et les vidéos.
Faille de sécurité jusqu'alors inconnue dans un logiciel ou une infrastructure d'IA qui peut être exploitée avant qu'un correctif ou une atténuation ne soit disponible.
Prouver mathématiquement que les algorithmes d'IA sont conformes à des propriétés d'exactitude spécifiées, souvent utilisées dans les systèmes critiques pour la sécurité.
Les données ou étiquettes précises et réelles utilisées comme référence pour entraîner et évaluer les performances des modèles d'IA.
Techniques et méthodes qui rendent le processus de décision d'un modèle d'IA transparent et compréhensible pour les humains, renforçant ainsi la responsabilité et la conformité.
Le domaine concerné par les implications morales et les responsabilités associées au développement et au déploiement des technologies d'IA.
Branche de l'éthique qui évalue les pratiques en matière de données en ce qui concerne les obligations morales liées à la collecte, à la protection et à l'utilisation des informations personnelles identifiables.
Évaluation structurée visant à identifier, analyser et atténuer les impacts éthiques, juridiques et sociétaux potentiels d'un système d'IA avant son déploiement.
Processus visant à évaluer la manière dont les systèmes d'IA affectent les droits fondamentaux (vie privée, expression, non-discrimination) et à identifier des mesures d'atténuation.
Une évaluation structurée de la manière dont un système d'IA affecte les aspects sociaux, économiques et culturels des communautés, en identifiant les inconvénients et les avantages potentiels.
Une analyse structurée visant à identifier et à atténuer les risques de confidentialité associés aux systèmes d'IA, couvrant la collecte, l'utilisation, le partage et la conservation des données.
Un processus d'évaluation systématique visant à identifier et à traiter les implications éthiques et les impacts sociétaux potentiels des systèmes d'IA avant leur déploiement.
Processus visant à déterminer si un système d'IA répond à des exigences, à des normes ou à des réglementations spécifiques, impliquant souvent des tests et une certification.
Identifier, analyser et hiérarchiser les faiblesses de sécurité de l'infrastructure et des applications d'IA afin de guider les efforts de remédiation.
Évaluer les impacts négatifs potentiels (physiques, psychologiques, sociétaux) des systèmes d'IA et définir des stratégies d'atténuation.
Processus d'identification, d'analyse et de hiérarchisation des dommages ou défaillances potentiels des systèmes d'IA afin de déterminer les stratégies d'atténuation appropriées.
Le processus continu d'identification et d'évaluation des risques en temps réel, permettant de réagir rapidement aux menaces émergentes dans les systèmes d'IA.
Méthode d'inspection de l'utilisabilité par laquelle des experts évaluent un système d'IA par rapport à des principes d'utilisabilité établis afin d'identifier les problèmes potentiels.
L'examen subjectif des comportements, des décisions et de la documentation des systèmes d'IA par des experts afin d'identifier les problèmes éthiques, juridiques ou de réputation non capturés quantitativement.
Une évaluation basée sur les données des menaces potentielles liées à l'IA, en estimant les probabilités et les impacts numériquement afin de hiérarchiser les efforts d'atténuation.