Comprenez les termes et concepts clés de la gouvernance de l'IA grâce à des définitions simples pour vous aider à naviguer sur la plateforme Enzai.
Puces spécialisées (par exemple, GPU, TPU) conçues pour accélérer les calculs d'IA, avec des implications pour la consommation d'énergie et les risques liés à la chaîne d'approvisionnement.
Technique d'apprentissage automatique dans laquelle un modèle entraîné dans un domaine est adapté pour fonctionner dans un domaine différent mais connexe.
Ensemble de règles ou d'instructions données à un système d'IA pour l'aider à apprendre par lui-même.
Processus visant à garantir que les objectifs et les comportements des systèmes d'IA sont conformes aux valeurs et aux intentions humaines.
La conception de structures de récompense et d'objectifs afin que les objectifs des systèmes d'IA restent cohérents avec les valeurs humaines et les priorités organisationnelles.
Le phénomène selon lequel les systèmes d'IA exacerbent les biais existants présents dans les données de formation, entraînant des résultats de plus en plus biaisés.
Processus qui consiste à comparer les performances des systèmes d'IA à des indicateurs standard ou à d'autres systèmes afin d'évaluer leur efficacité.
Une enquête structurée visant à déterminer les raisons sous-jacentes des défaillances des systèmes d'IA ou des comportements inattendus, afin d'orienter les actions correctives.
Processus qui consiste à comparer les pratiques actuelles de gouvernance de l'IA aux normes ou réglementations souhaitées afin d'identifier les domaines nécessitant des améliorations.
Évaluer les défaillances ou les abus potentiels les plus extrêmes d'un système d'IA afin de contribuer à une atténuation des risques robuste et à une planification d'urgence.
Analyse des données en périphérie du réseau, à proximité de la source de génération des données, afin de réduire la latence et l'utilisation de la bande passante.
Les mécanismes automatisés ou manuels qui garantissent que les opérations d'IA respectent les politiques organisationnelles, les règles réglementaires et les directives éthiques.
Capacité d'un modèle à gérer correctement des tâches ou à classer des données sur lesquelles il n'a jamais été explicitement entraîné en tirant parti de représentations de connaissances généralisées.
Des modèles d'apprentissage automatique conçus pour fournir des explications claires et compréhensibles à leurs prévisions et décisions.
La capacité d'un système d'IA à apprendre et à s'adapter en permanence à partir de nouvelles entrées de données sans intervention humaine, s'améliorant au fil du temps.
Une approche d'apprentissage automatique dans laquelle les données d'entraînement sont distribuées sur plusieurs appareils ou sites, et les modèles sont entraînés de manière collaborative sans partager de données brutes.
Une approche de machine learning décentralisée dans laquelle les modèles sont entraînés sur plusieurs appareils ou serveurs contenant des données locales, sans partager les données brutes de manière centralisée.
Approche d'apprentissage automatique dans laquelle les modèles identifient des modèles ou des regroupements dans des données non étiquetées sans indication explicite des résultats.
Sous-ensemble de l'apprentissage automatique impliquant des réseaux de neurones à plusieurs couches, permettant de modéliser des modèles complexes dans les données.
Les processus et contrôles systématiques visant à garantir que les modèles d'IA et les pipelines de données répondent aux normes définies en matière de précision, de fiabilité et de conformité éthique.
Techniques qui manipulent les modèles d'IA en introduisant des entrées trompeuses pour provoquer des sorties incorrectes.
Type d'injection rapide par lequel les utilisateurs exploitent les vulnérabilités pour contourner les mesures de protection des modèles d'IA génératifs, ce qui peut entraîner des sorties dangereuses ou non autorisées.
L'évaluation systématique des systèmes d'IA pour évaluer la conformité aux normes éthiques, aux réglementations et aux mesures de performance.
Un processus d'évaluation visant à détecter et à atténuer les biais dans les systèmes d'IA, en garantissant l'équité et le respect des normes éthiques.
Examiner les poids et les structures des modèles pour détecter les anomalies, les portes dérobées ou les biais susceptibles d'indiquer une altération ou des comportements imprévus.
Processus d'évaluation systématique des systèmes d'IA pour s'assurer qu'ils sont conformes aux normes éthiques et qu'ils ne causent pas de dommages.
L'utilisation de l'IA pour faciliter la sélection des jurés ou l'analyse de cas, soulevant des préoccupations éthiques en matière d'équité, de transparence et de supervision légale.
Utilisation d'outils d'IA et de flux de travail pour rationaliser la gouvernance, les contrôles de conformité et les activités d'atténuation des risques, en réduisant les efforts manuels et les erreurs.
La gestion des droits d'accès des utilisateurs et des systèmes aux données et aux fonctions de l'IA, en garantissant le moindre privilège et en empêchant toute utilisation non autorisée.
Droit officiel détenu par un organe de gouvernance ou une partie prenante de bloquer ou d'exiger des modifications des déploiements d'IA qui présentent des risques inacceptables.
Biais qui se produit lorsqu'un algorithme produit des résultats présentant des préjugés systémiques en raison d'hypothèses erronées dans le processus d'apprentissage automatique.
Schémas systématiques d'écart par rapport à la norme ou de rationalité dans le jugement, qui peuvent influencer la prise de décision en matière d'IA s'ils sont présents dans les données d'entraînement.
Erreurs systématiques dans les processus décisionnels humains ou basés sur l'IA, causées par des raccourcis cognitifs ou des données erronées, nécessitant des audits et des mesures d'atténuation des biais.
Des erreurs systématiques dans les résultats de l'IA résultant de données d'entraînement partiales ou d'algorithmes erronés, entraînant des résultats injustes.
Des biais inconscients ou involontaires intégrés dans les données de formation ou dans la conception des modèles qui peuvent conduire à des résultats discriminatoires.
Ensemble d'hypothèses qu'un algorithme d'apprentissage utilise pour généraliser des données observées à des instances invisibles.
Processus dans lequel les résultats de l'IA sont renvoyés en tant qu'entrées, ce qui peut amplifier le comportement du modèle, pour le meilleur (apprentissage par renforcement) ou pour le pire (renforcement des biais).
Ensemble structuré de directives et de bonnes pratiques que les organisations suivent pour garantir que leurs systèmes d'IA répondent aux normes réglementaires et éthiques.
Un ensemble structuré de directives et de processus pour traiter systématiquement les risques liés à l'IA tout au long du cycle de vie du système, de la conception à la mise hors service.
Un guide volontaire de l'Institut national des normes et de la technologie des États-Unis décrivant les meilleures pratiques pour atténuer les risques tout au long du cycle de vie des systèmes d'IA.
Un modèle structuré décrivant comment les composants de la gouvernance de l'IA (gestion des risques, responsabilité, supervision) s'intègrent pour garantir la conformité et une utilisation éthique.
Une approche structurée qui définit qui est responsable des dommages ou des défaillances liés à l'IA, y compris les développeurs, les déployeurs et les opérateurs.
Ensemble structuré de questions axées sur la gouvernance utilisées lors de la conception, de l'approvisionnement ou du déploiement pour garantir que les systèmes d'IA sont conformes aux exigences des politiques.
Ensembles structurés de principes et de directives conçus pour guider le développement et le déploiement éthiques des systèmes d'IA.
Reconnaissance officielle qu'un système d'IA respecte les normes et directives éthiques établies.
La quantité totale d'effort mental utilisée dans la mémoire de travail, prise en compte par l'IA pour concevoir des systèmes qui ne submergent pas les utilisateurs.
Technique d'apprentissage supervisée dans le domaine de l'apprentissage automatique dans laquelle le modèle prédit la catégorie ou l'étiquette de classe des nouvelles observations en fonction des données d'entraînement.
L'évolution des propriétés statistiques de la variable cible, que le modèle essaie de prévoir, au fil du temps, entraîne une dégradation du modèle.
L'aspect des technologies de l'information qui traite de la capacité de contrôler quelles données sont partagées et avec qui, en veillant à ce que les données personnelles soient traitées de manière appropriée.
Le droit des individus de contrôler la manière dont leurs données personnelles sont collectées, utilisées, stockées et partagées par les systèmes d'IA.
Techniques et politiques visant à protéger les informations sensibles contenues dans les requêtes des utilisateurs, en veillant à ce que les entrées enregistrées ne compromettent pas les données personnelles ou exclusives.
Système permettant de partager publiquement des informations sur un ensemble de données en décrivant des modèles de groupes au sein de l'ensemble de données tout en ne divulguant pas d'informations sur des individus.
Le respect des systèmes d'IA aux lois, réglementations et directives éthiques applicables tout au long de leur cycle de vie.
Pratique qui consiste à s'assurer que les systèmes d'IA respectent les lois, réglementations et normes du secteur applicables tout au long de leur cycle de vie.
Veiller à ce que les systèmes d'IA respectent les lois, réglementations et normes du secteur applicables (par exemple, le RGPD, la FDA, la supervision financière) tout au long de leur fonctionnement.
Processus de conformité visant à vérifier l'identité, le profil de risque et la légitimité des individus ou des entités interagissant avec les systèmes d'IA, en particulier dans les secteurs réglementés.
Processus d'obtention et d'enregistrement de l'autorisation explicite des individus avant de collecter, de traiter ou d'utiliser leurs données personnelles dans des systèmes d'IA.
Une approche de confidentialité des données permettant aux individus d'accorder ou de refuser des autorisations spécifiques pour chaque type d'utilisation des données, améliorant ainsi la transparence et le contrôle.
La mesure dans laquelle les humains peuvent diriger, influencer ou annuler les décisions et les comportements d'un système d'IA.
Une approche de gouvernance des réseaux ou des données qui divise les ressources en zones avec des politiques distinctes, limitant l'accès au système d'IA en fonction de la sensibilité des données.
La vérification continue des résultats et des processus de l'IA par rapport à des benchmarks et à des cas de test afin de détecter les défauts, les incidents biaisés ou les violations des politiques.
Pratique qui consiste à gérer et à suivre les modifications apportées au code, aux modèles et aux ensembles de données d'IA au fil du temps afin de garantir la reproductibilité et l'auditabilité.
Le processus juridique par lequel les tribunaux évaluent la légalité des décisions prises ou assistées par l'IA, garantissant ainsi la responsabilité et la régularité de la procédure.
Pratique consistant à protéger les systèmes, les réseaux et les programmes contre les attaques numériques, essentielle pour protéger les systèmes d'IA contre les menaces.
Le processus de bout en bout (exigences, conception, création, test, déploiement, surveillance) pour les applications d'IA, intégrant des contrôles de gouvernance et de conformité à chaque étape.
Algorithme d'optimisation qui ajuste de manière itérative les paramètres du modèle dans le sens d'une diminution minimale de la fonction de perte.
Ensemble de lignes directrices élaborées par le groupe d'experts de haut niveau sur l'IA de la Commission européenne pour promouvoir une IA fiable, en mettant l'accent sur l'action humaine, la robustesse technique, la confidentialité, la transparence, la diversité, le bien-être de la société et la responsabilité.
Dans l'IA, fait référence au traitement injuste d'individus ou de groupes sur la base de biais dans les données ou les algorithmes, entraînant des résultats inégaux.
Méthode permettant de transférer les connaissances d'un modèle « enseignant » plus large vers un modèle « étudiant » plus restreint, en équilibrant les performances avec les contraintes en matière de ressources et de gouvernance.
Un ensemble de données dans lequel une classe ou une catégorie est nettement plus nombreuse que les autres, ce qui peut entraîner un biais des modèles d'IA en faveur de la classe majoritaire, à moins que cela ne soit atténué.
La combinaison de données de différents types (texte, image, capteur) ou provenant de plusieurs domaines pose des problèmes d'intégration et de gouvernance.
Ensembles de données générés artificiellement qui imitent les distributions de données réelles, utilisés pour augmenter les ensembles de formation tout en protégeant la confidentialité.
L'évolution des données d'entrée du modèle au fil du temps, qui peut entraîner une dégradation des performances du modèle si elle n'est pas surveillée et traitée.
Le processus qui consiste à supprimer ou à masquer les identificateurs personnels des ensembles de données, ce qui rend difficile l'identification des personnes, est utilisé pour protéger la vie privée.
Processus d'identification des biais dans les modèles d'IA en analysant leurs résultats et les processus de prise de décision.
Techniques permettant d'identifier les entrées ou les scénarios qui diffèrent de manière significative des données d'entraînement, de déclencher une révision ou de fonctionner en mode sécurisé pour éviter les défaillances inattendues.
Techniques utilisées pour vérifier qu'une entrée (biométrique, par exemple) provient d'un sujet en direct plutôt que d'une parodie ou d'une rediffusion, améliorant ainsi la sécurité et l'intégrité du système.
Utiliser des techniques d'IA (par exemple, détection d'anomalies, reconnaissance de formes) pour identifier et prévenir les activités frauduleuses dans les domaines de la finance, de l'assurance, etc.
Surveiller l'infrastructure et les applications d'IA pour détecter les activités malveillantes ou les violations des politiques, déclencher des alertes ou des réponses automatisées.
Techniques permettant d'identifier les points de données ou les prévisions du modèle qui s'écartent de manière significative des modèles attendus, déclenchant des actions de révision ou d'atténuation.
Processus consistant à impliquer les parties concernées (par exemple, les utilisateurs, les régulateurs, les communautés touchées) dans le développement et la supervision de l'IA afin de garantir la diversité des points de vue et l'adhésion.
Impliquer divers groupes (par exemple, les services juridiques, l'éthique, les opérations, les utilisateurs finaux) dans les processus de gouvernance de l'IA afin de garantir une surveillance équilibrée des risques et un alignement sur les objectifs commerciaux.
Approche d'apprentissage automatique dans laquelle le modèle est entraîné sur l'ensemble de données en une seule fois, par opposition à l'apprentissage incrémentiel.
Technique dans laquelle un modèle développé pour une tâche est adapté à une tâche connexe, ce qui réduit le temps de développement mais nécessite une gestion des biais hérités.
Collection organisée de données étiquetées ou non étiquetées utilisée pour enseigner à un modèle d'IA les relations et les modèles qu'il doit apprendre pour accomplir sa tâche.
La mesure dans laquelle les sorties d'un système d'IA reflètent correctement les données du monde réel ou les résultats escomptés.
Une évaluation annuelle des processus, des politiques et des systèmes de gouvernance de l'IA afin de garantir un alignement continu avec les réglementations et les normes internes.
La mesure dans laquelle les mécanismes internes d'un système d'IA peuvent être compris et interprétés par les humains.
Techniques et documentation qui rendent la logique de décision d'un modèle d'IA compréhensible pour les parties prenantes et les auditeurs.
Alors que les deux visent à rendre les décisions d'IA compréhensibles, l'explicabilité se concentre sur le raisonnement qui sous-tend les décisions, tandis que l'interprétabilité concerne la transparence de la mécanique interne du modèle.
Processus consistant à mapper des données brutes (par exemple, du texte, des images) en représentations numériques (caractéristiques) pouvant être saisies dans des algorithmes de machine learning.
Lorsqu'un modèle d'IA prédit de manière incorrecte une classe négative pour une instance qui est réellement positive (erreur de type II).
Lorsqu'un modèle d'IA prédit de manière incorrecte une classe positive pour une instance qui est réellement négative (erreur de type I).
Fonction mathématique qui quantifie la différence entre les sorties prévues et les valeurs réelles, guidant l'apprentissage et l'optimisation des modèles.
Une approche structurée ou un ensemble de directives que les organisations utilisent pour mettre en œuvre, mesurer et régir les pratiques d'explicabilité dans leurs systèmes d'IA.