À qui c'est destiné
Habiliter chaque équipe chargée de la gouvernance de l'IA
Enzai permet aux responsables des risques, de la conformité, du droit, de l'approvisionnement et de l'informatique de régir l'IA tierce via une plateforme unique.
Enzai vous aide à suivre, évaluer et gérer les produits et systèmes d'IA dont dépend votre organisation, même si vous ne les avez pas créés.
Les outils d'IA de fournisseurs tiers façonnent les décisions, les expériences et les résultats au sein de votre organisation. Enzai vous donne la visibilité et le contrôle nécessaires pour les gérer en toute confiance.
Cartographiez et surveillez tous les produits et systèmes tiers utilisés dans votre organisation.
Évaluez les fournisseurs en fonction des profils de risque, de la posture de conformité et du contexte d'utilisation.
Surveillez la façon dont les décisions relatives à l'IA sont prises, enregistrées et communiquées au sein de votre organisation.
Générez des rapports et une documentation clairs pour la supervision, la conformité et les audits.
Enzai vous offre une supervision structurée de l'ensemble du paysage externe de l'IA.
Enzai crée une carte connectée de votre écosystème d'IA tiers, reliant les fournisseurs à leurs produits, et les produits aux systèmes d'IA sur lesquels ils s'appuient. Pas de conjectures, contexte complet.
Les fournisseurs soumettent en toute sécurité leurs coordonnées et les informations sur les produits via un portail dédié aux fournisseurs, garantissant ainsi la sécurité de vos données et la mise à jour de leurs informations.
Définissez vos exigences de conformité à chaque niveau : fournisseur, produit et système. Enzai vous permet de créer et d'appliquer des ensembles de contrôles qui s'adaptent aux risques, au contexte et aux besoins réglementaires.
Enzai permet aux responsables des risques, de la conformité, du droit, de l'approvisionnement et de l'informatique de régir l'IA tierce via une plateforme unique.
Évaluez les systèmes d'IA tiers par rapport aux politiques internes et aux réglementations externes. Enzai fournit des évaluations structurées et vérifiables pour garantir une supervision continue.
Intégrez la gouvernance de l'IA dans les achats dès le premier jour. Enzai vous aide à identifier, évaluer et gérer les risques liés aux fournisseurs liés à l'IA tout au long du cycle de vie.
Maintenez l'alignement avec les réglementations mondiales en matière d'IA et les normes internes. Enzai centralise la documentation et fournit la transparence nécessaire à une gouvernance défendable.
Enzai est conçu pour vous aider à répondre aux exigences des principaux cadres de gouvernance de l'IA en garantissant une supervision cohérente et conforme des systèmes d'IA tiers.
La loi sur l'IA de l'UE établit le premier cadre juridique complet au monde pour l'intelligence artificielle. Il classe les systèmes d'IA en fonction des niveaux de risque (risque minimal, limité, élevé et inacceptable), avec des exigences plus strictes pour les applications à haut risque. La loi interdit certaines utilisations de l'IA considérées comme portant atteinte aux droits fondamentaux, exige la transparence de l'IA générative et impose des obligations aux fournisseurs d'IA à haut risque. Adoptées en mars 2024, la plupart des dispositions s'appliqueront d'ici 2026, ce qui donnera aux entreprises le temps d'adapter leurs systèmes d'IA pour se conformer à la nouvelle réglementation.
La loi locale 144 de la ville de New York, en vigueur depuis juillet 2023, réglemente l'utilisation d'outils automatisés de décision en matière d'emploi (AEDT) dans les décisions d'embauche et de promotion. Elle oblige les employeurs à effectuer des audits annuels de partialité de ces outils d'IA, à publier les résultats et à informer les candidats de l'utilisation de l'IA dans leur processus de candidature. La loi vise à prévenir la discrimination algorithmique en garantissant l'équité et la transparence des systèmes d'IA liés à l'emploi, les violations étant passibles de sanctions civiles pouvant aller jusqu'à 1 500 dollars par jour.
Le SB21-169 du Colorado, promulgué en 2021, traite de la discrimination algorithmique dans les pratiques d'assurance. La loi interdit aux assureurs d'utiliser des données externes sur les consommateurs, des algorithmes ou des modèles prédictifs qui établissent une discrimination injuste fondée sur la race, la couleur, l'origine nationale, la religion, le sexe, l'orientation sexuelle, le handicap ou d'autres caractéristiques protégées. Les assureurs doivent démontrer que leurs systèmes d'IA et leurs sources de données n'entraînent pas de discrimination injuste et doivent tenir des registres de leur conformité à des fins d'examen réglementaire.
Faisant partie du projet de loi C-27 du Canada présenté en 2022, la Loi sur l'intelligence artificielle et les données (AIDA) vise à réglementer les systèmes d'IA à fort impact grâce à des exigences d'évaluation des risques, de mesures d'atténuation et de transparence. La loi établit un cadre pour classer les systèmes d'IA en fonction des niveaux d'impact, oblige les organisations à documenter le fonctionnement de leurs systèmes d'IA et donne au gouvernement le pouvoir d'ordonner la cessation de l'utilisation de l'IA à haut risque susceptible de causer de graves dommages. Les sanctions en cas de non-conformité peuvent atteindre des millions de dollars.
Le cadre de gestion des risques liés à l'IA (RMF) du NIST, publié en janvier 2023, propose une approche volontaire et flexible pour gérer les risques liés à l'IA tout au long du cycle de vie de l'IA. Il décrit quatre fonctions principales : gouverner, cartographier, mesurer et gérer, afin d'aider les organisations à répondre à des préoccupations en matière de fiabilité telles que l'équité, la responsabilité, la transparence et la confidentialité. Le cadre comprend des conseils de mise en œuvre pour les organisations de toutes tailles et de tous secteurs, leur permettant de concevoir, développer, déployer et évaluer des systèmes d'IA de manière responsable tout en favorisant l'innovation.
L'ISO 42001, publiée en avril 2023, est la première norme internationale pour les systèmes de gestion de l'intelligence artificielle. Il fournit aux organisations un cadre structuré pour développer, mettre en œuvre et améliorer continuellement les pratiques de gestion de l'IA tout en gérant les risques associés. La norme établit des exigences en matière de gouvernance, de transparence, d'équité, de confidentialité, de sécurité et de robustesse technique tout au long du cycle de vie de l'IA. En suivant la norme ISO 42001, les organisations peuvent démontrer leur engagement en faveur du développement et de l'utilisation responsables de l'IA, renforcer la confiance des parties prenantes, garantir la conformité réglementaire et créer une culture organisationnelle qui favorise l'innovation éthique en matière d'IA. La norme s'applique aux organisations de toutes tailles et de tous secteurs, qu'elles développent ou déploient des systèmes d'IA.
La lettre de supervision SR 11-7 de la Réserve fédérale sur la « gestion des risques des modèles » est devenue une norme clé pour la gouvernance de l'IA dans les institutions financières. Bien qu'ils aient été créés avant l'importance de l'IA moderne, ses principes s'appliquent directement aux systèmes d'IA : développement de modèles solides, mise en œuvre, utilisation, validation par des parties indépendantes qualifiées et gouvernance, y compris les politiques, les rôles et la documentation. Les institutions financières utilisent de plus en plus ce cadre pour gérer les risques associés à leurs applications d'IA, en particulier ceux qui ont une incidence sur les décisions de crédit.
Nous suivons les derniers développements dans le domaine de la gouvernance de l'IA. Notre équipe d'experts prépare régulièrement des notes d'information et des blogs sur les derniers développements dans ce domaine.