Découvrez la gamme complète de produits de gouvernance de l'IA d'Enzai, conçus pour aider les organisations à gérer, surveiller et faire évoluer l'IA en toute confiance. Des processus d'intégration structurés et des inventaires centralisés d'IA aux évaluations automatisées et à la surveillance en temps réel, Enzai fournit les éléments nécessaires pour intégrer la gouvernance directement dans les flux de travail quotidiens de l'IA, sans freiner l'innovation.

Enzai

Réglementations sur l'IA

Comment les procureurs américains évalueront l'utilisation de l'IA par les entreprises

Réglementations sur l'IA

Comment les procureurs américains évalueront l'utilisation de l'IA par les entreprises

Réglementations sur l'IA

Comment les procureurs américains évalueront l'utilisation de l'IA par les entreprises

Le Département de la Justice des États-Unis a mis à jour ses directives à l'intention des procureurs, en insistant fortement sur l'examen de l'utilisation de l'IA par les entreprises.

Belfast

Belfast

3 minutes de lecture

Par

Par

Var Shankar

Var Shankar

Évaluer le risque lié à l’IA en entreprise

Évaluer le risque lié à l’IA en entreprise

Le DOJ a mis à jour son évaluation des programmes de conformité des entreprises (ECCP), en demandant aux procureurs d’évaluer de manière rigoureuse si les entreprises disposent d’une gestion des risques solide, d’une supervision humaine et d’une formation des employés pour les systèmes d’IA à haut risque.

Le DOJ a mis à jour son évaluation des programmes de conformité des entreprises (ECCP), en demandant aux procureurs d’évaluer de manière rigoureuse si les entreprises disposent d’une gestion des risques solide, d’une supervision humaine et d’une formation des employés pour les systèmes d’IA à haut risque.

Audit des vulnérabilités liées à la criminalité

Audit des vulnérabilités liées à la criminalité

Les programmes de conformité doivent désormais s’appuyer sur l’analyse de données pour surveiller le fonctionnement attendu de l’IA et démontrer que les systèmes font l’objet d’audits afin de détecter les vulnérabilités face à des stratagèmes criminels, tels que la documentation frauduleuse générée par l’IA.

Les programmes de conformité doivent désormais s’appuyer sur l’analyse de données pour surveiller le fonctionnement attendu de l’IA et démontrer que les systèmes font l’objet d’audits afin de détecter les vulnérabilités face à des stratagèmes criminels, tels que la documentation frauduleuse générée par l’IA.

Sujets

Loi sur l'IA de l'UE
Aperçus réglementaires
Stratégie de conformité
Politique européenne

Sujets

Le 23 septembre 2024, le ministère de la Justice des États-Unis (DOJ) a mis à jour ses directives pour les procureurs sur la façon d'évaluer les programmes de conformité des entreprises. Nicole M. Argentieri, une haute responsable du DOJ, a dévoilé les nouvelles directives lors de remarques à l'occasion de la 23ème Conférence annuelle sur la conformité et l'éthique de la Society of Corporate Compliance and Ethics au Texas. Les directives incluent désormais des considérations sur la façon dont les entreprises utilisent l'IA et gèrent ses risques.

Quel est l'objectif des directives ?

Le DOJ publie des directives sur l'évaluation des programmes de conformité d'entreprise (ECCP), pour aider les procureurs du DOJ à évaluer si le programme de conformité d'une entreprise est a) bien conçu, b) appliqué sincèrement et c) fonctionne dans la pratique.

Bien que l'ECCP soit rédigé pour les procureurs du DOJ et que les considérations du document ne soient pas juridiquement contraignantes, l'ECCP a été rendu public depuis plusieurs années, période pendant laquelle il a servi de guide utile pour les dirigeants et les équipes de conformité des entreprises.

Bien que l'ECCP révisé aborde de nombreux nouveaux sujets, les révisions les plus significatives concernent les domaines de l'IA, les technologies émergentes, le rôle de l'analyse de données dans les programmes de conformité et les protections des lanceurs d'alerte.

Que disent les directives révisées sur l'utilisation de l'IA ?

L'ECCP guide les procureurs pour évaluer les facteurs suivants liés à l'utilisation de l'IA par les entreprises, entre autres :

· Le programme de gestion des risques pour l'utilisation de l'IA est-il en place dans l'entreprise ?

· Des niveaux de risque sont-ils attribués aux systèmes d'IA ?

· L'entreprise traite-t-elle les risques identifiés liés à l'utilisation de l'IA de manière efficace ?

· L'entreprise surveille-t-elle ses systèmes d'IA pour s'assurer qu'ils fonctionnent comme prévu ?

· Les systèmes à haut risque font-ils l'objet d'une supervision appropriée par des personnes ?

· Les employés sont-ils correctement formés à l'utilisation des systèmes d'IA ?

· Le programme de conformité de l'entreprise utilise-t-il correctement l'analyse des données et la technologie pour garantir qu'il fonctionne efficacement ?

· L'entreprise traite-t-elle le risque fournisseur de manière efficace ?

· L'entreprise consacre-t-elle des ressources adéquates à son programme de conformité ?

· Le programme de conformité de l'IA est-il correctement documenté ?

Quel est le contexte plus large ?

Les directives révisées signalent l'intérêt continu du DOJ pour l'utilisation de l'IA par les entreprises. Dans un discours de mars à San Francisco, la procureure générale adjoint Lisa Monaco a souligné qu'il n'existe aucune exemption pour l'IA aux lois existantes, a annoncé l'intention de poursuivre des « peines plus sévères » pour les abus d'IA et a présenté des révisions de l'ECCP.

Plus tôt cette année, le DOJ a également lancé son Initiative AI Justice, une série de réunions avec des « parties prenantes de la société civile, de l'industrie, du monde universitaire et des forces de l'ordre » pour déterminer comment l'IA s'articulera avec les efforts du DOJ.

Les remarques d'Argentieri sur l'ECCP révisé ont apporté un éclairage supplémentaire sur les révisions du DOJ et ont démontré une compréhension nuancée des impacts potentiels de l'IA générative sur les entreprises. À titre d'exemple, elle a noté que « les procureurs prendront en compte si l'entreprise est vulnérable à des schémas criminels rendus possibles par de nouvelles technologies, comme des approbations ou des documents falsifiés générés par l'IA. »

Enzai est là pour vous aider

La plateforme GRC AI d'Enzai peut aider votre entreprise à déployer l'IA conformément aux meilleures pratiques et aux réglementations, normes et cadres émergents, tels que l'AI Act de l'UE, l'AI Act du Colorado, le NIST AI RMF et ISO/IEC 42001. Pour en savoir plus, prenez contact ici.

Découvrez davantage

Découvrez davantage

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Rejoignez notre bulletin d'information

En vous inscrivant, vous acceptez la Politique de Confidentialité d'Enzai

Conformité Intégrée Dès la Conception

Conformité Intégrée Dès la Conception

ISO 27001

Enzai est certifiée ISO 27001, et lest depuis 2023. Nous nous engageons à réaliser des audits annuels effectués par NQA et collaborons étroitement avec nos partenaires consultants en sécurité, Instil, afin de mettre à jour et de renforcer en continu notre posture de sécurité.

RGPD

ISO 27001

Enzai est certifiée ISO 27001, et lest depuis 2023. Nous nous engageons à réaliser des audits annuels effectués par NQA et collaborons étroitement avec nos partenaires consultants en sécurité, Instil, afin de mettre à jour et de renforcer en continu notre posture de sécurité.

RGPD

Gouvernance de l'IA

Gouvernance de l'IA

Infrastructure

Infrastructure

conçu pour la Confiance.

conçu pour la Confiance.

Donnez à votre organisation les moyens d'adopter, de gérer et de surveiller l'IA avec une confiance de niveau entreprise. Conçu pour les organisations réglementées opérant à grande échelle.

Connectez sans effort vos systèmes existants, vos politiques et vos flux de travail d'IA — le tout sur une plateforme unifiée.

Connectez sans effort vos systèmes existants, vos politiques et vos flux de travail d'IA — le tout sur une plateforme unifiée.