Le Département de la Justice des États-Unis a mis à jour ses directives à l'intention des procureurs, en insistant fortement sur l'examen de l'utilisation de l'IA par les entreprises.
•
•
4 minutes de lecture
Sujets
Le 23 septembre 2024, le ministère américain de la Justice (DOJ) a mis à jour ses orientations à l’intention des procureurs sur la manière d’évaluer les programmes de conformité des entreprises. Nicole M. Argentieri, haute responsable du DOJ, a dévoilé ces orientations mises à jour lors de son intervention au 23e congrès annuel de la Society of Corporate Compliance and Ethics, Compliance & Ethics Institute, au Texas. Ces orientations incluent désormais des considérations relatives à la manière dont les entreprises utilisent l’IA et gèrent ses risques.
Quel est l’objectif des orientations ?
Le DOJ publie des orientations sur l’évaluation des programmes de conformité des entreprises (ECCP), afin d’aider les procureurs du DOJ à déterminer si le programme de conformité d’une entreprise est a) bien conçu, b) appliqué avec sérieux et c) efficace dans la pratique.
Bien que l’ECCP soit rédigé à l’intention des procureurs du DOJ et que les considérations qu’il contient ne soient pas juridiquement contraignantes, l’ECCP est rendu public depuis plusieurs années et a, pendant cette période, servi d’orientation utile aux dirigeants et aux équipes conformité des entreprises.
Si la version révisée de l’ECCP aborde de nombreux nouveaux sujets, les révisions les plus importantes concernent l’IA, les technologies émergentes, le rôle de l’analyse de données dans les programmes de conformité et la protection des lanceurs d’alerte.
Que dit la version révisée des orientations au sujet de l’utilisation de l’IA ?
L’ECCP invite les procureurs à évaluer les facteurs suivants liés à l’utilisation de l’IA par les entreprises, entre autres :
· L’entreprise a-t-elle mis en place un programme de gestion des risques pour l’utilisation de l’IA ?
· Des niveaux de risque sont-ils attribués aux systèmes d’IA ?
· L’entreprise traite-t-elle de manière efficace les risques qu’elle identifie dans le cadre de l’utilisation de l’IA ?
· L’entreprise surveille-t-elle ses systèmes d’IA afin de s’assurer qu’ils fonctionnent comme prévu ?
· Les systèmes à haut risque font-ils l’objet d’une supervision humaine appropriée ?
· Les employés sont-ils correctement formés à l’utilisation des systèmes d’IA ?
· Le programme de conformité de l’entreprise exploite-t-il de manière appropriée l’analyse de données et la technologie afin de s’assurer de son bon fonctionnement ?
· L’entreprise traite-t-elle de manière efficace le risque lié aux fournisseurs ?
· L’entreprise a-t-elle consacré des ressources appropriées à son programme de conformité ?
· Le programme de conformité en matière d’IA est-il correctement documenté ?
Quel est le contexte plus large ?
Les orientations révisées signalent l’intérêt continu du DOJ pour l’utilisation de l’IA par les entreprises. Lors d’un discours prononcé en mars à San Francisco, la procureure générale adjointe Lisa Monaco a souligné qu’il n’existe aucune exemption fondée sur l’IA aux lois en vigueur, a annoncé son intention de poursuivre des « peines plus sévères » en cas d’abus de l’IA et a présenté les révisions de l’ECCP.
Plus tôt cette année, le DOJ a également lancé son Initiative Justice AI, une série de rencontres réunissant des « parties prenantes issues de la société civile, de l’industrie, du milieu universitaire et des forces de l’ordre » afin d’éclairer la manière dont l’IA s’articulera avec les efforts du DOJ.
Les remarques d’Argentieri sur l’ECCP révisé ont apporté un éclairage supplémentaire sur les révisions du DOJ et ont démontré une compréhension nuancée des impacts potentiels de l’IA générative sur les entreprises. À titre d’exemple, elle a noté que « les procureurs prendront en compte la vulnérabilité de l’entreprise à des schémas criminels facilités par les nouvelles technologies, tels que de fausses approbations et des documents générés par l’IA. »
Enzai est là pour vous aider
La plateforme GRC de l’IA d’Enzai peut aider votre entreprise à déployer l’IA conformément aux meilleures pratiques ainsi qu’aux réglementations, normes et cadres émergents, tels que l’AI Act de l’UE, le Colorado AI Act, le NIST AI RMF et ISO/IEC 42001. Pour en savoir plus, contactez-nous ici.
Enzai est la principale plateforme de gouvernance de l’IA en entreprise, conçue spécifiquement pour aider les organisations à passer d’une politique abstraite à une supervision opérationnelle. Notre plateforme de gestion des risques liés à l’IA fournit l’infrastructure spécialisée nécessaire pour gérer la gouvernance de l’IA agentique, tenir un inventaire de l’IA exhaustif et assurer la conformité à l’AI Act de l’UE. En automatisant des flux de travail complexes, Enzai permet aux entreprises d’accélérer l’adoption de l’IA en toute confiance, tout en restant alignées sur des normes mondiales telles que l’ISO 42001 et le NIST.
Donnez à votre organisation les moyens d'adopter, de gérer et de surveiller l'IA avec une confiance de niveau entreprise. Conçu pour les organisations réglementées opérant à grande échelle.

