Évaluation d'impact

Évaluation structurée visant à identifier, analyser et atténuer les impacts éthiques, juridiques et sociétaux potentiels d'un système d'IA avant son déploiement.

Définition

Processus formel, souvent calqué sur des études d'impact environnemental, dans le cadre duquel des équipes multidisciplinaires attribuent les cas d'utilisation de l'IA aux groupes de parties prenantes, énumèrent les dommages possibles (confidentialité, biais, sécurité), évaluent leur gravité et leur probabilité et prescrivent des mesures d'atténuation. Il produit un « registre d'impact » et un plan d'action qui doivent être approuvés par les organes de gouvernance avant toute sortie en production.

Exemple concret

Avant de déployer un outil de sélection automatique, un service des ressources humaines réalise une évaluation d'impact : il simule les filières de candidats, identifie les risques de biais sexiste, les note comme étant à fort impact, conçoit un plan d'atténuation des biais (données de formation diversifiées, évaluation humaine) et obtient l'approbation des comités juridiques et éthiques.