Audit de partialité
Un processus d'évaluation visant à détecter et à atténuer les biais dans les systèmes d'IA, en garantissant l'équité et le respect des normes éthiques.
Définition
Un examen structuré, souvent réalisé par une équipe indépendante ou une société externe, qui examine chaque étape du cycle de vie de l'IA (collecte des données, prétraitement, modélisation, évaluation) pour détecter tout biais. Les auditeurs appliquent des tests statistiques (par exemple, impact disparate), des outils d'explicabilité des modèles et des analyses de groupes d'utilisateurs. Le processus se termine par des recommandations de mesures correctives concrètes et des mises à jour de la gouvernance.
Exemple concret
Une banque commande un audit de biais de son IA de notation de crédit. Les auditeurs échantillonnent les décisions de prêt par groupe démographique, constatent que les demandes de certains codes postaux sont refusées de manière disproportionnée et recommandent une augmentation des données et de nouvelles contraintes d'équité dans l'algorithme de notation, après quoi la banque surveille les taux de refus tous les mois pour suivre les progrès.