Audit XAI
Un processus d'examen qui évalue si les résultats d'explicabilité de l'IA répondent aux politiques internes et aux exigences réglementaires, garantissant ainsi une transparence suffisante.
Définition
Un examen systématique, par des équipes de conformité internes ou des auditeurs externes, des artefacts d'explication, en les comparant à des listes de contrôle des politiques (par exemple, « Chaque décision à haut risque inclut-elle une explication contrefactuelle ? ») , les mandats réglementaires (par exemple, le droit à l'explication dans le cadre du RGPD) et les besoins des parties prenantes. L'audit évalue à la fois l'exactitude technique et la facilité d'utilisation, documente les résultats et publie des plans de correction pour toute lacune dans la couverture ou la qualité des explications.
Exemple concret
Un régulateur financier effectue un audit XAI sur l'IA de notation de crédit d'une banque. Les auditeurs échantillonnent les refus, examinent les explications correspondantes, vérifient que chacune comprend des justifications claires et des suggestions de mesures correctives, et confirment que les registres d'explications sont conservés pendant la période de cinq ans requise. Toute explication manquante ou inadéquate entraîne des mesures correctives de la part de la banque.