Explicabilité du modèle

Techniques et documentation qui rendent la logique de décision d'un modèle d'IA compréhensible pour les parties prenantes et les auditeurs.

Définition

Combinaison de méthodes inhérentes (modèles interprétables) et post-hoc (SHAP, LIME, méthodes contrefactuelles) qui révèlent l'importance des caractéristiques, les règles de décision ou d'autres scénarios de résultats. La gouvernance nécessite de sélectionner des techniques d'explicabilité adaptées au modèle et au public, d'intégrer des explications dans les interfaces utilisateur ou les rapports de conformité, et de valider que les explications reflètent fidèlement le comportement du modèle.

Exemple concret

Un modèle de fraude par carte de crédit fournit des explications SHAP à chaque alerte : « Principaux facteurs : localisation inhabituelle, taille de transaction atypique ». Les analystes des fraudes utilisent ces explications pour trier les alertes plus efficacement et les régulateurs examinent les rapports SHAP lors des inspections de conformité.