Explicabilité ou interprétabilité

Alors que les deux visent à rendre les décisions d'IA compréhensibles, l'explicabilité se concentre sur le raisonnement qui sous-tend les décisions, tandis que l'interprétabilité concerne la transparence de la mécanique interne du modèle.

Définition

Interprétabilité : clarté quant à la manière dont les composants internes du modèle (poids, caractéristiques) correspondent aux résultats, ce qui est courant dans les modèles simples (régression linéaire). Explicabilité : génération post hoc de justifications conviviales (pourquoi une décision a été prise) pour n'importe quel modèle, même les boîtes noires. La gouvernance nécessite de trouver le juste équilibre : des modèles interprétables lorsque cela est possible, et des outils d'explicabilité lorsque ce n'est pas le cas.

Exemple concret

Une banque choisit un modèle de régression logistique pour la notation de crédit en raison de son interprétabilité (les coefficients indiquent directement l'impact des caractéristiques). Pour son détecteur de fraude basé sur l'image (un réseau neuronal), il utilise l'explicabilité (cartes de saillance) car le modèle lui-même n'est pas intrinsèquement interprétable.