Techniques d'explicabilité

Méthodes utilisées pour interpréter et comprendre les décisions prises par les modèles d'IA, telles que LIME, SHAP et les cartes de saillance.

Définition

Une boîte à outils d'approches indépendantes du modèle (LIME, SHAP) et spécifiques au modèle (saillance pour les CNN, visualisation de l'attention) qui génèrent des attributions de caractéristiques, visualisent les voies de décision et produisent des explications contrefactuelles. Les meilleures pratiques de gouvernance incluent la sélection de techniques adaptées au type de modèle, la validation de l'exactitude des explications et l'intégration des explications dans les flux de travail des utilisateurs finaux.

Exemple concret

Une chaîne de magasins utilise SHAP pour expliquer ses prévisions de désabonnement : chaque enregistrement indique « des dépenses mensuelles élevées » et des « plaintes relatives au service récentes » comme principaux contributeurs. Les responsables de la réussite des clients utilisent ces explications pour personnaliser les offres de fidélisation, améliorant ainsi la satisfaction des clients.