XAI (IA explicable)

Techniques et méthodes qui rendent le processus de décision d'un modèle d'IA transparent et compréhensible pour les humains, renforçant ainsi la responsabilité et la conformité.

Définition

Suite d'approches algorithmiques et de présentation, telles que des modèles de substitution (arbres de décision approximant le comportement des boîtes noires), des méthodes d'attribution de caractéristiques (SHAP, LIME), des explications contrefactuelles et des cartes de saillance, qui révèlent quelles entrées ont conduit à une prédiction particulière. XAI met l'accent sur la fidélité (précision des explications), la compréhensibilité (clarté pour les publics cibles) et les informations exploitables, et est intégré à la fois au développement de modèles et aux outils destinés aux utilisateurs.

Exemple concret

Une IA de notation des prêts utilise SHAP pour produire des ventilations par demandeur (« pondération de 35 % : faible revenu ; pondération de 30 % : antécédents de crédit courts ; pondération de 20 % : ratio d'endettement élevé »). Les souscripteurs examinent ces explications parallèlement aux scores des modèles pour garantir des décisions équitables et peuvent fournir des justifications claires aux demandeurs et aux régulateurs.