Interprétabilité
Degré auquel un être humain peut comprendre les mécanismes internes ou les raisons de décision d'un modèle d'IA.
Définition
Fait référence à la transparence inhérente à la structure d'un modèle, par exemple, les modèles linéaires ou les arbres de décision où les impacts des caractéristiques sont directement liés aux sorties. La gouvernance de l'interprétabilité encourage les modèles interprétables pour les cas d'utilisation à haut risque, les documents modélisent clairement la logique et limitent les modèles opaques aux domaines à faible risque ou les associe à des méthodes d'explication post hoc.
Exemple concret
Une équipe de notation de crédit opte pour un modèle d'arbre décisionnel pour les approbations initiales des prêts, car chaque répartition peut être interprétée directement (« revenu > 50 000$ »). Ils publient la logique arborescente aux parties prenantes, garantissant ainsi une interprétabilité complète et facilitant les examens réglementaires.