Erklärbarkeitstechniken
Methoden, die verwendet werden, um die von KI-Modellen getroffenen Entscheidungen zu interpretieren und zu verstehen, wie LIME-, SHAP- und Salienzkarten.
Definition
Eine Toolbox von modellunabhängigen (LIME, SHAP) und modellspezifischen (Saliency für CNNs, Aufmerksamkeitsvisualisierung) Ansätzen, die Merkmalsattributionen generieren, Entscheidungswege visualisieren und kontrafaktische Erklärungen liefern. Zu den bewährten Methoden der Unternehmensführung gehören die Auswahl geeigneter Techniken für den Modelltyp, die Validierung der Erklärungsgenauigkeit und die Integration von Erklärungen in die Arbeitsabläufe der Endbenutzer.
Real-World Example
Eine Einzelhandelskette verwendet SHAP, um ihre Prognosen zur Kundenabwanderung zu erklären: Jeder Datensatz zeigt, dass „hohe monatliche Ausgaben“ und „aktuelle Servicebeschwerden“ am häufigsten dazu beigetragen haben. Kundenerfolgsmanager verwenden diese Erklärungen, um Angebote zur Kundenbindung maßzuschneidern und so die Kundenzufriedenheit zu verbessern.