KI-Erklärbarkeit
Das Ausmaß, in dem die interne Mechanik eines KI-Systems von Menschen verstanden und interpretiert werden kann.
Definition
Eine Reihe von Methoden (Surrogatmodelle, Merkmalsattribution, Kontrafakten) und Prozessen (Dokumentation, benutzerfreundliche Dashboards), die KI-Entscheidungen transparent machen, sodass Stakeholder die Ergebnisse verstehen, bestreiten und ihnen vertrauen können.
Real-World Example
Ein Kreditbewertungsmodell verwendet SHAP, um hervorzuheben, welche finanziellen Faktoren (z. B. eine „niedrige Kredithistorie“) eine Ablehnung beeinflusst haben. Die Kreditsachbearbeiter überprüfen diese Erklärungen zusammen mit den Empfehlungen der KI, sodass Antragsteller Ungenauigkeiten korrigieren und eine Überprüfung durch einen Mitarbeiter beantragen können.