Black-Box-Modell

Ein KI-System, dessen interne Abläufe nicht transparent oder interpretierbar sind, was es schwierig macht, zu verstehen, wie Entscheidungen getroffen werden.

Definition

Leistungsstarke, aber undurchsichtige Modelle (z. B. tiefe neuronale Netze, Ensemble-Methoden), die genaue Ergebnisse liefern, ohne einen klaren Einblick in ihre Logik zu haben. Black-Box-Modelle stellen die Unternehmensführung vor Herausforderungen: Es ist schwierig, Fehler nachzuverfolgen, Entscheidungen gegenüber Interessenvertretern zu rechtfertigen oder die Einhaltung der Vorschriften sicherzustellen. Unternehmen kombinieren sie häufig mit externen Erklärern oder beschränken sie auf Anwendungsfälle mit geringem Risiko.

Real-World Example

Die diagnostische KI eines Krankenhauses verwendet ein tiefes Ensemble-Netzwerk, das Tumoren auf Scans genau identifiziert, aber die Gründe dafür nicht erklären kann. Um ihre Verwendung zu regeln, nutzen Radiologen sie lediglich als zweite Meinung — sie überprüfen die Ergebnisse stets zusammen mit menschlichen Interpretationen. Die Aufsichtsbehörden verlangen vom Anbieter, dass er ein externes Erklärungstool für Audit-Trails bereitstellt.