Falsch negativ

Wenn ein KI-Modell fälschlicherweise eine negative Klasse für eine Instanz vorhersagt, die tatsächlich positiv ist (Fehler Typ II).

Definition

Tritt auf, wenn das Modell wahre Fälle übersieht — gefährlich bei Betrugs-, Sicherheits- oder medizinischen Diagnosen. Falsch negative Ergebnisse können dazu führen, dass Bedrohungen nicht erkannt oder Maßnahmen verpasst werden. Die Regierung muss die Rückrufraten überwachen, akzeptable Risikoniveaus festlegen und sekundäre Kontrollen oder Überwachungen (z. B. Erkennung von Anomalien) durchführen, um verpasste Ereignisse zu erkennen.

Real-World Example

Bei einer KI zur Krebsvorsorge bedeutet eine Falsch-Negativ-Rate von 2%, dass 2 von 100 Tumoren unentdeckt bleiben. Ein Krankenhaus richtet bei Scans mit geringem Konfidenzgrad einen manuellen Doppellesevorgang ein und senkt die Entscheidungsschwelle des Modells. Falsch-Negative werden auf Kosten leicht erhöhter falsch-positiver Ergebnisse auf 1% reduziert. Anschließend werden die Patientenergebnisse überwacht, um die Wirksamkeit der Anpassung zu überprüfen.