Prüfung von Vorurteilen

Ein Bewertungsprozess zur Erkennung und Abschwächung von Vorurteilen in KI-Systemen, um Fairness und die Einhaltung ethischer Standards sicherzustellen.

Definition

Eine strukturierte Überprüfung — häufig durch ein unabhängiges Team oder eine externe Firma —, die jede Phase des KI-Lebenszyklus (Datenerfassung, Vorverarbeitung, Modellierung, Bewertung) auf Vorurteile untersucht. Auditoren wenden statistische Tests (z. B. unterschiedliche Auswirkungen), Tools zur Erklärbarkeit von Modellen und Nutzergruppenanalysen an. Der Prozess endet mit konkreten Sanierungsempfehlungen und Aktualisierungen der Unternehmensführung.

Real-World Example

Eine Bank gibt eine voreingenommene Prüfung ihrer KI zur Kreditbewertung in Auftrag. Die Prüfer ziehen eine Stichprobe von Kreditentscheidungen nach demografischen Gruppen, stellen fest, dass Bewerber aus bestimmten Postleitzahlen unverhältnismäßig häufig abgelehnt werden. Sie empfehlen eine Erweiterung der Daten und neue Fairness-Einschränkungen im Bewertungsalgorithmus. Danach überwacht die Bank die Ablehnungsraten monatlich, um den Fortschritt zu verfolgen.