Voreingenommenheit

Systematische Fehler in den KI-Ergebnissen, die auf voreingenommene Trainingsdaten oder fehlerhafte Algorithmen zurückzuführen sind und zu unfairen Ergebnissen führen.

Definition

Anhaltende Richtungsabweichungen in Modellvorhersagen, die bestimmte Gruppen oder Fälle systematisch benachteiligen (oder begünstigen). Verzerrungen entstehen durch unausgewogene Daten, Vorurteile der Labeler oder falsch spezifizierte Ziele. Eine effektive Verwaltung erfordert die Erkennung, Quantifizierung (z. B. anhand von Fairness-Metriken) und Rückverfolgung von Verzerrungen, um sowohl Daten als auch Modelldesign zu korrigieren.

Real-World Example

Eine KI, die auf historischen Lebensläufen trainiert wurde, lehnt Bewerber einer bestimmten Universität ab, weil frühere Mitarbeiter überwiegend von anderen Schulen eingestellt wurden. Die Personalabteilung entdeckt diese Verzerrung, erweitert ihren Datensatz um mehr Absolventen der betroffenen Universität, trainiert das Modell neu und überwacht die Annahmequoten, um die Gleichheit aller Absolventen sicherzustellen.