KI-Voreingenommenheit

Systematische Fehler in den KI-Ergebnissen, die auf voreingenommene Trainingsdaten oder fehlerhafte Algorithmen zurückzuführen sind und zu unfairen Ergebnissen führen.

Definition

Systematische Abweichungen in den KI-Ergebnissen, die bestimmte Gruppen auf unfaire Weise bevorzugen oder benachteiligen — aufgrund verzerrter Datensätze, fehlerhafter Kennzeichnung oder falsch spezifizierter Ziele —, die erkannt, gemessen und abgemildert werden müssen.

Real-World Example

Ein Gesichtserkennungssystem, das hauptsächlich auf hellhäutigen Gesichtern trainiert wurde, zeigt höhere Fehlerraten bei dunkelhäutigen Personen. Der Anbieter gleicht seinen Trainingsdatensatz neu aus und setzt fortlaufend Dashboards zur Überwachung von Vorurteilen ein, um eine gleichmäßige Leistung bei allen Hauttönen zu gewährleisten.