Diskriminierung

Bezieht sich im Bereich KI auf die unfaire Behandlung von Einzelpersonen oder Gruppen aufgrund von Verzerrungen in Daten oder Algorithmen, die zu ungleichen Ergebnissen führen.

Definition

Tritt auf, wenn Modellvorhersagen oder Entscheidungen geschützte Klassen (Rasse, Geschlecht, Alter) systematisch benachteiligen. Die Unternehmensführung erfordert die Definition von Kennzahlen für Diskriminierung (z. B. Chancengleichheit, demografische Parität), die Berücksichtigung von Fairnessregeln in die Ausbildung und die Überprüfung der verwendeten Modelle auf unterschiedliche Auswirkungen sowie Abhilfepläne für den Fall, dass Schwellenwerte überschritten werden.

Real-World Example

Das Tool zur Zulassungsprognose einer Universität führt zu niedrigeren Zulassungswahrscheinlichkeiten für Studierende der ersten Generation. Ein Fairness-Audit zeigt Merkmale auf, die mit den älteren Bewerbern korrelieren, die die Ungleichheit ausmachen. Die Zulassungsstelle entfernt diese Stellvertreter und passt das Modell neu an, um für alle Studierenden die gleichen Quoten für positive Ergebnisse zu erzielen.