Fairness
Sicherstellung, dass KI-Systeme zu unvoreingenommenen, gerechten Ergebnissen für verschiedene Personen und Gruppen führen, und dass diskriminierende Auswirkungen gemildert werden.
Definition
Ein Regierungsprinzip und ein technisches Ziel, das vorschreibt, dass KI-Modelle vergleichbare Ergebnisse für geschützte und ungeschützte Gruppen liefern. Fairness wird durch statistische Kriterien (z. B. demografische Parität, Chancengleichheit), Algorithmen zur Vermeidung von Vorurteilen und kontinuierliche Überwachung operationalisiert. Es erfordert die Einbindung der Interessengruppen, um zu definieren, was „gerecht“ im Kontext bedeutet, und zu überprüfen, dass Fairness-Interventionen die Genauigkeit nicht übermäßig beeinträchtigen.
Real-World Example
Eine KI zur Einstellung von Mitarbeitern wird auf ein ausgewogenes Geschlechterverhältnis hin überprüft: Vor der Abschwächung der Maßnahmen hatten männliche Kandidaten eine um 25% höhere Rate an Vorstellungsgesprächen. Das Team wendet bei der Umschulung eine Fairnessregel an, um die Wahrscheinlichkeit von Stellenangeboten auszugleichen. Aus Berichten nach dem Einsatz geht hervor, dass die Interview-Quoten für alle Geschlechter innerhalb von 2% liegen. Dadurch wird die Chancengleichheit verbessert, ohne die Genauigkeit der Vorhersagen zu beeinträchtigen.