差別
AIでは、データやアルゴリズムの偏りに基づいて個人やグループを不当に扱い、不平等な結果をもたらすことを指します。
Definition
モデルの予測または決定が、保護対象階級(人種、性別、年齢)に体系的に不利な場合に発生します。ガバナンスには、差別指標 (機会均等、人口統計学的平等など) を定義し、研修に公平性の制約を組み込み、導入されたモデルの影響がばらばらばらでないかを監査し、閾値に違反した場合の是正計画を立てる必要があります。
Real-World Example
大学の入学予測ツールを使用すると、第一世代の学生の入学確率が低くなります。公平性監査により、格差を助長しているレガシー志願者と相関する特徴が明らかになります。アドミッションズ・オフィスはこうした代用者を排除し、学生の経歴を問わず真陽性率が等しくなるようにモデルを再トレーニングします。