バイアス

偏見のあるトレーニングデータや欠陥のあるアルゴリズムに起因するAI出力の系統的エラーは、不公平な結果につながります。

Definition

モデル予測における持続的な方向偏差により、特定のグループまたはケースが系統的に不利になる(または有利になる)。偏りは、不均衡なデータ、ラベル作成者の偏見、または目標の指定ミスが原因で生じます。効果的なガバナンスには、データとモデル設計の両方を改善するために、バイアスの原因の検出、定量化 (公平性指標などによる)、および追跡が必要です。

Real-World Example

過去の履歴書に基づいて訓練された採用選考AIは、過去の採用者が主に他の学校から来ていたため、特定の大学からの応募者を拒否します。人事部はこの偏りを発見し、影響を受けた大学の卒業生を増やしてデータセットを補強し、モデルを再トレーニングし、合格率を監視して母校全体で同等になるようにします。