AI バイアス
偏見のあるトレーニングデータや欠陥のあるアルゴリズムに起因するAI出力の系統的エラーは、不公平な結果につながります。
Definition
特定のグループに不当に有利または不利になるようなAIアウトプットの系統的な偏差(偏ったデータセット、欠陥のあるラベル付け、または目標の指定ミスが原因で)が発生し、検出、測定、緩和が必要です。
Real-World Example
主に肌の色が薄い顔でトレーニングされた顔認識システムは、肌の色が濃い人の方がエラー率が高いことを示しています。ベンダーはトレーニングデータセットのバランスを取り直し、継続的なバイアス監視ダッシュボードを導入して、すべての肌の色で公平なパフォーマンスを確保しています。