差別
AIにおいて、データやアルゴリズムの偏見に基づく個人またはグループに対する不公平な扱いを指し、それが不平等な結果を招くことを意味します。
モデルの予測や判断が体系的に保護されたクラス(人種、性別、年齢)を不利にする場合に発生します。ガバナンスには、差別指標(例えば、機会均等、人口統計の均衡)を定義し、トレーニング時に公平性制約を組み込むこと、および、運用モデルを異なる影響について監査し、しきい値が超えた場合には是正計画を立てることが必要です。
ある大学の入学予測ツールは、ファーストジェネレーションの学生に対して低い入学確率を示します。公平性監査により、レガシー応募者と相関する特徴が格差を生み出していることが明らかになりました。入試事務所はこれらの代理変数を除去し、学生背景を問わず等しい真陽性率を達成するためにモデルを再訓練しました。

私たちは、お客様が答えを見つけるお手伝いをします
Enzaiはどのような問題を解決しますか?
Enzaiは、エンタープライズグレードのインフラストラクチャを提供し、AIリスクとコンプライアンスを管理します。AIシステム、モデル、データセット、ガバナンスの決定が文書化され、評価され、監査可能な中央記録システムを作成します。
Enzai は誰のために作られていますか?
Enzaiは他のガバナンスツールとどのように異なりますか?
既存のAIガバナンスプロセスがない場合でも開始できますか。
AIのガバナンスはイノベーションを遅らせるのか?
Enzaiはどのように進化するAI規制と整合性を保っていますか?
リサーチ、インサイト、更新情報
組織がAIを採用し、管理し、監視する能力を、企業レベルの信頼性で強化します。規模で運営する規制対象の組織向けに構築されています。





