差別
AIにおいて、データやアルゴリズムの偏見に基づく個人またはグループに対する不公平な扱いを指し、それが不平等な結果を招くことを意味します。
これは、モデルの予測または意思決定が、保護対象となる属性(人種、性別、年齢)を持つ集団に対して、体系的に不利益をもたらす場合に発生します。ガバナンスにおいては、差別に関する指標(例:機会均等、人口統計学的パリティ)を定義し、学習プロセスに公平性制約を組み込み、デプロイ済みモデルに対する異質な影響を監査することが求められます。さらに、しきい値を逸脱した場合には、是正計画を策定・実行する必要があります。
ある大学の入学合否予測ツールは、第一世代の大学進学者に対して、より低い合格確率を算出していました。公平性監査の結果、レガシー志願者と相関する特徴量が、この格差を生み出していることが判明しました。入学事務局はそれらの代理指標を除去し、学生の背景を問わず真陽性率が等しくなるようにモデルを再学習させました。

私たちは、お客様が答えを見つけるお手伝いをします
Enzaiはどのような問題を解決しますか?
Enzaiは、エンタープライズグレードのインフラストラクチャを提供し、AIリスクとコンプライアンスを管理します。AIシステム、モデル、データセット、ガバナンスの決定が文書化され、評価され、監査可能な中央記録システムを作成します。
Enzai は誰のために作られていますか?
Enzaiは他のガバナンスツールとどのように異なりますか?
既存のAIガバナンスプロセスがない場合でも開始できますか。
AIのガバナンスはイノベーションを遅らせるのか?
Enzaiはどのように進化するAI規制と整合性を保っていますか?
リサーチ、インサイト、更新情報
組織がAIを採用し、管理し、監視する能力を、企業レベルの信頼性で強化します。規模で運営する規制対象の組織向けに構築されています。

