対象者
AI ガバナンスの背後にいるすべてのチームに力を与える
Enzaiは、リスク、コンプライアンス、法務、調達、IT部門が単一のプラットフォームを通じてサードパーティのAIを管理できるようにします。
Enzaiは、自社が開発していない場合でも、組織が依存しているAI製品やシステムの追跡、評価、管理を支援します。
サードパーティベンダーのAIツールは、組織全体の意思決定、エクスペリエンス、成果を形作っています。Enzaiは可視性と制御を可能にし、自信を持って管理できるようにします。
組織で使用されているすべてのサードパーティ製品とシステムをマッピングして監視します。
リスクプロファイル、コンプライアンス態勢、使用状況に基づいてベンダーを評価します。
組織全体で AI による意思決定がどのように行われ、記録され、伝達されるかを監視できます。
監督、コンプライアンス、監査のための明確なレポートと文書を作成します。
Enzaiは、外部のAI環境全体を体系的に監視します。
Enzaiは、サードパーティのAIエコシステムのコネクテッドマップを構築し、ベンダーと自社製品、製品を信頼するAIシステムにつなげます。当て推量に頼ることなく、コンテキストをフルに把握できます。
ベンダーは、専用のベンダーポータルを介して詳細情報と製品情報を安全に送信できるため、データを安全に保ち、情報を最新の状態に保つことができます。
ベンダー、製品、システムなど、あらゆる層でコンプライアンス要件を定義します。Enzaiでは、リスク、状況、規制のニーズに適応するコントロールセットを作成して適用できます。
Enzaiは、リスク、コンプライアンス、法務、調達、IT部門が単一のプラットフォームを通じてサードパーティのAIを管理できるようにします。
サードパーティの AI システムを内部ポリシーや外部規制と照らし合わせて評価します。Enzaiは、継続的な監視を確実にするために、構造化された監査可能な評価を行っています。
初日から調達にAIガバナンスを組み込んでください。Enzaiは、ライフサイクル全体にわたるAI関連ベンダーリスクの特定、評価、管理を支援します。
グローバルな AI 規制と内部標準との整合性を維持します。Enzaiは文書を一元化し、防御可能なガバナンスに必要な透明性を提供します。
Enzaiは、お客様が主要なAIガバナンスフレームワークの要件を満たすように設計されており、サードパーティのAIシステムの一貫性とコンプライアンスを遵守した監視が保証されます。
EU AI法は、人工知能に関する世界初の包括的な法的枠組みを確立します。この法律は、リスクレベル (最小リスク、限定リスク、高リスク、許容できないリスク) に基づいて AI システムを分類し、リスクの高いアプリケーションにはより厳しい要件を設けています。この法律は、基本的権利に有害と見なされる特定の AI の使用を禁止し、ジェネレーティブ AI の透明性を要求し、リスクの高い AI プロバイダーに義務を課しています。2024年3月に採択され、2026年までにほとんどの条項が適用されるため、企業は自社のAIシステムを新しい規制に適合させる時間を確保できます。
2023年7月から施行されたニューヨーク市の現地法144は、雇用および昇進の決定における自動雇用決定ツール(AEDT)の使用を規制しています。この法律は、雇用主にこれらのAIツールのバイアス監査を毎年実施し、結果を公表し、応募プロセスにおけるAIの使用について候補者に通知することを義務付けています。この法律は、雇用関連の AI システムの公平性と透明性を確保することでアルゴリズムによる差別を防止することを目的としています。違反した場合、1 日あたり最大 1,500 ドルの民事罰が科せられます。
2021年に制定されたコロラド州のSB21-169は、保険業務におけるアルゴリズムによる差別に対処するものです。この法律は、保険会社が、人種、肌の色、出身国、宗教、性別、性的指向、障害、またはその他の保護された特性に基づいて不当に差別する外部の消費者データ、アルゴリズム、または予測モデルを使用することを禁じています。保険会社は、自社のAIシステムとデータソースが不当な差別を引き起こさないことを証明し、規制審査のためにコンプライアンスの記録を残さなければなりません。
2022年に導入されたカナダの法案C-27の一部である人工知能データ法(AIDA)は、リスク評価、軽減対策、透明性の要件を通じて、影響の大きいAIシステムを規制することを目的としています。この法律は、影響レベルに基づいてAIシステムを分類するための枠組みを確立し、組織に自社のAIシステムの運用方法を文書化することを義務付け、深刻な被害を引き起こす可能性のあるリスクの高いAIの使用の中止を命じる権限を政府に与えています。コンプライアンス違反による罰金は数百万ドルに達することがあります。
2023年1月にリリースされたNIST AIリスク管理フレームワーク(RMF)は、AIライフサイクル全体にわたるAIリスクを管理するための自主的かつ柔軟なアプローチを提供します。組織が、公平性、説明責任、透明性、プライバシーなどの信頼性に関する懸念に対処するのに役立つ、統治、マッピング、測定、管理という4つの中核機能を概説しています。このフレームワークには、あらゆる規模とセクターの組織を対象とした実装ガイダンスが含まれており、イノベーションを促進しながら、責任を持ってAIシステムの設計、開発、導入、評価を行うことができます。
2023年4月に発行されたISO 42001は、人工知能管理システムに関する最初の国際規格です。関連するリスクに対処しつつ、AI 管理手法を開発、実装、継続的に改善するための体系的なフレームワークを組織に提供します。この規格は、AI ライフサイクル全体にわたるガバナンス、透明性、公平性、プライバシー、セキュリティ、技術的堅牢性に関する要件を定めています。ISO 42001 に従うことで、組織は責任ある AI の開発と利用へのコミットメントを示し、利害関係者の信頼を築き、規制遵守を確保し、倫理的な AI イノベーションを促進する組織文化を築くことができます。この規格は、AI システムを開発または導入しているかどうかにかかわらず、セクターを問わず、あらゆる規模の組織に適用されます。
連邦準備制度理事会の「モデルリスク管理」に関する監督書SR 11-7は、金融機関におけるAIガバナンスの重要な基準となっています。現代の人工知能が普及する前に作成されたものですが、その原則は人工知能システムに直接適用されます。つまり、健全なモデルの開発、実装、使用、資格のある独立機関による検証、ポリシー、役割、文書化を含むガバナンスです。金融機関は、自社のAIアプリケーションに関連するリスク、特に信用決定に影響するリスクを管理するために、このフレームワークを利用するケースが増えています。
私たちは、AIガバナンス分野における最新の動向をすべて追跡しています。当社の専門家チームは、最新の動向に関するブリーフィングノートやブログを定期的にこちらで作成しています。