EnzaiのAIガバナンス製品のフルスイートを探求し、企業がAIを自信を持って管理、監視、拡張するのを支援します。構造化されたインテークや中央集約されたAIインベントリから、自動評価やリアルタイムの監督まで、Enzaiは日常のAIワークフローにガバナンスを直接組み込むための基盤を提供します—イノベーションを遅らせることなく。

Enzai

AI 規制

生成AIシステムの説明可能性を促進する

AI 規制

生成AIシステムの説明可能性を促進する

AI 規制

生成AIシステムの説明可能性を促進する

実務家は、生成型AIシステムの動作をどのように説明すべきでしょうか?

ベルファスト

ベルファスト

8 最小読了時間

提供元

提供元

ヴァール・シャンカル

ヴァール・シャンカル

説明可能性と解釈可能性

説明可能性と解釈可能性

AIの透明性が法的要件となる中、実務担当者は、解釈可能性(モデルが技術的にどのように機能するか)と説明可能性(なぜ特定の判断に至ったのかを人間に理解しやすい形で示すこと)を明確に区別する必要があります。

AIの透明性が法的要件となる中、実務担当者は、解釈可能性(モデルが技術的にどのように機能するか)と説明可能性(なぜ特定の判断に至ったのかを人間に理解しやすい形で示すこと)を明確に区別する必要があります。

ライフサイクル文書化戦略

ライフサイクル文書化戦略

規制当局から影響を受けるエンドユーザーまで、多様な対象者に対して十分な説明を行うには、組織は厳格で高品質な文書を維持し、自社のユースケースに合わせて最適化された新たな研究分類法を採用する必要があります。

規制当局から影響を受けるエンドユーザーまで、多様な対象者に対して十分な説明を行うには、組織は厳格で高品質な文書を維持し、自社のユースケースに合わせて最適化された新たな研究分類法を採用する必要があります。

トピック

AI施行、司法省ガイダンス、企業責任、規制リスク

トピック

説明可能性は、あらゆる AI システムの信頼性における重要な要素です。さらに、これは法的要件でもあります。しかし、生成 AI システムの仕組みを理解し、説明することは極めて困難です。

責任ある AI 導入の最前線にある組織では、AI の説明可能性に多大なリソースを投入する傾向が強まっています。JP Morgan は Explainable AI Center of Excellence を設立し、十分な体制を整備しており、その知見は、公平性、説明責任、コンプライアンスといった他分野への取り組みにも活かされています。米国国防総省の研究開発機関である DARPA は、医療や交通などの分野において AI の説明可能性を前進させるための大規模な取り組みを主導してきました。

では、AI の説明可能性とは何でしょうか。また、組織は生成 AI システムに対してどのように取り組むべきでしょうか。

説明可能性とは何か

NIST AI Risk Management Framework では、説明可能性を「AI システムの動作を支えるメカニズムを表現したもの」と説明しています。したがって、AI の説明可能性における重要な問いは、「なぜ AI システムは特定の出力を提示したのか」という点です。より具体的には、モデルとデータの組み合わせがなぜ特定の出力を生んだのか、ということです。

AI の説明可能性には、開発者、導入組織、人間のオペレーター、販売者/購入者、コンプライアンス チーム、規制当局、影響を受けるエンドユーザー、そして一般の人々など、多様な対象者が存在します。これらの対象者はそれぞれ、通常、異なる詳細度の説明を求めます。

こうした説明の根底にある、より技術的な概念が解釈可能性です。説明可能性が「なぜ」であるなら、解釈可能性は「どのように」です。

銀行融資の例

AI システムを用いて融資申請を承認または否認する銀行の例を考えてみましょう。米国では、融資を否認する際、銀行は申請者に対して、その判断が下された理由を説明しなければなりません。この説明の目的は、正確な情報が銀行の意思決定プロセスに沿った形で使用されたことを示すことにあります。また、申請者に対して、不正確な情報を修正する機会や、手続きの厳格性に異議を申し立てる機会も提供します。

融資申請者は、おそらく「お客様の信用スコアは自動承認基準を 20 ポイント下回っており、さらに、ご提示いただいた資産額は、融資の確定に必要な金額を 8,000 ドル下回っていました」といった、明確に伝えられた情報を望むでしょう。

しかし、このような明確な説明を行うには、銀行のデータ チームと AI チームが、データ入力と AI システムを構成するモデルがどのようにして出力を生み出すのかを理解している必要があります(AI の解釈可能性)。そのためには、モデルやデータセットがどのように開発され、ライフサイクル全体を通じてどのようなガバナンス下に置かれていたのかを理解することも求められます。

生成 AI の説明可能性

生成 AI システムは、大規模なニューラルネットワークを基盤とし、膨大な量のデータを学習・処理するため、その仕組みを理解し、説明することは困難です。最も高性能な生成 AI システムであっても、開発者は、特定の指示に対してなぜ自社のシステムが特定の不正確な出力を生成するのかを説明することに苦慮しています。

研究者はこの課題に対して複数の異なるアプローチを採用しており、学術研究者たちもそれらを整理・調査しています。たとえば、リヒテンシュタイン大学の Johannes Schneider は、生成 AI システムにおける説明可能性に関する研究アプローチの分類体系を開発しました。

__wf_reserved_inherit

これは実務担当者にとって何を意味するのでしょうか。

組織内のリーダーは、自社のユースケース、その影響の重大性、および規制要件を最もよく理解しています。これらの考慮事項は、生成 AI の説明可能性に関する取り組みの目的に反映されるべきです。特に医療や金融など、重大性の高いユースケースでは、求められる基準もより高くなります。

AI システムのライフサイクル全体を通じて、高品質な文書を維持・整備するために部門横断で連携することは、AI の説明可能性に向けた取り組みの前提条件です。さらに、組織に共通する AI ユースケースに関連する生成 AI の説明可能性手法を監視し、導入していく能力を構築することも重要です。

Enzai が支援します

Enzai の AI GRC プラットフォームは、EU AI Act、Colorado AI Act、NIST AI RMF、ISO/IEC 42001 などの最新の規制、標準、フレームワークおよびベストプラクティスに準拠した AI 導入を支援します。詳細については、こちらからお問い合わせください

Enzai は、抽象的な方針から運用レベルの監督へと組織が移行することを支援するために特化して設計された、業界をリードするエンタープライズ AI ガバナンス プラットフォームです。当社の AI リスク管理プラットフォーム は、エージェント型 AI ガバナンス の管理、包括的な AI インベントリ の維持、EU AI Act への準拠 を実現するために必要な専門的インフラを提供します。複雑なワークフローを自動化することで、Enzai は、企業が確信を持って AI 導入を拡大できるよう支援しながら、ISO 42001NIST などのグローバル標準との整合性を維持します。

さらに詳しく見る

さらに詳しく見る

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

設計に伴うコンプライアンス

設計に伴うコンプライアンス

ISO 27001

EnzaiISO 270012023NQAInstil

一般データ保護規則 (GDPR)

ISO 27001

EnzaiISO 270012023NQAInstil

一般データ保護規則 (GDPR)

AI

AI

インフラストラクチャ

インフラストラクチャ

信頼を構築するために設計されています。

信頼を構築するために設計されています。

組織がAIを採用し、管理し、監視する能力を、企業レベルの信頼性で強化します。規模で運営する規制対象の組織向けに構築されています。

既存のシステム、ポリシー、AIワークフローを、すべて1つの統合プラットフォームでシームレスに接続します。

既存のシステム、ポリシー、AIワークフローを、すべて1つの統合プラットフォームでシームレスに接続します。