エンタープライズ向けエージェント型AIのための5層ガバナンス・フレームワーク――自律性の分類、アクション制御、エスカレーション・ロジック、そしてEU AI法にマッピングされたコンプライアンス。
•
•
47 最小読了時間
トピック
わずか18か月で、エージェンティックAIは研究プロトタイプからエンタープライズの現実へと移行しました。2025年末時点で、Gartnerは、エージェンティックAI機能が2028年までにエンタープライズソフトウェアアプリケーションの3分の1超に組み込まれ、2024年の1%未満から拡大すると予測していました。[1] SalesforceはAgentforceを発表し、MicrosoftはCopilot Studioにエージェントオーケストレーションを組み込みました。ServiceNow、SAP、その他多数の企業もこれに続きました。企業にとっての論点は、もはやAIエージェントを導入するかどうかではなく、何か問題が発生する前にエージェンティックAIガバナンスを整備しているかどうかです。
この緊迫感には十分な理由があります。エージェンティックAIシステムは、多くのガバナンス・フレームワークが想定していた従来型AIとは、質的に異なります。分類器はラベルを付与し、チャットボットはテキストを生成します。これに対してエージェントは目標を追求します。すなわち、複数ステップのワークフローを計画し、ツールを選択し、アクションを実行し、結果を観察し、反復します。しかも、多くの場合、最小限の人間の介在のもとで、数十回に及ぶ意思決定を行います。この運用上の自律性こそが、エージェントに価値をもたらす要因です。同時に、それがガバナンスを難しくしている要因でもあります。エージェンティックAIガバナンス - 自律型AIエージェントが許容されるリスク境界内で動作することを保証するための、ポリシー、統制、監督メカニズムの集合 - は、もはや将来の検討事項ではなく、企業にとっての必須要件です。
本ガイドでは、エンタープライズ向けのエージェンティックAIガバナンスに関する実践的なフレームワークを示します。エージェンティックAIシステムとは何か、なぜそれらに固有のガバナンスが必要なのか、既存規制がどのように適用されるのか、組織が実装すべき中核的なガバナンス統制は何か、そしてエージェントが本来実現すべきイノベーションを阻害することなく、それらの統制をいかに運用に落とし込むかを解説します。
エージェンティックAIの何が異なるのか
「エージェンティックAI」とは、人間向けの出力を単に生成するのではなく、目標達成のために自律的な行動を取ることができるAIシステムを指します。この違いは、リスク・プロファイルを根本的に変えるため、非常に重要です。
従来型のAIシステムは、リクエスト・レスポンスのパラダイムで動作します。ユーザーが入力を与え、システムが出力を生成し、ユーザーがその扱いを決定します。人間は、結果に影響を及ぼす各ステップで常にループの中にいます。エージェンティックなシステムは、このパターンを打ち破ります。高レベルの目的を受け取り、それをサブタスクに分解し、各ステップを遂行するためにツールを選択・呼び出し、中間結果を評価してアプローチを調整します。しかも、そのすべてを、段階ごとの完全承認から完全自律実行まで、さまざまなレベルの人間監督のもとで行います。
エージェンティックAIを従来型システムと区別し、固有のガバナンス課題を生み出す特性は3つあります。
自律的なアクション実行
エージェントは提案するだけではなく、実際に行動します。メールを送信し、コードを実行し、データベースを変更し、APIを呼び出し、ファイルを作成し、外部サービスと連携します。各アクションは、元に戻すことが困難、あるいは不可能な形で、現実世界の状態を変化させます。誤分類された画像は修正できますが、誤った宛先に送信されたメール、上書きされたデータベースレコード、誤って実行された金融取引は、単純に取り消すことはできません。
複数ステップの推論チェーン
エージェントは、各ステップが前のステップの上に積み上がる長い推論チェーン全体で動作します。1つの高レベル指示 - 「この欠員ポジションに最適な候補者を見つけてください」 - が、どのデータベースを照会するか、どの基準を重視するか、どの候補者を絞り込むか、どのように連絡するかといった、数十の中間意思決定を引き起こすことがあります。単一意思決定システム向けに設計されたガバナンス・フレームワークは、この複合的な複雑性に対処しきれません。
動的なツール呼び出し
最新のエージェント・アーキテクチャでは、API、データベース、Webサービス、コードインタープリターなど、システム設計や評価時点では想定されていなかったツールを、実行時に発見して呼び出すことが可能です。これにより、リスク評価とコンプライアンスの対象は常に変化します。月曜日におけるシステムの能力が、金曜日には実質的に異なっている場合もあります。
この3つの特性は相互に作用します。自律的に行動し、複数ステップのチェーンを横断し、実行時に発見したツールを動的に呼び出すエージェントは、従来型AIシステムのガバナンスより難しいというだけではなく、構造的に異なるガバナンス課題をもたらします。
既存規制の適用関係
よくある誤解として、現在のAI規制はエージェンティックなシステムを対象としておらず、ガバナンス義務が発生する前に新たな法制度が必要だと考えられています。しかしこれは誤りであり、「エージェント特化型」の規制を待っている組織は、すでに施行されている法令の下で非準拠と見なされるリスクがあります。
EU AI Act
EU AI Actの第3条(1)におけるAIシステムの定義は、以下のように述べています。「さまざまなレベルの自律性で動作するよう設計され、導入後に適応性を示す可能性があり、明示的または暗黙的な目的のために、受け取った入力から、予測、コンテンツ、推奨事項、または物理的もしくは仮想的環境に影響を与え得る決定などの出力を生成する方法を推論する機械ベースのシステム」。[2]
この定義の各要素は、エージェンティックAIを無理なく包含します。「さまざまなレベルの自律性」は、人間主導から完全自律までのスペクトラムを明示的に想定しています。「暗黙的な目的」 - 主として、目的がプロンプトとして明示されているのではなく、設計や学習によって暗示されるシステムを捉えるために起草されたものですが - は、エージェントが高レベル指示を分解する過程で追求する創発的なサブゴールを十分に包含できるほど広範です。ただし、この解釈は、これまで執行や正式なAI Officeのガイダンスを通じて検証されてはいません。[3] 「決定」は、エージェントが各ステップで行う行動選択を包含します。そして「物理的または仮想的環境に影響を与える」は、単なる受動的な出力生成を超えて、エージェンティックな振る舞いを特徴づける環境変化を伴うアクションまでを含みます。
同法の執行スケジュールは段階的です。許容不能リスクのAIシステムに対する禁止は2025年2月2日に適用開始済みです。汎用AI(GPAI)モデルに対する義務は2025年8月2日から適用されます。附属書IIIに基づく高リスクシステム全体の義務は、2026年8月2日に全面的に適用されます。[4] 高リスクのユースケースにエージェンティックシステムを導入する組織に残された準備期間は、着実に短くなっています。
エージェンティックなシステムが、附属書IIIに列挙された高リスクのユースケース - 雇用判断、与信スコアリング、法執行、重要インフラの管理 - のいずれかに該当する場合、高リスク義務の全範囲が適用されます。これには、リスク管理システム(第9条)、データ・ガバナンス(第10条)、技術文書化(第11条)、記録保持および自動ログ記録(第12条)、透明性(第13条)、人間による監督(第14条)、正確性・堅牢性・サイバーセキュリティ要件(第15条)が含まれます。[5] とりわけ第12条は重要です。複数ステップの推論チェーンと動的なツール呼び出しを伴って意思決定が展開するシステムにおいて、ログ記録要件は、技術的に最も高度であると同時に、運用上も最も重要な義務です。
同法の運用フレームワークは、エージェンティックなユースケースに対して、特に動的システムの適合性評価、第三者ツールをエージェントが呼び出す際のプロバイダーとデプロイヤーの責任分担、そして1秒あたり数十件のマイクロ意思決定を行うシステムに対して「比例的」な人間監督とは何かという点で、確かに負荷がかかります。[6] しかし、規制の適用範囲自体は明確です。エージェンティックAIシステムは同法上のAIシステムであり、義務は適用されます。
GPAIモデルの義務
多くのエンタープライズ向けエージェントは、Anthropic、OpenAI、Google、Metaなどの第三者が提供する汎用AIモデル上に構築されています。EU AI Actは、第51条から第56条において、GPAIモデル提供者に対し、技術文書化、著作権方針の透明性、そしてシステミックリスクを有すると指定されたモデルについては、敵対的テストとインシデント報告など、特定の義務を課しています。[7] 2025年後半に確定したGPAI行動規範は、これらの義務に対するコンプライアンス経路を提供します。
エンタープライズのデプロイヤーにとっては、GPAI提供者の義務とデプロイヤーの義務が相互に作用することで、層状のコンプライアンス構造が形成されます。基盤モデル提供者が一定の責任を負い、導入組織が別の責任を負います。エージェント・フレームワークが、GPAIモデル、オーケストレーション層、第三者ツールを組み合わせて複合システムを構成する場合、バリューチェーン全体での義務配分そのものがガバナンス上の課題となります。以下のマルチステークホルダーの節では、この点を直接取り上げます。
ISO/IEC 42001
2023年12月に公表されたAIマネジメントシステムの国際規格は、AIマネジメントシステムを確立し、実装し、継続的に改善するためのフレームワークを提供します。[8] エージェンティックAIを特に対象としているわけではありませんが、リスク評価、人間による監督、継続的モニタリングに関する統制は、直接適用可能です。ISO 42001認証を目指す組織は、AIマネジメントシステムが従来型AIアプリケーションだけでなく、自律型エージェントの導入を明示的に対象としていることを確認すべきです。
NIST AI Risk Management Framework
NIST AI RMFの4つの中核機能 - Govern、Map、Measure、Manage - は、エージェンティックなシステムにも自然に拡張できる、体系的なAIリスク管理アプローチを提供します。[9] エージェントの振る舞いが動的であることを踏まえると、文脈に応じたリスク評価と継続的モニタリングへの重視は、特に重要です。生成AIのリスクに関する補足文書(NIST AI 600-1)は、プロンプト・インジェクションや意図しないデータ露出を含む、ツールを利用するエージェントに関連する複数のリスクを扱っています。[10] また、Article 3(1)に影響を与えたOECDも、自律性のレベルを1つの次元として含む分類フレームワークを積極的に整備しており、この取り組みはエージェンティックAIガバナンスの国際的な進化の方向性に影響を与える可能性が高いと考えられます。[11]
新たに生じる州法および業界別要件
2026年2月に発効予定で、なお立法上の修正が控えているColorado AI Actは、高リスクAIシステムの開発者およびデプロイヤーに対し、結果に重大な影響を及ぼす意思決定においてアルゴリズム差別を回避するため、合理的な注意を尽くすことを求めています。[12] 雇用、金融、保険、住宅の判断において意思決定を行う、あるいは実質的に影響を与えるエージェンティック・システムは、明確にその対象に含まれます。金融サービス分野では、機関横断的なモデルリスク管理ガイダンス(連邦準備制度理事会のSR 11-7およびOCC 2011-12)が、リスク評価および意思決定に用いられるAIエージェントに適用されます。ただし、これは従来型の統計モデル向けに設計されたものであり、自律的なツールアクセスを伴って動作する基盤モデルベースのエージェントに対しては、慎重な解釈が必要です。[13]
エージェンティックAIガバナンス・フレームワーク
エージェンティックAIを統治するには、前述の特性 - 自律的なアクション実行、複数ステップの推論、動的なツール呼び出し - に対応する統制が必要です。ここで示すフレームワークは、Enzaiがエンタープライズのガバナンスチームと取り組んできた知見に基づき、これらの統制を5つの層に整理しています。すなわち、自律性の分類、アクションの許可リスト、エスカレーションロジック、トレーサビリティ、継続的モニタリングです。それぞれの層は、前の層の上に積み重なっています。
レイヤー1: 自律性の分類
すべてのエージェントが同じレベルのガバナンスを必要とするわけではありません。人間のレビューのためにメール返信の下書きを作成するエージェントと、自律的に金融取引を実行するエージェントでは、リスク・プロファイルが根本的に異なります。エージェンティックAIガバナンス・プログラムの第一歩は、各エージェントの自律性レベルを分類し、その分類を適切な統制にマッピングすることです。
ティア | ラベル | 説明 | ガバナンス要件 |
|---|---|---|---|
1 | 支援型 | エージェントが推奨事項や下書きを生成し、人間が実行前にすべてのアクションをレビューして承認する | 標準的なAI品質統制 |
2 | 監督下 | エージェントが定義済みのパラメータ内でアクションを実行し、人間が監視し、介入する能力を保持する | 明確な監視プロトコルと介入メカニズム |
3 | 制約付き自律型 | エージェントが、制約されたアクション空間と事前定義されたガードレールの範囲内で自律的に動作する | 厳格なアクション許可リスト、エスカレーションロジック、継続的モニタリング |
4 | 完全自律型 | エージェントが、オープンエンドなタスク全体にわたり広範な裁量で動作する | 最も強力な統制: リアルタイム監視、包括的な監査証跡、定期的な人間による成果レビュー |
この分類は、モデル単位ではなくユースケース単位で行うべきです。同じ基盤モデルでも、ある導入ではティア1のアシスタントを、別の導入ではティア3の自律型エージェントを支えることがあります。ガバナンス義務はモデルではなく、導入に紐づきます。
レイヤー2: アクションの許可リスト化と制約付きアクション空間
エージェンティックAIに対する最も有効な統制は、実行可能な行動を制限することです。起こりうるあらゆる失敗モードを予測して防ぐのではなく、アクションの許可リストによって、エージェントが取り得る許可済みアクションの集合 - 呼び出せるツール、実行できるAPI、アクセスできるデータ、変更できるシステム - を定義します。
これは拒否リストではなく、許可リストのアプローチです。明示的に許可されていないアクションは、すべて禁止されるというのが基本姿勢です。これは、ソフトウェアシステムにおける典型的なセキュリティモデル(明示的に禁止されていないものは許可される)を反転させるものであり、エージェンティックAIシステムが設計者の想定外のアクションを発見し、試みる可能性があるという現実を反映しています。
実装上は、3つのレベルでアクション境界を定義することが重要です。
ツールアクセス: エージェントが呼び出せるAPI、データベース、サービス、コード実行環境
パラメータ制約: エージェントが各ツールに渡せる入力内容(たとえば、データベース照会エージェントを特定テーブルの読み取り専用操作に制限する)
影響範囲の上限: 1回のアクションが及ぼしうる範囲に関するしきい値(たとえば、人間の承認なしにエージェントが許可できる取引金額を上限設定する)
重要な運用上の留意点として、ツール環境が進化するにつれて、アクションの許可リストも維持管理し続けなければなりません。基盤モデル提供者がアップデートを行ってモデルの挙動が変わった場合、あるいは新しいツールがエージェントの潜在的なアクション空間に追加された場合、許可リストを見直し、再検証する必要があります。許可リストを、継続的に管理されるガバナンス資産ではなく静的な設定値として扱うことは、典型的な失敗要因です。
レイヤー3: エスカレーションロジック
制約付きのアクション空間の中であっても、エージェントは自身の能力や権限を超える状況に遭遇します。効果的なガバナンスには、事前に定義されたエスカレーション経路 - エージェントが自律的に継続するのではなく、いつ人間に制御を戻すべきかに関する明確なルール - が必要です。
エスカレーショントリガーには、以下を含めるべきです。
信頼度のしきい値: エージェントが選択したアクションに対する信頼度が、定義されたレベルを下回った場合
影響度のしきい値: 提案されたアクションが、事前定義された影響上限(財務価値、影響を受けるレコード数、不可逆性)を超える場合
異常検知: エージェントの振る舞いが予想パターンから逸脱した場合
ドメイン境界: エージェントが、定義された範囲外のタスクやドメインに遭遇した場合
障害条件: ツール呼び出しが失敗した場合、または予期しない結果を返した場合
エスカレーション機構の設計は、トリガーそのものと同じくらい重要です。エスカレーションは、エージェントにとって摩擦のないものでなければなりません(エスカレーションしたことで不利益を被る設計パターンにより、それを回避するよう「誘導」されてはならない)し、また人間にとって実行可能でなければなりません(人間がエージェントの推論チェーン全体を再構築しなくても、十分なコンテキストに基づいて判断できる情報が含まれている必要があります)。
レイヤー4: トレーサビリティと監査証跡
EU AI Act(高リスクシステムに関する第12条)に基づく規制要件も、実際のインシデント対応も、エージェント活動の包括的なログ記録を求めています。[14] エージェンティックなシステムでは、入力と出力だけでなく、推論の全チェーン、ツール呼び出し、中間結果、各ステップでの意思決定を捕捉する必要があります。
エージェンティックAIの有効な監査証跡には、以下を記録すべきです。
エージェントに与えられた初期の目的または指示
各推論ステップと、アクション選択の根拠
呼び出されたツール、渡されたパラメータ、受信したレスポンスを含む、すべてのツール呼び出し
実行されたアクションとその結果
エスカレーション事象と人間による介入
エージェントのアクションに起因する環境状態の変化
関連イベントを結び付けるタイムスタンプとセッション識別子
これらのログは、インシデント後の調査、規制遵守、ガバナンス統制の継続的改善、そして問題発生時の説明責任の所在確認という、複数の目的に資します。改ざん防止のため、改変不可能で、タイムスタンプが付され、エージェントシステム本体とは独立して保存されるべきです。
レイヤー5: 継続的モニタリング
導入前の一時点評価 - エージェントを導入前に評価し、その後も準拠し続けると仮定すること - は、能力や挙動が動的に変化しうるシステムにとっては不十分です。エージェンティックAIガバナンスには、複数の観点にわたる継続的モニタリングが必要です。
パフォーマンス監視: エージェントの成果は、品質および正確性のしきい値を満たしているか
行動監視: エージェントの振る舞いは、期待されるパターンの範囲内にあるか。アクション分布は時間とともに変化していないか
コンプライアンス監視: エージェントのアクションは、許可されたアクション空間内に収まっているか。エスカレーション・プロトコルは遵守されているか
公平性監視: 個人に関する意思決定を行う、または影響を与えるエージェントについて、結果は保護特性間で公平か
セキュリティ監視: エージェントは、敵対的入力、プロンプト・インジェクションの試み、その他の操作を受けていないか
モニタリングは、ガバナンス統制へとフィードバックされるべきです。モニタリングが異常 - 許可された集合外のアクション、成果分布の変化、敵対的操作を示唆するパターン - を検知した場合、対応は可能な限り自動化されるべきです(エージェントの停止、エスカレーションのトリガー)。そのうえで、人間によるレビューのために記録される必要があります。
エージェントが行動したとき、誰が責任を負うのか
エージェンティックAIガバナンスの最も難しい側面の1つは、責任が複数の主体に分散していることです。典型的なエンタープライズのエージェント導入には、少なくとも4者が関与します。すなわち、基盤モデル提供者(OpenAI、Anthropic、Google、Metaなど)、エージェント・フレームワークまたはオーケストレーション層(第三者プラットフォームである場合もあれば、自社構築の場合もあります)、導入組織、そしてエージェントが実行時に呼び出すツールやAPIの提供者です。
EU AI Actは、プロバイダーとデプロイヤーの間で義務を分けており、一部の規定は輸入者および販売業者にも適用されます。[15] しかし、この二分法はエージェンティックなバリューチェーンには必ずしもきれいには当てはまりません。外部APIを呼び出す自社オーケストレーション層と第三者基盤モデルを組み合わせたエージェントの「プロバイダー」は誰なのか。第25条は、第三者がAIシステムを修正または再利用し、自らプロバイダーとなる可能性がある状況を扱っていますが、動的に構成されるシステムについては境界がなお不明確です。[16]
この分散は、組織が過小評価しがちな基盤モデルのサプライチェーンリスクも生み出します。モデル提供者がアップデートを配信すると - 新しいモデルバージョン、変更された安全フィルター、挙動パターンの変更など - 以前のバージョンに対して検証済みだったガバナンス統制は、もはや有効でない可能性があります。アクションの許可リスト、エスカレーションのしきい値、コンプライアンス評価はすべて、特定のモデル挙動ベースラインを前提としています。静かに行われるモデル更新は、導入側に変更がなくても、それらの前提を無効化し得ます。
実効性のあるガバナンスは、この分散構造を前提に設計する必要があります。エージェンティックAIを導入する組織は、以下を実施すべきです。
各エージェント導入について、すべての関係者とそのガバナンス責任を特定する、バリューチェーン全体のマッピングを行う
データ取り扱い、責任所在、インシデント対応を明確化する契約条件を、ツールおよびAPIの提供者と整備する
明確な社内アカウンタビリティ構造を維持する - 各エージェント導入の所有者、監視責任者、介入または停止の権限者を明確にする
基盤モデルに対してバージョン固定と変更管理プロセスを導入し、提供者が更新をリリースした際の再検証トリガーを定める
規制監査に耐えうる形で、責任分担を文書化する
エージェンティックAIのインシデント対応
ガバナンスは、失敗を防ぐことだけではありません。失敗が起こったときに、いかに効果的に対応するかも含みます。エージェンティックAIシステムには、自律的かつ複数ステップで動作する性質を考慮したインシデント対応手順が必要です。
エージェンティックAIのインシデント対応計画には、以下を含めるべきです。
キルスイッチ: エージェントの実行を即時に停止し、ツールアクセスを取り消して、それ以上のアクションを防ぐ機能。これは技術的に確実である必要があり(エージェントの協力に依存してはならない)、指定された担当者が数秒以内にアクセスできる必要があります
ロールバック手順: 可能な限り、エージェントが実行したアクションを元に戻すための事前定義済み手順。すべてのアクションが可逆とは限らないため、前述の監査証跡と影響範囲の上限が、被害の広がりを抑えるうえで極めて重要になります
通知義務: 規制産業では、特定のエージェント障害が報告要件を引き起こす場合があります。金融サービスでは、不正取引は数時間以内の規制当局への通知を要することがあります。EU AI Actの下では、高リスクAIシステムに関わる重大インシデントは、市場監視当局へ報告しなければなりません
根本原因分析: 事後調査では、Layer 4で取得した監査証跡を用いて、初期目的から各ツール呼び出しと意思決定を経て障害点に至るまでの推論チェーン全体を追跡すべきです
インシデント対応計画は、最初の失敗の後ではなく、導入前に実施すべきです。アクション境界の突破、エスカレーション失敗、侵害されたツール応答などのエージェント障害を想定した机上演習は、圧力下でも適切に対応するために必要な実践的な反応力をチームに身につけさせます。
エージェンティックAIガバナンスの運用化
ガバナンス・フレームワークは、実運用に落とし込めて初めて価値があります。しかも、エージェントが本来実現すべきイノベーションを妨げるほどの摩擦を生まないことが条件です。フレームワークと実務の間のギャップを埋めるために、いくつかの原則が役立ちます。
ガバナンスをエージェントのライフサイクルに組み込む
ガバナンスは、エージェント開発と導入の横で並行して進む別ワークストリームであってはなりません。開発パイプラインに組み込まれるべきです。すなわち、設計段階での自律性分類、開発中のアクション許可リスト設定、導入前のエスカレーションロジック・テスト、本番環境での継続的モニタリングです。これは、セキュリティにおけるシフトレフトの考え方に似ています。あとから付け足すのではなく、最初から組み込むのです。
ガバナンス統制を自動化する
手動のガバナンス・プロセスでは、マシン速度で動くエージェントには追随できません。アクションの許可リストは、ポリシー文書ではなくプログラムで強制されるべきです。エスカレーショントリガーも、ログを人間が監視することに頼るのではなく、自動的に発火すべきです。コンプライアンスチェックはCI/CDパイプライン内の自動ゲートとして実行し、エンジニアリングチームに記入用のコンプライアンスフォームではなく、合否が明確に分かるシグナルを提供すべきです。
AIインベントリにガバナンスを組み込む
あらゆるエージェンティックAIシステムは、一元化されたAIインベントリに登録されるべきです。そこには、自律性の分類、許可されたアクション空間、エスカレーション・プロトコル、モニタリング設定、責任者の割り当て、基盤モデルのバージョンが記録されます。このインベントリはガバナンス・プログラムの基盤です。これがなければ、組織は、どのエージェントを導入したのか、それらに何が許可されているのか、誰が責任を負うのかといった基本的な問いに答えることができません。
実装を実務的に段階化する
多数のエージェントを導入する組織は、すべての導入に対して5層すべてのガバナンスを同時に実装することはできません。実務的な段階化の進め方は以下のとおりです。
まずインベントリから始める。 見えないものは統治できません。チームが非公式に立ち上げたシャドー導入も含め、すべてのエージェント導入を棚卸ししてください。
自律性レベルを分類する。 各エージェントをティアにマッピングします。これにより、その後に実施するすべての統制の妥当性が決まります。
まずティア3およびティア4のエージェントにアクション許可リストを実装する。 これらは最もリスクが高く、制約付きアクション空間の恩恵を最も受けます。
初日から監査証跡を構築する。 ログ記録は、早期に実装するのが最も安価で、後から追加するのが最も高くつく統制です。
導入の成熟に合わせて継続的モニタリングを段階的に追加する。 まずはコンプライアンス監視(エージェントが許可リストの範囲内にとどまっているか)から始め、時間をかけて行動監視や公平性監視へと拡張します。
ガバナンスを競争優位として捉える
ガバナンスを単なるコンプライアンスコストとしてしか見ない組織は、投資が不十分になり、エンジニアリングチームの反発を招きます。より適切な捉え方は、ガバナンスをスケールの条件とすることです。体系的な統制がなければ、組織は十分な監督を証明できないため、エージェント導入は低リスク・低価値のユースケースに限定されます。ガバナンスこそが、企業が慎重なパイロットプログラムから、真のビジネスインパクトを伴う本番導入へと進むことを可能にするのです。
エージェンティックAI規制の次に来るもの
エージェンティックAIガバナンスを取り巻く環境は、今後2年間で急速に進化します。CENおよびCENELECは、標準化プログラムの加速を反映して2025年6月に改定されたミッションのもと、Joint Technical Committee 21を通じてEU AI Actに基づく整合化標準を策定しています。[17] これらの標準は、高度に自律的なシステムに対する比例的な人間監督がどのようなものか - 制約付きアクション空間、構造化されたチェックポイント、監査証跡、介入メカニズム - を定義する必要がありますが、あらゆる局面で人間をループに入れることを要求してはなりません。
欧州委員会は、エージェンティック特有のリスクが顕在化した場合、完全な法改正を経ずに、委任法により附属書IIIの高リスク・ユースケース一覧を更新する権限を持っています。[18] また、委員会ガイダンスは、プロバイダーとデプロイヤーの枠組みがエージェンティックなバリューチェーンにどのように対応するか、そして実行時のツール呼び出しが第3条(23)における「実質的変更」に該当するのはいつかを明確にできます。第56条に基づく行動規範も、GPAIモデル層における制御可能性機能、ツール利用ログ、アクション空間の制約といったエージェント固有のリスクに対処するための、もう1つの手段となります。[19]
IAPPやOECDを含む業界団体も、自律型AIに関するガバナンス指針の策定を積極的に進めています。[20] ISO/IEC JTC 1/SC 42は、AI標準の42000シリーズを拡充し続けており、市場が成熟するにつれて、エージェント特化型の作業項目が登場しても不思議ではありません。
これらの標準やガイダンスが整うまで行動を待つ組織は、そもそもそのような前提で設計されていないエージェント導入に、後からガバナンスを組み込むことになります。これは高コストで混乱を招く作業です。より賢明なアプローチは、いまガバナンス基盤を構築し、規制や標準に基づく要件が具体化するにつれて適応していくことです。
エージェンティックAIを統治する課題は現実的ですが、前例のないものではありません。企業はこれまでも、アルゴリズム取引から自動運転車、ロボティック・プロセス・オートメーションまで、他の複雑で自律的かつ高リスクなシステムを統治してきました。原則は同じです。リスクを分類し、行動を制約し、エスカレーションを求め、トレーサビリティを維持し、継続的にモニタリングすることです。新しいのは、エージェンティックAIが導入される速度と、それが触れているエンタープライズ機能の広がりです。
異なる自律性ティア、ツールアクセス設定、規制上の義務を持つ多数のエージェント導入に対して、これら5層のガバナンスを実装することは、ポリシーの問題であると同時に、インフラストラクチャの問題でもあります。Enzaiでは、そのインフラ - 自律性分類やアクションの許可リストから、EU AI Act、ISO 42001、NIST AI RMFにまたがる継続的モニタリングと規制遵守まで - を構築することこそが、当社プラットフォームが解決すべき課題です。詳細は、デモを予約してください。
Enzaiは、組織が抽象的なポリシーから運用上の監督へと移行できるよう設計された、業界をリードするエンタープライズAIガバナンスプラットフォームです。当社のAIリスク管理プラットフォームは、エージェンティックAIガバナンスを管理し、包括的なAIインベントリを維持し、EU AI Act準拠を確実にするために必要な専門インフラを提供します。複雑なワークフローを自動化することで、Enzaiは、企業がグローバル標準であるISO 42001やNISTとの整合性を維持しながら、安心してAI導入を拡大できるよう支援します。
参考文献
[1] Gartner, 「Agentic AI: The Next Frontier of Enterprise AI」, 2024年10月。Gartnerは、エージェンティックAI機能が2028年までにエンタープライズソフトウェアアプリケーションの33%に搭載されると予測しました。
[2] 欧州議会および理事会規則(EU)2024/1689、第3条(1)。欧州連合官報Lシリーズ、2024年7月12日。
[3] 欧州委員会によるAIシステム定義に関する解釈ガイダンス(2025年公表)は追加的な文脈を提供していますが、エージェンティック・システムにおける創発的なサブゴール分解については特に扱っていません。
[4] 規則(EU)2024/1689、第113~114条(発効および適用日)。
[5] 規則(EU)2024/1689、第III章第2節、第9~15条。
[6] これらの運用上の負荷に関する詳細な分析については、Enzai「EU AI Actは曲がる。折れる必要はない」, 2026年3月を参照してください。
[7] 規則(EU)2024/1689、第V章、第51~56条(GPAIモデル提供者の義務)。
[8] ISO/IEC 42001:2023, 情報技術 - 人工知能 - マネジメントシステム。国際標準化機構、2023年12月。
[9] NIST, Artificial Intelligence Risk Management Framework(AI RMF 1.0), NIST AI 100-1, 2023年1月。
[10] NIST, Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile, NIST AI 600-1, 2024年7月。
[11] OECD, 「OECD Framework for the Classification of AI Systems」, OECD Digital Economy Papers No. 323, 2022年2月。OECD AI Principlesは2024年5月に更新されました。
[12] Colorado SB 24-205, Concerning Consumer Protections for Artificial Intelligence, 2024年5月成立。元の発効日は2026年2月1日で、現在は立法上の修正が予定されています。
[13] 連邦準備制度理事会, SR Letter 11-7, 「Supervisory Guidance on Model Risk Management」, 2011年4月。通貨監督庁(OCC)2011-12。
[14] 規則(EU)2024/1689、第12条(高リスクAIシステムの記録保持/自動ログ記録)。
[15] 規則(EU)2024/1689、第16条(プロバイダーの義務)および第26条(デプロイヤーの義務)。
[16] 規則(EU)2024/1689、第25条(AIバリューチェーン上のその他の当事者の義務)。
[17] 欧州委員会の標準化要請 M/593(CENおよびCENELEC宛)、2025年6月改定版。CEN-CENELEC JTC 21 作業計画。
[18] 規則(EU)2024/1689、第7条(附属書IIIの改正)。
[19] 規則(EU)2024/1689、第56条(GPAIモデルの行動規範)。
[20] IAPP AI Governance Center、OECD AI Policy Observatory(oecd.ai)、ISO/IEC JTC 1/SC 42作業計画。
組織がAIを採用し、管理し、監視する能力を、企業レベルの信頼性で強化します。規模で運営する規制対象の組織向けに構築されています。

