エンタープライズ向けエージェント型AIのための5層ガバナンス・フレームワーク――自律性の分類、アクション制御、エスカレーション・ロジック、そしてEU AI法にマッピングされたコンプライアンス。
•
•
41 最小読了時間
トピック
18か月の間に、エージェント型AIは研究プロトタイプからエンタープライズの現実へと移行しました。Gartnerは、2025年末までの見通しとして、エージェント型AI機能が2028年までにエンタープライズ向けソフトウェアアプリケーションの3分の1超に組み込まれ、2024年の1%未満から大幅に増加すると予測しました。[1] SalesforceはAgentforceを立ち上げ、MicrosoftはCopilot Studioにエージェントオーケストレーションを組み込みました。ServiceNow、SAP、その他多数もこれに続きました。企業にとっての問いは、もはやAIエージェントを導入するかどうかではなく、問題が発生する前にエージェント型AIガバナンスを整備しているかどうかです。
この切迫感には十分な根拠があります。エージェント型AIシステムは、既存の多くのガバナンス枠組みが対象として設計されてきたAIとは質的に異なります。分類器はラベルを付与し、チャットボットはテキストを生成します。一方でエージェントは目標を追求します。すなわち、複数ステップのワークフローを計画し、ツールを選択し、アクションを実行し、結果を観測して反復します。多くの場合、最小限の人間介入で数十の意思決定をまたいで動作します。この運用上の自律性こそがエージェントの価値であり、同時に統治を難しくする要因でもあります。エージェント型AIガバナンス(自律型AIエージェントが許容可能なリスク境界内で動作することを担保する方針・統制・監督メカニズムの総体)は、将来の検討事項ではなく、今や企業の必須要件です。
本ガイドは、企業向けの実践的なエージェント型AIガバナンスの枠組みを提示します。エージェント型AIシステムの定義と、なぜ個別のガバナンス対応が必要か、既存規制の適用方法、組織が実装すべき中核的統制、そしてエージェントがもたらすべきイノベーションを阻害せずにそれらの統制を運用に落とし込む方法を解説します。
エージェント型AIを特別なものにする要因
「エージェント型AI」とは、人間が消費する出力を単に生成するのではなく、目標達成のために自律的な行動を取ることができるAIシステムを指します。この違いは、リスクプロファイルを根本から変えるため重要です。
従来のAIシステムは、リクエスト-レスポンス型の枠組みで動作します。ユーザーが入力を与え、システムが出力を生成し、ユーザーがその扱いを判断します。重要な各段階で人間がループ内に留まります。エージェント型システムはこのパターンを崩します。高位の目的を受け取り、それをサブタスクに分解し、各ステップを達成するためのツールを選択・呼び出し、中間結果を評価してアプローチを調整します。人間の監督は、各段階での完全承認から完全自律実行まで、さまざまな水準を取り得ます。
エージェント型AIを従来型システムと区別し、固有のガバナンス課題を生む特性は3つあります。
自律的なアクション実行
エージェントは単に推奨するだけでなく、実際に行動します。メール送信、コード実行、データベース変更、API呼び出し、ファイル作成、外部サービス連携を行います。各アクションは世界の状態を変化させ、元に戻すことが困難または不可能な場合があります。誤分類された画像は修正できますが、誤送信メール、上書きされたデータベースレコード、誤って実行された金融取引は、単純には取り消せません。
複数ステップの推論連鎖
エージェントは、各ステップが前段に依存する長い推論連鎖の中で動作します。たとえば「この募集職種に最適な候補者を探す」という単一の高位指示でも、どのデータベースに問い合わせるか、どの基準を重視するか、誰を候補に絞るか、どう連絡するかといった多数の中間判断を引き起こし得ます。単一意思決定システム向けに設計されたガバナンス枠組みでは、この累積的複雑性への対応が困難です。
動的なツール呼び出し
最新のエージェントアーキテクチャでは、実行時にエージェントがツール(API、データベース、Webサービス、コードインタープリタなど)を発見し呼び出すことが可能です。これらは、設計・評価時には想定されていなかった可能性があります。結果として、リスク評価とコンプライアンスの対象は常に変動します。月曜日のシステム能力が、金曜日には実質的に異なっていることもあり得ます。
これら3つの特性は相互に作用します。自律的に行動し、複数ステップ連鎖で動作し、実行時に発見したツールを動的に呼び出すエージェントは、従来型AIシステムより「難しい」だけではなく、構造的に異なるガバナンス課題を提示します。
既存規制の適用方法
よくある誤解として、現行のAI規制はエージェント型システムを対象外としており、新たな立法枠組みが整うまでガバナンス義務は発生しない、という見方があります。これは誤りです。「エージェント型特化」規制を待つ組織は、すでに施行済みの法令下で不適合となるリスクがあります。
EU AI Act
EU AI Act第3条1項におけるAIシステム定義は、「可変的な自律性レベルで動作するよう設計され、導入後に適応性を示す可能性があり、明示または黙示の目的のため、受領した入力から、予測・コンテンツ・推奨・意思決定など、物理的または仮想的環境に影響を与え得る出力の生成方法を推論する機械ベースのシステム」と記述しています。[2]
この定義のすべての要素は、無理なくエージェント型AIを包含します。「可変的な自律性レベル」は、人間主導から完全自律運用までのスペクトラムを明示的に想定しています。「黙示の目的」は、主としてプロンプト明示ではなく設計や学習によって目的が示されるシステムを捉えるために起草されたものの、高位指示を分解する過程でエージェントが追求する創発的サブゴールも十分に包含し得る広さを持ちます(ただしこの解釈は、執行やAI Officeの正式ガイダンスで未だ検証されていません)。[3]「意思決定」は各ステップのアクション選択を捉えます。そして「物理的または仮想的環境への影響」は、受動的な出力生成を超え、エージェント的挙動を特徴づける環境変更アクションを含みます。
同法の施行スケジュールは段階的です。許容不能リスクのAIシステムに対する禁止は2025年2月2日に発効しました。汎用目的AI(GPAI)モデルに関する義務は2025年8月2日から適用されます。附属書IIIに基づく高リスクシステム義務一式は2026年8月2日に全面適用されます。[4] 高リスク用途でエージェント型システムを導入する組織に残された準備期間は縮小しています。
エージェント型システムが附属書III記載の高リスク用途(雇用判断、信用スコアリング、法執行、重要インフラ管理など)に該当する場合、高リスク義務一式が適用されます。これには、リスク管理システム(第9条)、データガバナンス(第10条)、技術文書(第11条)、記録保持と自動ログ(第12条)、透明性(第13条)、人的監督(第14条)、精度・堅牢性・サイバーセキュリティ要件(第15条)が含まれます。[5] 特に第12条は重要です。動的ツール呼び出しを伴う複数ステップ推論連鎖で意思決定が進むシステムでは、ログ要件は技術的難易度が最も高く、かつ運用上最重要の義務となります。
同法の運用枠組みは、エージェント型ユースケースにおいて確かに負荷を受けます。特に、動的システムの適合性評価、エージェントが第三者ツールを呼び出す場合の提供者・利用者責任分担、1秒間に多数のマイクロ意思決定を行うシステムにおける「比例的な」人的監督の意味づけが課題です。[6] しかし規制の外縁は明確です。エージェント型AIシステムは同法上のAIシステムであり、義務は適用されます。
GPAIモデル義務
多くの企業向けエージェントは、Anthropic、OpenAI、Google、Metaなど第三者提供の汎用目的AIモデル上に構築されています。EU AI Actは第51条〜第56条でGPAIモデル提供者に固有の義務を課しており、技術文書、著作権ポリシーの透明性、さらにシステミックリスクを有すると指定されたモデルについては敵対的テストやインシデント報告が含まれます。[7] 2025年後半に最終化されたGPAI実務規範(Code of Practice)は、これら義務へのコンプライアンス経路を提供します。
企業側の導入主体にとって、GPAI提供者義務と導入主体義務の相互作用は、階層化されたコンプライアンス像を生みます。基盤モデル提供者が担う責任があり、導入組織が担う責任があります。エージェントフレームワークがGPAIモデル、オーケストレーション層、第三者ツールを結合して複合システムを構成する場合、バリューチェーン全体での義務配分そのものが独立したガバナンス課題となります。以下のマルチステークホルダー節でこれを直接扱います。
ISO/IEC 42001
2023年12月に公表されたAIマネジメントシステムの国際規格は、AIマネジメントシステムの確立、実装、継続的改善の枠組みを提供します。[8] エージェント型AIを明示的に対象化してはいないものの、リスク評価、人的監督、継続的監視に関する統制は直接適用可能です。ISO 42001認証を目指す組織は、自社のAIマネジメントシステムが従来型AIアプリケーションだけでなく、自律エージェント導入を明示的にカバーしていることを確認すべきです。
NIST AI Risk Management Framework
NIST AI RMFの4つの中核機能(Govern、Map、Measure、Manage)は、エージェント型システムにも自然に拡張できる構造化されたAIリスク管理アプローチを提供します。[9] 文脈依存のリスク評価と継続的監視を重視する点は、エージェント挙動の動的性質を踏まえると特に重要です。生成AIリスクの補助文書(NIST AI 600-1)は、ツール利用型エージェントに関連する複数のリスク(プロンプトインジェクションや意図しないデータ露出など)を扱っています。[10] また、第3条1項の定義に影響を与えたOECDも、自律性レベルを一つの軸に含む分類枠組みを積極的に発展させており、この動きは国際的なエージェント型AIガバナンスの進化を形づくる可能性が高いと考えられます。[11]
新興の州法および業種別要件
コロラドAI法は、保留中の立法修正を前提として2026年2月に施行予定であり、高リスクAIシステムの開発者・導入者に対して、重大な意思決定におけるアルゴリズム差別を回避するための合理的注意義務を課しています。[12] 雇用、金融、保険、住宅に関する意思決定を行う、または実質的に影響を与えるエージェント型システムは、明確に適用対象です。金融サービス分野では、機関横断のモデルリスク管理ガイダンス(連邦準備制度SR 11-7およびOCC 2011-12)が、リスク評価や意思決定に使用されるAIエージェントに適用されますが、これは従来の統計モデル向けに設計されたため、自律的なツールアクセスを伴う基盤モデルベースのエージェントには慎重な解釈が必要です。[13]
エージェント型AIガバナンス・フレームワーク
エージェント型AIの統治には、前述の特性(自律的アクション実行、複数ステップ推論、動的ツール呼び出し)に直接対応する統制が必要です。本稿で示す枠組みは、Enzaiが企業のガバナンスチームと取り組んだ実務に基づき、統制を5層に整理します。すなわち、自律性分類、アクションホワイトリスト、エスカレーションロジック、トレーサビリティ、継続的監視です。各層は前の層の上に積み上がります。
レイヤー1:自律性分類
すべてのエージェントに同等のガバナンス水準が必要なわけではありません。人間レビュー前提でメール返信案を作成するエージェントと、金融取引を自律実行するエージェントでは、リスクプロファイルが根本的に異なります。あらゆるエージェント型AIガバナンス・プログラムの第一歩は、各エージェントの自律性水準を分類し、その分類を比例的な統制に対応付けることです。
ティア | ラベル | 説明 | ガバナンス要件 |
|---|---|---|---|
1 | 支援型 | エージェントは推奨やドラフトを生成し、人間が実行前にすべてのアクションを確認・承認する | 標準的なAI品質統制 |
2 | 監督型 | エージェントは定義済みパラメータ内でアクションを実行し、人間が監視し介入能力を保持する | 明確な監視プロトコルと介入メカニズム |
3 | 境界付き自律型 | エージェントは制約されたアクション空間と事前定義ガードレール内で自律動作する | 厳格なアクションホワイトリスト、エスカレーションロジック、継続的監視 |
4 | 完全自律型 | エージェントはオープンエンドなタスクに対して広範な裁量で動作する | 最強の統制:リアルタイム監視、包括的監査証跡、定期的な人的レビュー |
この分類はモデル単位ではなくユースケース単位で行うべきです。同じ基盤モデルでも、ある導入ではティア1アシスタント、別の導入ではティア3自律エージェントとして機能し得ます。ガバナンス義務はモデルではなく導入形態に紐づきます。
レイヤー2:アクションホワイトリストと境界付きアクション空間
エージェント型AIに対する最も有効な統制は、「何ができるか」を制約することです。あらゆる故障モードの予測・防止を試みるのではなく、アクションホワイトリストにより、エージェントが取り得る許可済みアクション集合(呼び出し可能なツール、利用可能なAPI、アクセス可能なデータ、変更可能なシステム)を定義します。
これは拒否リストではなく許可リストのアプローチです。明示的に許可されていないアクションはすべて禁止、という姿勢を既定にします。これは一般的なソフトウェアセキュリティモデル(明示禁止でないものは許可)を反転させるものですが、エージェント型AIが設計者の想定外のアクションを発見し試行し得る現実に対応したものです。
実装上は、次の3層でアクション境界を定義します。
ツールアクセス:エージェントが呼び出せるAPI、データベース、サービス、コード実行環境
パラメータ制約:各ツールに渡せる入力(例:データベース問い合わせエージェントを特定テーブルの読み取り専用操作に限定)
影響上限:単一アクションの影響範囲に対する閾値(例:人間承認なしでエージェントが承認可能な取引金額上限)
運用上の重要論点として、ツール環境の進化に応じてホワイトリストを維持する必要があります。基盤モデル提供者が挙動を変える更新を適用した場合や、エージェントの潜在アクション空間に新ツールが追加された場合、ホワイトリストは見直し・再検証されるべきです。ホワイトリストを静的設定として扱い、生きたガバナンス成果物として扱わないことは、典型的な失敗要因です。
レイヤー3:エスカレーションロジック
境界付きアクション空間内であっても、エージェントは能力や権限を超える状況に直面します。効果的なガバナンスには、事前定義されたエスカレーション経路、すなわち、エージェントが自律継続ではなく人間に制御を返すべき条件に関する明確なルールが必要です。
エスカレーショントリガーには、少なくとも以下を含めるべきです。
信頼度閾値:選択アクションに対するエージェントの信頼度が定義水準を下回る場合
影響閾値:提案アクションが定義済み影響上限(財務価値、影響レコード数、不可逆性)を超える場合
異常検知:エージェント挙動が想定パターンから逸脱した場合
ドメイン境界:定義されたスコープ外のタスク・領域に遭遇した場合
失敗条件:ツール呼び出しが失敗した、または想定外結果を返した場合
エスカレーション設計では、トリガー自体と同様にメカニズム設計も重要です。エスカレーションはエージェントにとって摩擦がないこと(設計上、回避するインセンティブを与えないこと)、かつ人間にとって実行可能であること(人間がエージェントの推論連鎖全体を再構築せずとも判断できる十分な文脈を含むこと)が必要です。
レイヤー4:トレーサビリティと監査証跡
EU AI Act上の規制要件(高リスクシステムに関する第12条)と実務的なインシデント対応の双方において、エージェント活動の包括的ログが求められます。[14] エージェント型システムでは、入力・出力だけでなく、推論連鎖全体、ツール呼び出し、中間結果、各段階の意思決定を記録する必要があります。
エージェント型AIにおける有効な監査証跡は、次を記録すべきです。
エージェントに与えられた初期目的または指示
各推論ステップとアクション選択の根拠
呼び出されたツール、渡したパラメータ、受信応答を含む全ツール呼び出し
実行したアクションとその結果
エスカレーションイベントと人的介入
エージェント行動に起因する環境状態の変化
関連イベントを紐づけるタイムスタンプとセッション識別子
これらログは多目的に機能します。事後調査、規制適合、ガバナンス統制の継続的改善、問題発生時の責任帰属です。ログは改ざん不能で、タイムスタンプ付きであり、改ざん防止のためエージェントシステム本体とは独立して保管されるべきです。
レイヤー5:継続的監視
導入前に評価して「以後も適合している」と仮定する時点評価では、能力や挙動が動的に変化し得るシステムには不十分です。エージェント型AIガバナンスには、複数次元での継続的監視が必要です。
性能監視:エージェント成果は品質・精度閾値を満たしているか
行動監視:挙動は期待パターン内に留まっているか。アクション分布は時間とともに変化していないか
コンプライアンス監視:アクションは許可済み空間内にあるか。エスカレーションプロトコルは順守されているか
公平性監視:個人に関する判断を行う・影響するエージェントで、保護特性間の結果は公平か
セキュリティ監視:敵対的入力、プロンプトインジェクション、その他の操作を受けていないか
監視結果はガバナンス統制へフィードバックされるべきです。許可外アクション、結果分布の変化、敵対的操作を示唆するパターンなどの異常を検知した場合、可能な限り自動応答(エージェント停止、エスカレーション発火)し、人的レビュー用に記録する必要があります。
エージェントが行動したとき、誰が責任を負うのか
エージェント型AIガバナンスの最難所の一つは、責任が複数主体に分散することです。典型的な企業導入には少なくとも4者が関与します。基盤モデル提供者(OpenAI、Anthropic、Google、Meta等)、エージェントフレームワークまたはオーケストレーション層(第三者プラットフォームまたは内製)、導入組織、そして実行時にエージェントが呼び出すツール/API提供者です。
EU AI Actは提供者と導入者の間で義務を分割し、一部規定で輸入者・販売者にも言及しています。[15] しかしこの二分法は、エージェント型のバリューチェーンに必ずしも整合しません。第三者基盤モデルと内製オーケストレーション層、外部API呼び出しを組み合わせたエージェントの「提供者」は誰なのか。第25条は、第三者がAIシステムを変更・再目的化して自ら提供者となる可能性に触れますが、動的合成システムにおける境界は依然不明確です。[16]
この分断は、多くの組織が過小評価する基盤モデルのサプライチェーンリスクも生みます。モデル提供者が更新(新バージョン、安全フィルタ変更、挙動パターン変更)を適用すると、旧版に対して妥当化されたガバナンス統制が成立しなくなる可能性があります。アクションホワイトリスト、エスカレーション閾値、コンプライアンス評価はいずれも特定のモデル挙動ベースラインを前提とします。提供者側に変化があれば、導入側に変更がなくてもこの前提は崩れます。
実務的ガバナンスはこの分断を織り込む必要があります。エージェント型AIを導入する組織は次を実施すべきです。
各導入のバリューチェーン全体を可視化し、全関与者と各自のガバナンス責任を特定する
ツール/API提供者と、データ取扱い・責任分担・インシデント対応を規定する契約を整備する
明確な社内責任体制を維持する(各導入のオーナー、監視責任者、介入・停止権限者)
基盤モデルのバージョン固定と変更管理を実装し、提供者更新時の再検証トリガーを設定する
規制監査に耐える形で責任配分を文書化する
エージェント型AIのインシデント対応
ガバナンスは失敗防止だけではありません。失敗発生時に有効対応できることが重要です。エージェント型AIシステムには、自律的かつ複数ステップという特性を踏まえたインシデント対応手順が必要です。
エージェント型AIのインシデント対応計画には、次を含めるべきです。
キルスイッチ:エージェント実行を即時停止し、ツールアクセスを剥奪して追加アクションを防止する能力。これは技術的に信頼可能で(エージェントの協力に依存しない)、指定担当者が数秒以内にアクセス可能でなければなりません
ロールバック手順:可能な範囲で、エージェント実行アクションを反転する事前定義手順。すべてのアクションが可逆ではないため、前述の監査証跡と影響上限が被害半径抑制に重要です
通知義務:規制業種では、特定のエージェント障害が報告義務を発生させる場合があります。金融分野では無権限取引が数時間以内の規制当局通知を要することがあります。EU AI Act下では、高リスクAIシステムに関する重大インシデントは市場監視当局への報告が必要です
根本原因分析:事後調査では、レイヤー4の監査証跡を用い、初期目的から各ツール呼び出し・意思決定を経て障害点に至る推論連鎖全体を追跡すべきです
インシデント対応計画は導入後ではなく導入前に策定すべきです。アクション境界侵害、エスカレーション失敗、ツール応答の改ざんなどを想定した机上演習は、プレッシャー下で有効に対応するための組織的筋力を養います。
エージェント型AIガバナンスの運用実装
ガバナンス枠組みは、実務に実装できて初めて価値があります。すなわち、エージェントが実現すべきイノベーションを阻害するほどの摩擦を生まずに機能しなければなりません。枠組みと実践のギャップを埋めるには、いくつかの原則が有効です。
エージェント・ライフサイクルへの統合
ガバナンスは、開発・導入と並走する別系統業務であってはなりません。開発パイプラインに組み込むべきです。設計段階で自律性分類、開発段階でアクションホワイトリスト、導入前にエスカレーションロジック検証、本番で継続的監視。これはセキュリティのシフトレフトに類似し、後付けではなく初期段階から組み込む考え方です。
ガバナンス統制の自動化
手作業のガバナンスは、機械速度で動くエージェントに追随できません。アクションホワイトリストはポリシー文書ではなくプログラムで強制されるべきです。エスカレーショントリガーはログ監視の人手依存ではなく自動発火すべきです。コンプライアンスチェックはCI/CDパイプラインの自動ゲートとして実行し、エンジニアリングチームにフォーム記入ではなく明確な合否シグナルを提供すべきです。
AIインベントリへの組み込み
すべてのエージェント型AIシステムは、中央集約型AIインベントリに登録されるべきです。記録すべき項目は、自律性分類、許可アクション空間、エスカレーションプロトコル、監視設定、責任割当、基盤モデルバージョンです。このインベントリこそがガバナンス・プログラムの基盤です。これがなければ、どのエージェントを導入しているか、何を実行権限としているか、誰が責任者かという基本的問いに答えられません。
実装順序の現実的設計
多数のエージェントを導入する組織では、全導入に対して5層すべてを同時実装することは困難です。実践的な順序は以下の通りです。
まずインベントリから開始する。 可視化できないものは統治できません。非公式に立ち上がったシャドー導入を含め、全導入を棚卸しします。
自律性レベルを分類する。 各エージェントをティアにマッピングし、以降の統制の比例性を決定します。
ティア3・ティア4からアクションホワイトリストを実装する。 これらは最も高リスクで、境界付きアクション空間の効果が最も高い領域です。
初日から監査証跡を構築する。 ログは早期実装が最も低コストで、後付けは最も高コストです。
導入成熟に応じて継続的監視を重ねる。 まずコンプライアンス監視(ホワイトリスト順守)から始め、段階的に行動監視・公平性監視へ拡張します。
ガバナンスを競争優位として捉える
ガバナンスを単なるコンプライアンスコストと見る組織は、投資不足に陥り、エンジニアリングチームの反発を招きます。より適切な捉え方は、ガバナンスをスケールの前提条件とみなすことです。体系的統制がなければ、より野心的な導入に必要な監督性を示せず、低リスク・低価値ユースケースに限定されます。慎重な試験導入から実ビジネス影響を伴う本番展開へ移行できるかどうかは、ガバナンスの有無にかかっています。
エージェント型AI規制の今後
今後2年間で、エージェント型AIガバナンス環境は急速に進化します。CENおよびCENELECはEU AI Actの下でJTC 21を通じた整合規格を策定中であり、標準化プログラム加速を受けて2025年6月に委任内容が改定されました。[17] これら規格は、高度自律システムにおける比例的人的監督の具体像(境界付きアクション空間、構造化チェックポイント、監査証跡、介入メカニズム)を、人間を常時ループに置くことなく示す必要があります。
欧州委員会は、エージェント特有リスクの顕在化に応じ、全面的法改正を要さず委任法令で附属書IIIの高リスク用途リストを更新する権限を有します。[18] また委員会ガイダンスにより、提供者・導入者枠組みをエージェント型バリューチェーンへどう適用するか、実行時ツール呼び出しが第3条23号の「実質的変更」に該当するのはどのような場合かを明確化できます。第56条の実務規範も別のレバーであり、GPAIモデル層におけるエージェント特有リスク(可制御性機能、ツール利用ログ、アクション空間制約)に対応可能です。[19]
IAPPやOECDを含む業界団体は、自律型AIのガバナンスガイダンス策定を積極的に進めています。[20] ISO/IEC JTC 1/SC 42も42000シリーズを拡張し続けており、導入環境の成熟に伴いエージェント特化の作業項目が現れても不思議ではありません。
これら規格やガイダンスを待ってから行動する組織は、当初から想定されていない導入に後付けでガバナンスを組み込むことになり、高コストかつ破壊的な対応を迫られます。より賢明なのは、今すぐガバナンス基盤を構築し、規制要件・標準要件の具体化に合わせて適応することです。
エージェント型AIガバナンスの課題は現実的ですが、前例がないわけではありません。企業はこれまでも、アルゴリズム取引、自動運転、RPAなど、複雑で自律的かつ高リスクなシステムを統治してきました。原則は同じです。リスクを分類し、アクションを制約し、エスカレーションを必須化し、トレーサビリティを維持し、継続的に監視すること。新しいのは、エージェント型AIの導入速度と、企業機能全体への影響範囲の広さです。
自律性ティア、ツールアクセス設定、規制義務が異なる多数の導入に対し、この5層を実装することは、ポリシー課題であると同時にインフラ課題でもあります。Enzaiでは、自律性分類・アクションホワイトリストから継続的監視、EU AI Act・ISO 42001・NIST AI RMFにまたがる規制コンプライアンスまで、その基盤構築こそ当社プラットフォームが解決するために設計された課題です。詳細は、デモを予約するをご覧ください。
参考文献
[1] Gartner, "Agentic AI: The Next Frontier of Enterprise AI," 2024年10月。Gartnerは、エージェント型AI機能が2028年までにエンタープライズ向けソフトウェアアプリケーションの33%に搭載されると予測。
[2] Regulation (EU) 2024/1689 of the European Parliament and of the Council, Article 3(1). Official Journal of the European Union, L series, 2024年7月12日。
[3] 欧州委員会によるAIシステム定義の解釈ガイダンス(2025年公表)は追加的文脈を提供するが、エージェント型システムにおける創発的サブゴール分解を具体的には扱っていない。
[4] Regulation (EU) 2024/1689, Articles 113-114(発効および適用日)。
[5] Regulation (EU) 2024/1689, Chapter III, Section 2, Articles 9-15。
[6] これら運用上の負荷に関する詳細分析は、Enzai, "The EU AI Act Bends. It Need Not Break," 2026年3月を参照。
[7] Regulation (EU) 2024/1689, Chapter V, Articles 51-56(GPAIモデル提供者の義務)。
[8] ISO/IEC 42001:2023, Information technology - Artificial intelligence - Management system. International Organization for Standardization, 2023年12月。
[9] NIST, Artificial Intelligence Risk Management Framework (AI RMF 1.0), NIST AI 100-1, 2023年1月。
[10] NIST, Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile, NIST AI 600-1, 2024年7月。
[11] OECD, "OECD Framework for the Classification of AI Systems," OECD Digital Economy Papers No. 323, 2022年2月。OECD AI Principlesは2024年5月に更新。
[12] Colorado SB 24-205, Concerning Consumer Protections for Artificial Intelligence, 2024年5月署名。原施行日は2026年2月1日、立法修正待ち。
[13] Board of Governors of the Federal Reserve System, SR Letter 11-7, "Supervisory Guidance on Model Risk Management," 2011年4月;Office of the Comptroller of the Currency, OCC 2011-12。
[14] Regulation (EU) 2024/1689, Article 12(高リスクAIシステムの記録保持/自動ログ)。
[15] Regulation (EU) 2024/1689, Articles 16(提供者義務)and 26(導入者義務)。
[16] Regulation (EU) 2024/1689, Article 25(AIバリューチェーン上の他当事者の義務)。
[17] European Commission Standardisation Request M/593 to CEN and CENELEC, 2025年6月改定;CEN-CENELEC JTC 21 work programme。
[18] Regulation (EU) 2024/1689, Article 7(Annex IIIの改定)。
[19] Regulation (EU) 2024/1689, Article 56(GPAIモデルの実務規範)。
[20] IAPP AI Governance Center;OECD AI Policy Observatory, oecd.ai;ISO/IEC JTC 1/SC 42 work programme。
組織がAIを採用し、管理し、監視する能力を、企業レベルの信頼性で強化します。規模で運営する規制対象の組織向けに構築されています。
