EU AI法はエージェントAIを対象としているのでしょうか。第3条第1項が自律システムにどのように対応しているか、そして運用フレームワークがなぜ「多くの手の問題」に直面しているのかを探ります。Enzaiがどのようにして組織が進化するヨーロッパ規制の状況を乗り越えるのを支援するのかを学びましょう。
•
•
26 最小読了時間
トピック
2年で、エージェントAIは研究の好奇心から生産の現実へと移行しました。2025年末までに、フォーチュン500企業の80%が日常業務で少なくとも一つのAIエージェントを稼働させていました。[1] これらのシステムは、EU AI法(「法」)が2021年から2023年にかけて起草された際に支配的だったAIとは質的に異なります。チャットボットがテキストを生成し、分類器がラベルを付与するのに対し、エージェントシステムは目標を追求します:計画、ツールの選択、アクションの実行、結果の観察と反復 - 通常、最小限の人間の介入で数十ステップにわたって動作します。
増大する意見は、法がこの時代に適合していないと主張しています。ジョーンズ氏は、法令遵守の枠組みが「構造的に不十分」であると主張し、「エージェントツール主権」という概念を提唱しました。[2] ACMヨーロッパ技術政策委員会は、「根本的な再考」を求め、法がAIを従来のソフトウェアのように行動することを前提としていると主張しています - 「予測可能で、境界があり、人間の指揮下にある」[3] フューチャー・ソサイエティは、開発中の技術標準が「エージェントによるリスクを完全に解決することには失敗するだろう」と結論付けています。[4]
これらの批判は深刻で、彼らが指摘する運用上の困難は現実的です。しかし、彼らは法の適性を単一の問いとして扱う傾向がありますが、それは二つの問題として理解する方がよいです。本記事では、二層分析を提案します。定義層では - エージェントAIが法の規制の範囲内かどうか - 法は驚くほど強靭です。運用層では - 義務、評価手続き、監視要件 - 批判者の方が強い立場にあります。
この区別は、最初に思われるよりも重要です。定義層が破たんすれば、法は全面的な改正を必要とするでしょう。維持されているため、課題は運用適応の問題となり、法の二次的な手段が多くの作業を進める手段を提供しています。
定義層: 第3条(1)とその堅牢性
第3条(1)は、「AIシステム」を以下のように定義しています:
変動するレベルの自律性で動作するように設計された機械ベースのシステムであり、展開後に適応性を示し得る。また、明示的または暗示的な目的のために、それが受ける入力から、予測、コンテンツ、推奨事項、または物理的または仮想環境に影響を与えることができる決定などの出力を生成する方法を推測します。
この定義は、範囲と抽象化についての意図的な選択を反映した多大な交渉の成果です。[6] エージェントAIへの適用方法を確認するためには、各要素を順に確認することが有益です。
「変動するレベルの自律性」
このフレーズは、人間の入力を常に必要とするシステムから、実質的な独立性で動作するシステムまでのスペクトラムを明示的に想定しています。前文12は、自律性が「人間の関与からのアクションのある程度の独立および人間の介入なしに動作する能力」を指すことを詳細に述べています。[7] 工具の呼び出しを計画し、それを実行し、結果を評価し、そのアプローチを調整するシステム - 人間が各段階で介入することなく - は、この定義内で高いレベルの自律性で明らかに動作しています。
「明示的または暗示的な目的」
チャットボットは明示的な目的に向けて動作します:この質問に回答し、この画像を分類します。エージェントシステムは、暗示的、不完全に指定された、または派生的な目的に向けて動作することが多いです。「この役割に最適な候補者を見つける」という指示は、エージェントが目標を分解し、工具を選択し、自ら判断することを要求します。定義が「明示的な目的」で止まっていた場合、派生的なサブゴールを追求するエージェントシステムは、範囲外となる可能性がありましたが、「暗示的」なものの追加により、その議論は無効となります。
「決定」としての出力カテゴリ
定義の4つの出力カテゴリ - 予測、コンテンツ、推奨事項、決定 - の中で最後の決定が鍵です。決定は何か能動的なことを示唆します:結果を持った代替案の中からの選択です。エージェントがどの工具を呼び出すか、リソースをどのように配分するかを決める際、明らかな意味では決定を下しています。
「物理的または仮想環境に影響を与える」
この最終句は、おそらく最も重要です。これは、入力-出力のパラダイムを超え、出力が世界の状態を変えるシステムを明示的に想定しています。メールを送信したり、コードを実行したり、データベースを変更したり、アクチュエータを制御したりするエージェントは、その環境に影響を及ぼしています。「単なる出力生成」ではなく「環境への影響」を求めることで、起草者はアクションを取るシステムと本質的に互換性のある定義を構築しました。
これらを総合すると、定義はAIシステムが何をしているのか(推論する、決定する、影響を与える)と、どのように動作するのか(自律的に、適応的に、目標に向かって)を記述しており、どのように構築されるのかではありません。この機能的で技術的に中立なアプローチがその堅牢性を与えています。特定の技術(機械学習、ニューラルネットワーク)を中心にした定義では、技術的瞬間に束縛されてしまいます。GDPRの第22条のような「自動化された意思決定」に焦点を当てた定義では、エージェントのような自律的で多段階的で環境を形成する特性を見落としてしまいます。
この堅牢性は意図的だったのか?それとも、交渉による抽象化の幸運な副産物だったのか?おそらくその両方です。委員会のより技術的に具体的な最初の提案からの転換は、さまざまな方向からの圧力を反映していました:柔軟性を求める加盟国、広がりを求める議会、そしてOECDの枠組みが高レベルのテンプレートを提供する形で。[8] 結果は予見的デザインよりむしろ妥協の論理によるところが多いかもしれません。しかし、その起源が何であれ、パラダイムシフトを超えても持ちこたえる規制定義は小さなことではありません。
運用層: 枠組みのひずみが現れる場所
定義層が維持されるなら、運用層こそが実際の困難が存在する場所です。法の義務はより固定的で境界のあるシステム向けに設計されており、3つの問題が際立ちます。
静的な適合性対動的システム
法の高リスクアーキテクチャは、EUの製品安全法から取られた適合性評価を基にしています - プロバイダーが市場に出す前に適用される要件に対して自分たちのシステムを評価するモデルです。[9] システムの能力が評価時に広く把握可能な場合、十分に機能します。エージェントAIはこれをひっくり返します。エージェントが動的に更新される登録簿からツールを選択し、実行時に呼び出すことで、初回の適合性評価では存在しなかった能力を呼び出すことになります。第3条(23)における「著しい変更」という概念 - 「最初の適合性評価で予想または計画されていない変更」[10] - はこの問題を鮮明に浮き彫りにしています。エージェントが自律的に新しい第三者サービスを呼び出す時、それは著しい変更でしょうか?もしそうなら、全ての新しいツールの呼び出しが再評価を引き起こし - 明らかに不合理です。もし違うなら、システムのリスクプロファイルへの実質的な変化が完全に見逃されます。
プロバイダー-デプロイヤーの二元性対断片化されたバリューチェーン
法は義務を二つの役割に分割します:プロバイダーとデプロイヤー。[11] エージェントのバリューチェーンはこの分割に適合しません。少なくとも四つのアクターが関与します:基盤モデルプロバイダー; エージェントフレームプロバイダー; デプロイヤー; そして実行時にそれらのAPIが呼び出されるツールプロバイダー - 彼らの知らないうちに。第25条(4)はプロバイダーと第三者のサプライヤーの間で文書による合意を要求しますが[12]、それは事前に確立された関係を前提としており、実行時にツールを選び取るエージェントのケースでは実現不可能です。ジョーンズ氏が詳細に文書化しているように責任はチェーン全体に拡散し、誰もエージェントの決定、データフロー、コンプライアンスポジションの完全な絵をその瞬間に把握していません。彼はそれを「多くの手の問題」と適切に表現しています。[13]
人間の監視のパラドックス
第14条は「リスク、自治のレベル、使用状況に応じた」監視措置を要求しています。[14] しかし、エージェントAIの全てのポイントは、最小限の人間の関与での自律的運用です。毎秒数十のマイクロ決定を下すエージェントは、その速度で、意味のある人間の介入を単に追い越しているかもしれません。法は自律性スペクトルの高い部分で何が「比例した」監視であるのかを具体的に示しません。[15] 2025年末に最終化されたGPAI行動規範もこれを完全には解決していません。
これらが唯一の運用上の課題ではありません - 第72条(2)の市場後監視も、範囲、アクセス、時間性に関する同様の困難がありますが[16] - それらは核心の緊張を例示しています:予測可能で境界のあるシステムに対して構築された運用フレームワークが、そうではない技術に直面しているというものです。
二次的ツール: 信頼できる道筋
運用上の課題は現実ですが、全てが同様に扱いにくいわけではありません。法の二次的ツールは、信頼できる、もし不完全ならば、適応の道を提供しています。
調和標準
CENとCENELECは、合同技術委員会21を通じて、2025年6月に修正された使命のもとに標準を開発中であり、両組織は2025年10月に例外的な加速措置を採用しました。[17] これはおそらく最も有望な道です。第14条の比例性の言葉は、他のいくつかのターンで人間を必要とすることなく、高度な自律系に対する適切な監視がどのように見えるかを説明するための開かれた招待状です - 範囲限定の行動空間、構造化されたチェックポイント、監査用トレイル、介入メカニズムなどです。
委任立法
第7条は、議会および理事会の異議申し立てを条件に、委任立法を通じて付属書III(高リスク使用ケースリスト)を改訂する権限を委員会に付与しています。[18] これにより、特定のエージェントシステムのカテゴリを法改正なしに高リスクフレームワークに組み込むことができます。第6条(3)も、逆方向への調整を可能にします。[19]
委員会のガイダンスと行動規範
委員会はすでにAIシステムの定義に関して解釈ガイダンスを発行しており[20]、プロバイダー-デプロイヤーフレームワークがエージェントバリューチェーンにどのように対応するか、実行時ツール呼び出しが「著しい変更」とみなされるタイミングについてのガイダンスをさらに提供する可能性があります。第56条に基づく行動規範はもう一つのレバーとなり、GPAIモデル層での制御可能性機能、ツール使用ログ、行動空間の制約の管理、およびバリューチェーンの自然な障害点におけるリスクへの対策を行います。[21]
2025年11月に提案された委員会のAIに関するデジタルオムニバスは、この適応メカニズムが実際に機能している初期の証拠です。[22] オムニバスは、調和された標準が実際に利用可能になるまで高リスク義務を延期し、生成AI透明性要求のタイムラインを延長し、中小企業向けの適合性を簡素化し、GPAIベースのシステムのAIオフィスレベルでの執行を中央化することを提案しています。それは第3条(1)の定義に触れることなく、運用層を調整します。同様に示唆的なことに、オムニバスは具体的にエージェントAIに対処していないため、上述の二次的ツールがまだ大きな役割を果たす余地があることを示しています。
構造的特徴は時間とともに立法的修正を必要とするでしょう。プロバイダー-デプロイヤーの二元性は、エージェントシステムの一部であることすら知らないかもしれない実行時ツールプロバイダーをカバーするために、二次的ツールを通じて拡大することはできない - 新しい立法的基盤を必要とします。そして時点を超えた連続的な適合性評価への真のシフトは、標準やガイダンスだけでは対応できません。これらは法が進化すべき領域であり、自身のレビュー機構 - 第112条を含む - がそのための道筋を提供しています。[23]
曲がる枠組み
支配的な物語では、EU AI法をエージェント時代以前の遺物としています。本記事は、その物語が重要な不完全さを有していると主張しています。
定義層では、法は本当の堅牢性を示しています。第3条(1)の変動する自律性、暗示的な目的の参照、意思決定と環境への影響は、エージェントAIを問題なく取り込む規制の周辺を描いています。運用層では、批判者が正しいことは賢明です。しかし、これらのギャップは意図的に適応性を念頭に置いて構築された枠組みの中に収まっています。すでにデジタルオムニバス提案により、定義的土台を変えずに運用層を調整するEUの意欲が示されており、法のより広い二次的手段が完全な立法改正なしにエージェントの課題の相当量に対処することができます。
EUは二つの誘惑に抵抗すべきです:(i) 枠組みが整えることなく維持されるという仮定における自己満足、および(ii) 引き裂く必要があるという結論におけるパニック。AI法はエージェントAIのために設計されていませんでした。しかし、それを収容するのに十分設計されています - その区別はヨーロッパのAIガバナンスの未来のために非常に重要です。枠組みは曲がる。破壊する必要はありません。
今日エージェントシステムを導入する組織にとって、実際の意味は明確です:コンプライアンスは法律が追いつくまで延期する未来の問題ではありません。定義的な周辺部はすでにこれらのシステムを捕捉しており、運用上の義務が到来しています。今行うべき課題は、設置段階からエージェントのワークフローにガバナンスを組み込むことです:展開されるAIシステムの目録を作成し、進化するリスク分類に対してそれらをマッピングし、法の二次的手段がますます要求するようになる連続監督を維持することです。Enzaiでは、これは我々のプラットフォームが組織がナビゲートするのを助けるために構築されている課題です。詳細を知りたい方はこちらからお問い合わせください。
参考文献
[1] マイクロソフトセキュリティブログ、「フォーチュン500の80%がアクティブAIエージェントを使用:観測性、ガバナンス、セキュリティが新しいフロンティアを形成」(2026年2月)、https://www.microsoft.com/en-us/security/blog/2026/02/10/80-of-fortune-500-use-active-ai-agents-observability-governance-and-security-shape-the-new-frontier/ より利用可能。
[2] L. ジョーンズ、「エージェントツール主権」、ヨーロッパ法ブログ (2025年)、https://www.europeanlawblog.eu/pub/dq249o3c より利用可能。
[3] ACMヨーロッパ技術政策委員会、「エージェントAIに関連する体系的なリスク:政策ブリーフ」 (2025年10月)、https://www.acm.org/binaries/content/assets/public-policy/europe-tpc/systemic_risks_agentic_ai_policy-brief_final.pdf より利用可能。
[4] M.L. ミラー・グエン、「AIエージェントがEU AI法下でどのようにガバナンスされるか」、フューチャー・ソサイエティ (2025年6月)、https://thefuturesociety.org/aiagentsintheeu/ より利用可能。
[5] 2024年6月13日の欧州議会および理事会の規則(EU)2024/1689により、人工知能に関する調和された規則を定める(人工知能法)、第3条(1)。
[6] AI法の定義は、2023年に採択されたOECDのAIシステム定義に基づいていますが、それと異なります。2025年2月の欧州委員会のAIシステム定義に関するガイドラインを参照。
[7] AI法、前文12。
[8] 欧州委員会の最初の提案、COM(2021) 206最終案、および三者交渉中の理事会と議会の立場(2022-2023年)を参照。
[9] 適合性評価フレームワークは、製品の安全性に関するEUの「新しい立法枠組み」、決定No 768/2008/ECに基づいています。
[10] AI法、第3条(23)。
[11] AI法、第16-27条(プロバイダー義務)および第26条(デプロイヤー義務)。
[12] AI法、第25条(4)。
[13] ジョーンズ氏(n 2);AI法、前文88は、単にバリューチェーン協力を「促す」とするのみで、法的拘束力のある義務を創出していません。
[14] AI法、第14条(1);第14条(4)(a)及び(d)。
[15] M. フィンク、「EU AI法第14条の下での人間の監視」、SSRN (2025年)、https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5147196 より利用可能。
[16] AI法、第72条(2) ジョーンズ氏(n 2)を参照し、エージェント操作との執行モデルの時間的不一致を論じています。
[17] 欧州委員会、M/593標準化の要請、M/613(2025年6月)による修正;CEN-CENELEC、「人工知能のための標準開発の加速化に関する決定の更新」(2025年10月)。
[18] AI法、第7条及び第97条。2024年8月1日からの5年間の委任で、3か月の異議申し立て期間があります。
[19] AI法、第6条(3)。
[20] オリック、「EU委員会がAIシステムの定義を明確化」(2025年4月)。9月にはMEPラゴディンスキーがエージェントの規制に関する質問を委員会に正式に行い、更なるガイダンスへの政治的な関心を示しました:ジョーンズ氏(n 2)を参照。
[21] AI法、第56条。
[22] 欧州委員会、EU AI規則(デジタルオムニバス)提案、2025年11月19日。欧州議会シンクタンク、「AIに関するデジタルオムニバス:進行中のEU立法」(2026年2月)も参照。
[23] AI法、第112条。
組織がAIを採用し、管理し、監視する能力を、企業レベルの信頼性で強化します。規模で運営する規制対象の組織向けに構築されています。

