EU AI法はエージェントAIを対象としているのでしょうか。第3条第1項が自律システムにどのように対応しているか、そして運用フレームワークがなぜ「多くの手の問題」に直面しているのかを探ります。Enzaiがどのようにして組織が進化するヨーロッパ規制の状況を乗り越えるのを支援するのかを学びましょう。
•
•
30 最小読了時間
トピック
わずか2年で、エージェント型AIは研究上の関心事から本番運用の現実へと移行しました。2025年末までに、Fortune 500企業の80%が、日常業務で少なくとも1つのAIエージェントを稼働させていました。[1] これらのシステムは、2021年から2023年にかけてEU AI法 (以下「本法」)が起草された当時の議論を支配していたAIとは、質的に異なります。チャットボットがテキストを生成し、分類器がラベルを付与するのに対し、エージェント型システムは目標を追求します。すなわち、計画し、ツールを選択し、行動を実行し、結果を観察し、反復します。しかも、多くの場合、最小限の人間の介入で数十段階にわたってこれを行います。
急速に増えつつある論考の中には、本法はこの時代に適していないと論じるものがあります。Jonesは、管轄をまたいで第三者ツールを自律的に呼び出すエージェントに対して、このコンプライアンス枠組みは「構造的に不十分」であると主張し、「Agentic Tool Sovereignty(エージェント型ツール主権)」という概念を提唱しました。[2] ACM Europe Technology Policy Committeeは「根本的な再考」を求め、本法はAIが従来のソフトウェアのように「予測可能で、範囲が限定され、人間の命令下にある」ことを前提としていると論じています。[3] The Future Societyは、開発中の技術標準は「エージェントから生じるリスクに十分に対処できない可能性が高い」と結論付けています。[4]
これらの批判は深刻であり、そこで指摘される運用上の困難も現実のものです。しかし、それらは本法の適切性を一つの問いとして扱いがちです。実際には、これは二つの問いとして理解するほうが適切です。本稿は、二層構造の分析を提示します。定義層――エージェント型AIが本法の規制範囲に含まれるかどうか――においては、本法は驚くほどの強靭性を示します。運用層――義務、評価手続、監視要件――においては、批判側の主張のほうが説得力を持ちます。
この区別は、当初見える以上に重要です。もし定義層が機能していなければ、本法は全面的な改正を要したでしょう。しかし実際には機能しているため、課題は運用面での適応に移ります。そして、本法自身の下位規範には、活用できる材料が相当にあります。
定義層:第3条第1項とそのレジリエンス
第3条第1項は、「AIシステム」を次のように定義しています。
さまざまなレベルの自律性をもって作動するよう設計された機械ベースのシステムであって、導入後に適応性を示す場合があり、かつ、明示的又は暗黙的な目的のために、受け取った入力から、予測、コンテンツ、推奨又は意思決定などの出力を生成する方法を推論し、その出力が物理的又は仮想的環境に影響を与え得るもの。
この定義は、範囲と抽象度についての意図的な選択を反映しつつ、相当な交渉を経て形作られたものです。[6] それがエージェント型AIにどう適用されるかを見るには、各要素を順に検討するとよいでしょう。
「さまざまなレベルの自律性」
この表現は、継続的な人間の入力を必要とするシステムから、かなりの独立性をもって動作するシステムまで、幅広いスペクトルを明示的に想定しています。前文12では、自律性とは「人間の関与から一定程度独立して行動し、人間の介入なしに作動できる能力」を意味すると補足されています。[7] ツール呼び出しを計画し、それを実行し、結果を評価してアプローチを調整するシステムが、各段階で人間が介入することなく動作しているのであれば、この定義の下では、明らかに高い自律性の水準で作動していると言えます。
「明示的又は暗黙的な目的」
チャットボットは、明示的な目的――この質問に答える、この画像を分類する――に向かって動作します。これに対し、エージェント型システムは、暗黙的、十分に特定されていない、あるいは創発的な目的に向かって動作することが多くあります。「この職務に最適な候補者を見つけてください」という指示は、エージェントに目標を分解し、ツールを選択し、自ら判断を下すことを求めます。もし定義が「明示的な目的」だけで終わっていたなら、創発的な副次目標を追求するエージェント型システムは、適用範囲外となっていた可能性があります。「暗黙的」を含めたことで、その論点は封じられています。
出力カテゴリーとしての「意思決定」
この定義が挙げる四つの出力カテゴリー――予測、コンテンツ、推奨、意思決定――のうち、最後の「意思決定」が鍵を握ります。「意思決定」とは、結果を伴う選択、すなわち複数の選択肢からの決定を意味します。エージェントが、どのツールを呼び出すか、あるいは資源をどのように配分するかを決めるとき、それは明らかにこの意味で意思決定を行っています。
「物理的又は仮想的環境に影響を与える」
この最後の条項こそが、最も重要かもしれません。これは入出力パラダイムを超え、出力が世界の状態を変えるシステムを明示的に想定しています。メールを送信し、コードを実行し、データベースを変更し、アクチュエータを制御するエージェントは、その環境に影響を与えています。単なる出力生成ではなく「環境への影響」を取り込むことで、起草者たちは、本質的に行動を伴うシステムと整合的な定義を構築したのです。
以上を総合すると、この定義は、AIシステムが何を行うか(推論し、判断し、影響を与えること)と、どのように作動するか(自律的に、適応的に、目的に向かって)を記述しており、どのように構築されるかを問うものではありません。こうした機能的で技術中立的なアプローチこそが、そのレジリエンスを生み出しています。機械学習やニューラルネットワークといった特定の技術を中心に据えた定義であれば、ある技術時点に縛られていたでしょう。GDPR第22条のように「自動化された意思決定」に焦点を当てた定義では、エージェントを際立たせる自律的・多段階・環境形成的な性質を捉え損ねていたはずです。
このレジリエンスは意図されたものだったのでしょうか。それとも、交渉の末に生じた抽象化の幸運な副産物だったのでしょうか。おそらく、その両方が少しずつ含まれています。欧州委員会の、より技術的に特定された当初提案からの転換は、複数方向からの圧力――柔軟性を求める加盟国、広い射程を求める欧州議会、そして高レベルの雛形を示すOECD枠組み――を反映したものでした。[8] その結果は、先見的な設計というより、妥協の論理に負うところが大きかったのかもしれません。しかし、その出自が何であれ、パラダイム転換をまたいで持ちこたえる規制上の定義は、決して小さな成果ではありません。
運用層:枠組みが綻び始める場所
定義層が持ちこたえるとすれば、実際の困難があるのは運用層です。本法の義務は、より静的で境界の明確なシステムを想定して設計されており、特に三つの問題が際立ちます。
静的な適合性と動的なシステムの対立
本法のハイリスク枠組みは、EU製品安全法に由来する適合性評価に依拠しています。これは、提供者が市場投入前に、自らのシステムを適用要件に照らして評価するモデルです。[9] これは、評価時点でシステムの能力がおおむね把握可能である場合には、十分に機能します。しかし、エージェント型AIはこれを覆します。実行時に動的に更新されるレジストリからツールを選択するエージェントは、評価時には存在しなかった能力を呼び出すことになります。第3条第23項の「実質的な修正」――初期の適合性評価では「予見されておらず、又は計画されていなかった」変更[10]――という概念は、この問題を鮮明に浮かび上がらせます。エージェントが第三者サービスを新たに自律的に呼び出した場合、それは実質的な修正なのでしょうか。もしそうなら、新しいツール呼び出しのたびに再評価が必要になり、明らかに不合理です。もしそうでなければ、システムのリスクプロファイルに重大な変化が生じても、完全に見逃されてしまいます。
提供者・配備者の二分法と断片化したバリューチェーン
本法は、義務を二つの役割――提供者と配備者――に分けています。[11] しかし、エージェント型のバリューチェーンは、この二分法に収まりません。少なくとも四つの主体が関与します。基盤モデルの提供者、エージェントフレームワークの提供者、配備者、そして実行時にAPIを呼び出されるツール提供者です。しかも、最後の主体はしばしば自らが関与していることすら知りません。第25条第4項は、提供者と第三者サプライヤーとの間の書面による合意を要求していますが、[12] それは事前に確立された関係を前提としています。しかし、エージェントがその都度ツールを選ぶ場合、そのような関係はそもそも成立し得ません。Jonesが詳細に示したように、責任はチェーン全体に分散し、ある時点におけるエージェントの意思決定、データフロー、コンプライアンス状況を完全に把握している者は誰もいません――彼が的確に「多数の手の問題」と呼ぶものです。[13]
「人間による監督 のパラドックス
第14条は、監督措置が「リスク、自律性の水準及び利用状況に見合ったもの」でなければならないと定めています。[14] しかし、エージェント型AIの核心は、最小限の人間の関与で自律的に作動することにあります。1秒間に何十もの微小な判断を下すエージェントは、人間による意味のある介入を、単純に速度面で追い越してしまうかもしれません。本法は、自律性スペクトルの上限において「比例的」な監督が実際には何を意味するのかについて指針を示しておらず、[15] 2025年末に最終化されたGPAI行動規範も、この点を完全には解決していません。
これらは運用上の課題のすべてではありません――第72条第2項に基づく市場投入後の監視も、範囲、アクセス、時間軸の点で同様の困難に直面します[16]――しかし、核心的な緊張を示しています。すなわち、予測可能で境界の明確なシステムのために構築された運用枠組みが、いまやそのいずれでもない技術に直面しているのです。
下位規範:前進のための信頼できる道筋
運用上の課題は現実的ですが、すべてが同程度に手強いわけではありません。本法の下位規範は、不完全ではあるものの、適応に向けた信頼できる道筋を提示しています。
整合規格
CENとCENELECは、2025年6月に改訂されたマンデートの下で、Joint Technical Committee 21を通じて規格を策定しており、両機関は2025年10月に例外的な加速措置を採用しました。[17] これは、最も有望な道筋といえるでしょう。第14条の比例性に関する文言は、実質的には、高度に自律的なシステムにおける適切な監督とは何か――たとえば、制約された行動空間、構造化されたチェックポイント、監査証跡、介入メカニズム――を明確化するよう促す招待状です。しかも、あらゆる局面で人間をループに入れることを求めるものではありません。
委任法
第7条は、欧州委員会に対し、欧州議会および理事会による異議申し立てを条件として、委任法により付属書III――ハイリスク用途の一覧――を改正する権限を付与しています。[18] これは、特定のエージェント型システムのカテゴリーを、リスクが顕在化した段階で、立法改正を経ずにハイリスク枠組みに組み込めることを意味します。第6条第3項は、逆方向の調整も可能にしています。[19]
欧州委員会のガイダンスと行動規範
欧州委員会はすでに、AIシステム定義に関する解釈ガイダンスを公表しており、[20] 今後のガイダンスでは、提供者・配備者の枠組みがエージェント型のバリューチェーンにどのように対応するのか、また実行時のツール呼び出しがいつ「実質的な修正」に当たるのかを扱うことができます。第56条に基づく行動規範は、GPAIモデル層におけるエージェント固有のリスク――制御可能性の機能、ツール使用ログ、行動空間の制約――に対処し、バリューチェーン上の自然なボトルネックにおいてリスクを絞り込む、もう一つの手段を提供します。[21]
2025年11月に提案された欧州委員会のAIに関するDigital Omnibusは、この適応メカニズムが実務上機能することを示す初期の証拠です。[22] このOmnibusは、整合規格が実際に利用可能になるまでハイリスク義務の適用を延期すること、生成AIの透明性要件の期限を延長すること、中小企業向けの適合性評価を簡素化すること、そしてGPAIベースのシステムに対する執行をAI Officeレベルで一元化することを提案しています。しかも、そのどれも第3条第1項の定義には手を付けません――定義層はそのまま維持される一方で、運用層が調整されるのです。さらに示唆的なのは、このOmnibusがエージェント型AIを明示的には扱っていないことです。これは、上記の下位規範にまだ相当な作業が残されていることを示しています。
時間の経過とともに、立法改正が必要となる構造的特徴は二つあるでしょう。第一に、提供者・配備者の二分法は、実行時のツール提供者――しかも自分がエージェント型システムの一部であることさえ知らないかもしれない主体――までを下位規範だけで無理に包摂することはできません。それには新たな立法上の基盤が必要です。第二に、時点ベースの適合性評価から継続的な適合性評価への真の転換は、規格やガイダンスだけで実現できる範囲を超えています。これらは本法が進化していくべき領域であり、そのための経路として、第112条を含む本法自身の見直しメカニズムが用意されています。[23]
柔軟にたわむ枠組み
支配的な物語は、EU AI法をエージェント型AI以前の時代の遺物として位置付けています。本稿は、その物語が重要な点で不完全であると論じてきました。
定義層では、本法は真のレジリエンスを示しています。第3条第1項の、さまざまな自律性、暗黙的な目的、意思決定、環境への影響への言及は、無理なくエージェント型AIを取り込む規制上の境界を形作っています。運用層では、批判側が指摘するように、実際のギャップが存在します。しかし、それらのギャップは、もともと適応可能性を念頭に置いて意図的に構築された枠組みの中にあります。Digital Omnibus提案は、定義上の基盤をそのままに、運用層を調整するEUの意思をすでに示しています。また、本法の広範な下位規範は、立法改正を全面的に行わずとも、エージェント型の課題のかなりの部分に対処できます。
EUは、二つの誘惑に抗わなければなりません。(i) 枠組みは積極的な適応なしにそのまま持ちこたえると考える慢心、(ii) 全面的に作り直す必要があると結論づける狼狽です。AI法は、エージェント型AIのために設計されたわけではありません。しかし、それを受け入れられる程度には十分に設計されていました。そしてこの違いは、欧州におけるAIガバナンスの将来にとって極めて重要です。枠組みはたわみます。壊れる必要はありません。
今日、エージェント型システムを導入する組織にとって、実務上の含意は明確です。コンプライアンスは、法制度が追いつくまで先送りできる将来の課題ではありません。定義上の境界はすでにこれらのシステムを捕捉しており、運用上の義務も到来しつつあります。今取り組むべきは、エージェント型ワークフローの最初からガバナンスを組み込むことです。すなわち、展開されているAIシステムを棚卸しし、変化するリスク分類に照らしてマッピングし、本法の下位規範が今後ますます求めることになる継続的な監督を維持することです。Enzaiでは、まさにこの課題を組織が乗り越えられるよう支援するためにプラットフォームを構築しています。詳細は、こちらからお問い合わせください。
Enzaiは、抽象的な方針を運用上の監督へと移行させることを目的に設計された、業界をリードするエンタープライズAIガバナンス・プラットフォームです。当社のAIリスク管理プラットフォームは、エージェント型AIガバナンスを管理し、包括的なAIインベントリを維持し、EU AI法への準拠を確保するために必要な専用インフラを提供します。複雑なワークフローを自動化することで、Enzaiは、ISO 42001 やNISTのようなグローバル標準との整合を維持しながら、企業が確信を持ってAI導入を拡大できるよう支援します。
参考文献
[1] Microsoft Security Blog、「Fortune 500の80%がアクティブなAIエージェントを利用:可観測性、ガバナンス、セキュリティが新たなフロンティアを形作る」(2026年2月)、https://www.microsoft.com/en-us/security/blog/2026/02/10/80-of-fortune-500-use-active-ai-agents-observability-governance-and-security-shape-the-new-frontier/ で入手可能。
[2] L. Jones、「Agentic Tool Sovereignty」、European Law Blog(2025年)、https://www.europeanlawblog.eu/pub/dq249o3c で入手可能。
[3] ACM Europe Technology Policy Committee、「エージェント型AIに関連する体系的リスク:政策ブリーフ」(2025年10月)、https://www.acm.org/binaries/content/assets/public-policy/europe-tpc/systemic_risks_agentic_ai_policy-brief_final.pdf で入手可能。
[4] M.L. Miller Nguyen、「EU AI法の下でAIエージェントはどのように統治されるか」、The Future Society(2025年6月)、https://thefuturesociety.org/aiagentsintheeu/ で入手可能。
[5] 2024年6月13日の欧州議会及び理事会規則(EU)2024/1689、人工知能に関する調和規則(Artificial Intelligence Act)を定めるもの、第3条第1項。
[6] AI法の定義は、2023年に採択されたOECDのAIシステム定義を基礎としつつも、そこからは逸脱しています。欧州委員会によるAIシステム定義ガイドライン(2025年2月)を参照。
[7] AI法、前文12。
[8] 欧州委員会の当初提案COM(2021) 206 final、およびその後の三者協議交渉(2022年〜2023年)における理事会・欧州議会の立場を参照。
[9] 適合性評価の枠組みは、決定No 768/2008/ECを含むEUの製品安全に関する「新立法枠組み」に由来します。
[10] AI法、第3条第23項。
[11] AI法、第16条〜第27条(提供者の義務)および第26条(配備者の義務)。
[12] AI法、第25条第4項。
[13] Jones(注2); AI法、前文88。前文88は、バリューチェーン上の協力を「促す」にとどまり、拘束力のある義務を創設していません。
[14] AI法、第14条第1項、第14条第4項(a)及び(d)。
[15] M. Fink、「EU AI法第14条に基づく人間による監督」、SSRN(2025年)、https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5147196 で入手可能。
[16] AI法、第72条第2項。エージェント型運用との時間的不一致については、Jones(注2)を参照。
[17] 欧州委員会、Standardisation Request M/593(M/613により2025年6月改訂);CEN-CENELEC、「人工知能向け規格の開発加速に関するCENおよびCENELECの決定の更新」(2025年10月)。
[18] AI法、第7条及び第97条。委任期間は2024年8月1日から5年間で、異議申し立て期間は3か月です。
[19] AI法、第6条第3項。
[20] Orrick、「EU委員会、AIシステムの定義を明確化」(2025年4月)を参照。Lagodinsky欧州議会議員は2025年9月、エージェントの規制を明確化するよう欧州委員会に正式に要請しており、さらなるガイダンスへの政治的需要を示しています。Jones(注2)を参照。
[21] AI法、第56条。
[22] 欧州委員会、「規則(EU)2024/1689及び規則(EU)2024/1689を改正する規則案(AIに関するDigital Omnibus)」(2025年11月19日)。あわせて European Parliament Think Tank、「Digital Omnibus on AI: EU Legislation in Progress」(2026年2月)も参照。
[23] AI法、第112条。
組織がAIを採用し、管理し、監視する能力を、企業レベルの信頼性で強化します。規模で運営する規制対象の組織向けに構築されています。

