EU AI法コンプライアンスに関する実践的なエンタープライズ向けガイド――リスク分類、高リスクに該当する場合の義務、施行タイムライン、そして2026年8月までに取り組むべき事項。
•
•
30 最小読了時間
トピック
EU AI法は、もはや「今後導入される」ものではありません。すでに施行されています。許容不能リスクのAIシステムに対する禁止は、2025年2月2日から執行可能となっています。汎用目的AIモデル(GPAI)に関する義務は、2025年8月2日に発効しました。そして、高リスクシステムに関する一連の要件(リスク管理、技術文書、人間による監督、適合性評価)は、2026年8月2日に発効します。[1] それまであと4か月です。
エンタープライズのコンプライアンスチームにとっての課題は、規制を抽象的に理解することではありません。リスクプロファイル、提供者、導入文脈がそれぞれ異なる数十〜数百のAIシステムに対して、これを運用実装することです。本法に関する法的解説は膨大に存在しますが、実装に関する実務的ガイダンスは乏しいのが実情です。
本ガイドは、そのギャップを埋めるものです。エンタープライズチーム向けに、EU AI法コンプライアンスへの構造的アプローチを提示し、リスク分類、各層に付随する義務、執行タイムライン、そして今後数か月に向けた段階的アクションプランを網羅します。
執行タイムライン
本法は2024年8月1日に施行されましたが、義務は複数の段階に分けて適用されます。すでに有効な義務と、間近に迫る義務を把握することが、あらゆるコンプライアンス・プログラムの出発点です。
日付 | 適用内容 |
|---|---|
2025年2月2日 | 禁止されるAI慣行(第5条)。AIリテラシー義務(第4条)。すでに施行済み。 |
2025年8月2日 | GPAIモデル義務(第51〜56条)。制裁および執行枠組み(第99条)。ガバナンス体制(第VII章)。すでに施行済み。 |
2026年8月2日 | 高リスクAIシステムに関する完全な義務(第9〜15条)。適合性評価(第43条)。透明性義務(第50条)。EUデータベースへの登録(第71条)。 |
2027年8月2日 | 2025年8月以前に上市されたGPAIモデルは、コンプライアンスを達成していなければなりません。 |
2025年11月に提案されたDigital Omnibusは、附属書IIIの高リスク期限を2027年12月まで、附属書Iの組込み製品期限を2028年8月まで延長する内容です。[2] ただし、これらの提案はまだ法制化されていません。議会・理事会・委員会の三者協議は継続中であり、結論は不確実です。企業は2026年8月の期日を前提に計画し、延長は基準ではなくコンティンジェンシーとして扱うべきです。
リスク分類:各AIシステムはどこに該当するか
本法の規制アーキテクチャは、4層のリスク分類システムに基づいて構築されています。企業が開発・調達・導入するすべてのAIシステムは、これらの層に照らして分類されなければなりません。
許容不能リスク:禁止される慣行(第5条)
AI利用の8分類は全面的に禁止され、最高3,500万ユーロまたは世界年間売上高の7%の制裁金が科されます。[3] 企業にとって特に関連性が高いのは次のとおりです。
職場または教育における感情認識 - 安全または医療目的で用いる場合を除き、従業員または学生の感情状態を推定するAIシステム
機微属性による生体分類 - 生体データを用いて、人種、政治的意見、労働組合加入、宗教的信条、性生活、性的指向によって個人を分類するシステム
ソーシャルスコアリング - 公的機関が社会的行動に基づいて個人を継続評価し、不均衡な取扱いにつながるシステム
閾下操作(サブリミナル・マニピュレーション) - 意識の閾値以下の技術を用いて行動を歪め、重大な害を生じさせる蓋然性が高いAI
企業の対応:これらの分類に近接するAIシステムがないか、直ちに全面監査を実施してください。感情分析を用いるHRツール、生体システム、行動スコアリングツールは特に厳格な精査が必要です。禁止慣行との明確な区別ができないシステムは、利用停止または再設計を行ってください。この義務は2025年2月から執行可能です。
高リスク:コンプライアンス義務の中核
高リスク分類は、2つの経路で発動します。[4]
経路1 - 安全コンポーネント(第6条1項): すでにEU分野別法令(医療機器、機械、航空、自動車、圧力機器、附属書I記載のその他)で規制される製品の安全コンポーネントであり、当該製品に第三者適合性評価が求められるAIシステム。
経路2 - 附属書IIIのスタンドアロンシステム(第6条2項): 以下8つの機微ユースケース分類で導入されるAIシステム。
分類 | 例 |
|---|---|
生体認証 | 遠隔生体識別、感情認識 |
重要インフラ | 水道、ガス、電力、デジタルインフラ、道路交通管理における安全コンポーネント |
教育 | 入学判定、学習成果評価、不正行為監視 |
雇用 | 履歴書スクリーニング、面接評価、業績監視、業務配分、解雇判断 |
必須サービス | 信用スコアリング、保険リスク評価、社会給付資格判定、緊急配車 |
法執行 | 個人リスク評価、証拠評価、再犯予測 |
移民・国境管理 | 非正規移民リスク評価、ビザ・庇護申請審査 |
司法・民主主義 | 司法上の事実認定支援、選挙に影響を及ぼし得るシステム |
重要な留意点として、第6条3項の下では、附属書III分類に該当するシステムであっても、用途が限定的な手続目的であり、実体的判断に影響せず、または文脈上リスクが実証的に軽微である場合、提供者は「重大リスクを実際には生じない」と判断できる場合があります。もっとも、提供者は当該判断の発効前に、関係する国内市場監視当局へ通知し、EUデータベースに自己判定を登録しなければなりません。これはリスク免除ではなく、規制当局の審査に耐える、文書化可能かつ監査可能な主張です。
限定リスク:透明性義務(第50条)
個人と直接相互作用するが高リスク分類には該当しないシステムは、2026年8月以降、以下の透明性要件を満たす必要があります。
チャットボットおよび対話型AIは、利用者がAIシステムと対話していることを開示しなければならない
ディープフェイク・コンテンツは、AI生成または改変済みである旨の表示が必要
公共の利益に関するAI生成テキストには開示が必要
感情認識および生体分類システムは、対象となる個人へ通知しなければならない
最小リスク:義務なし
上記いずれの分類にも該当しないAIシステム(スパムフィルター、推薦エンジン、AI支援文法ツール、ビデオゲーム内AI)には、法定義務はありません。第95条に基づく任意の行動規範は推奨されますが必須ではありません。
高リスク義務:実際に求められるコンプライアンス
高リスクに分類されるAIシステムに対して、本法は第9〜15条を通じて7分類の必須要件を課しています。これらは抽象的原則ではなく、文書化要件を伴う具体的かつ監査可能な義務です。
リスク管理(第9条)
継続的なリスク管理プロセスを確立してください。単発評価ではなく、AIシステムのライフサイクル全体にわたる循環的プロセスが必要です。このプロセスでは、健康・安全・基本的人権への予見可能なリスクを特定・分析し、当該リスクを見積り・評価し、緩和措置を採用し(運用管理より設計変更を優先)、導入前にリスク管理計画に照らしてシステムを試験しなければなりません。残留リスクは文書化し、導入者へ通知する必要があります。
データガバナンス(第10条)
学習・検証・テスト用データセットは、関連性、代表性、無誤性、十分な完全性を満たさなければなりません。データガバナンス実務は、収集、ラベリング、処理、保持を対象とする必要があります。バイアス検知および是正手続も必須であり、個人データはGDPRに準拠して処理されなければなりません。
技術文書(第11条および附属書IV)
システムを上市する前に、包括的な技術文書を作成してください。附属書IVには必須記載事項が規定されています。すなわち、システムの説明と目的、設計仕様、学習方法論とデータ特性、性能指標、試験手順、既知の制約、サイバーセキュリティ対策、市販後モニタリング計画です。これらの文書は常に最新化し、要請に応じて当局に提示可能でなければなりません。
記録保持(第12条)
高リスクシステムには、自動ログ機能を組み込み、システムの全寿命にわたり、リスク特定および重大改変に関連する事象を記録できるようにしなければなりません。導入者はログを最低6か月保持する必要があります。マルチステップ推論チェーンで動作するエージェント型AIシステムでは、ログ要件は特に厳格であり、同時に特に重要です。
透明性(第13条)
提供者は、導入者がシステムの能力、制約、精度指標、意図された目的、および必要な人間による監督措置を理解できるよう、使用説明書を提供しなければなりません。説明書は、AIの専門知識を持たない者にも理解可能である必要があります。
人間による監督(第14条)
システムは、実効的な人間による監督を可能にする設計でなければなりません。すなわち、人間が出力を理解し、運用に介入・中断し、出力を無視または上書きし、事前承認なくシステムが人間の判断を上書きすることを防止できることが求められます。提供者はこの能力を実装し、導入者はそれを行使する有資格人材を配置・訓練します。
精度、堅牢性、サイバーセキュリティ(第15条)
システムは、ライフサイクル全体を通じて申告した精度水準を維持し、入力の誤りや不整合に耐え、敵対的操作に耐性を持ち、適用されるサイバーセキュリティ基準を満たさなければなりません。
第9〜15条に加えて、提供者は品質管理システムの確立(第17条)、適合性評価の実施(第43条)、EU適合宣言の発行(第47条)、CEマーキングの表示(第48条)、EUデータベースへの登録(第71条)、市販後モニタリングの実装(第72条)、および重大インシデントの15日以内報告(第73条)も実施する必要があります。
ProviderとDeployerの区分
本法は、組織がprovider(AIシステムを開発または委託する者)かdeployer(業務文脈で利用する者)かによって、義務を異なる形で割り当てます。[5]
providerの負担はより重く、第9〜15条への全面準拠、適合性評価、文書化、市販後モニタリングを負います。deployerは、providerの指示に従ってシステムを利用し、人間による監督を有資格者に割り当て、ログを保持し、影響を受ける個人に通知し、問題を報告しなければなりません。
重要な境界は次のとおりです。第三者AIシステムを企業が実質的に改変し、意図された目的を変更し、または自社ブランドで上市した場合、当該企業は第25条上のproviderとなり、provider義務を全面的に負います。例えば、新たなユースケース向けに基盤モデルをファインチューニングする行為は、この閾値を超える可能性があります。各組織は、すべてのAIシステムをprovider-deployer枠組みにマッピングし、その分類を文書化すべきです。
第三者AIシステムについては、deployer側のデューデリジェンスが不可欠です。システムのリスク分類および適合性状況を裏づける文書の提示を求めてください。インシデント報告、ログ保持、人間による監督仕様、責任配分に対応するよう、ベンダー契約を更新してください。ベンダーが十分な文書を提供できない場合、それは重大なコンプライアンスリスクです。
よく見落とされがちな典型例として、Salesforce、ServiceNow、Workdayなどの大手SaaS提供者は、雇用または必須サービス分類で高リスクに該当し得るAI機能を組み込むケースが増えていますが、適合性文書の提供を拒む場合があります。この状況においてdeployerは第26条上の義務を外部委託できません。deployerは、AI機能の独自評価を実施するか、高リスク非該当文脈に用途を限定するか、十分な文書が入手できるまで利用を停止する必要があります。これは契約更新前に評価すべき重要な調達リスクです。Enzaiは、階層化されたGPAIおよび高リスクシステム構成を含め、AIスタック全体にわたるprovider-deployer義務をマッピングします。
GPAIモデル義務
多くのエンタープライズAIシステムは、汎用目的AIモデル(Anthropic、OpenAI、Google、Meta等の基盤モデル)上に構築されています。本法は、GPAIモデル提供者に対し、第51〜56条に基づく独自の義務を課しており、2025年8月から有効です。[6]
すべてのGPAI提供者は、技術文書の維持、下流統合者が自らの義務を履行するために十分な情報の提供、著作権コンプライアンス方針の実装、学習データ要約の公表を行わなければなりません。
システミックリスク閾値(累積学習計算量が10^25 FLOPsを超える、または実証された能力に基づき委員会が指定)を超えるモデルには追加義務があります。すなわち、敵対的テスト、リスク評価と緩和、欧州AIオフィスへの重大インシデント報告、サイバーセキュリティ保護です。
2025年8月に承認されたGPAI実務規範(Code of Practice)は、コンプライアンス経路を提供し、署名者に適合性推定をもたらします。[7] 欧州AIオフィスは、各国市場監視当局とは別に、GPAIモデルに対する専属監督権限を有します。
第三者GPAIモデル上に構築されたエージェントやアプリケーションを導入する企業にとっての実務上の含意は、レイヤー化されたコンプライアンスです。モデル提供者がGPAI義務を負い、導入組織がアプリケーション層に関する高リスクシステム義務を負います。どこで一方の義務が終わり、他方が始まるかの明確化は不可欠です。
制裁金と執行
制裁枠組みは重く、段階的に設計されています。[8]
違反類型 | 制裁金上限 |
|---|---|
禁止慣行(第5条) | 3,500万ユーロまたは世界年間売上高の7% |
高リスクおよび透明性義務 | 1,500万ユーロまたは世界年間売上高の3% |
当局への不正確情報の提供 | 750万ユーロまたは世界年間売上高の1% |
執行は分散型です。高リスクシステムの適合性は各国市場監視当局が所管し、GPAIモデルは欧州AIオフィスが所管します。基本的人権保護当局(加盟国によってはデータ保護当局)が、公的機関による高リスクAI利用に関する案件を扱います。
制裁金決定における考慮要素には、違反の性質と重大性、故意または過失の有無、組織規模、当局への協力、被害軽減のために講じた措置が含まれます。
段階的アクションプラン
2026年8月の期限が迫る中、企業には構造化されたアプローチが必要です。Enzaiは、本法対応を進めるエンタープライズ・コンプライアンスチームへの支援実績に基づき、以下の順序を推奨します。
フェーズ1:直ちに実施(すでに適用中の義務)
暫定AIコンプライアンス責任者を指名し、フェーズ1の施策を統括しつつ、全体プログラムのスコープ定義を開始してください。以下の即時対応には、推進権限と実行余力を有する担当者が必要です。
禁止慣行の監査を実施。 第5条は2025年2月から執行可能です。すべてのAIシステムについて、禁止分類への近接性を確認してください。特に職場での感情認識、生体分類、行動スコアリングを重点的に見直します。
AIリテラシーを確立。 第4条は、AI運用に関与する人員に十分なAIリテラシーを求めています。研修プログラムを文書化し、証跡を保持してください。
GPAIエクスポージャーを評価。 組織が基盤モデルを開発またはファインチューニングする場合、2025年8月から有効な第51〜56条義務への準拠を確保してください。
フェーズ2:基盤構築(現在〜2026年Q2)
ガバナンス体制を確立。 経営レベルのAIコンプライアンス責任者を指名し、高リスクシステムのプロダクト単位責任を割り当て、法務・技術・セキュリティ・調達・人事を横断するAIガバナンスグループを編成してください。この権限構造がなければ、後続の棚卸し・分類作業は、事業部門からの情報開示を促す組織的権限を欠くことになります。予算とツーリングの決定もこの段階で行うべきです。エンタープライズ規模の棚卸しと分類には、通常、専用ツールまたは管理型レビュー・プロセスが必要です。
包括的なAI棚卸しを構築。 組織が開発・調達・導入するすべてのAIシステム(シャドーAI、ベンダープラットフォームに組み込まれたAI、AI機能付きSaaSツールを含む)を台帳化してください。目的、データ入力、導入文脈、システムオーナーを記録します。EnzaiのAIインベントリモジュールは、クラウド環境とSaaS連携全体で自動検出を提供し、このフェーズで通常最大工数を占める手作業を削減します。- 仕組みを見る。
すべてのシステムを分類。 棚卸し済みシステムを各リスク層にマッピングしてください。各システムの分類根拠を文書化します。これはそれ自体がコンプライアンス成果物です。
フェーズ3:コンプライアンス構築(2026年Q2〜Q3)
各高リスクシステムについて、以下のコンプライアンス成果物一式を整備:
リスク管理文書(第9条)
データガバナンス手順(第10条)
附属書IVに基づく技術文書(第11条)
自動ログ実装(第12条)
使用説明書(第13条)
人間による監督フレームワーク(誰が監督し、どのように介入し、介入をどう記録するか)(第14条)
適合性評価(第43条) - 附属書IIIの2〜8項については、整合規格が適用される場合は内部評価。生体遠隔識別(1(a))および整合規格未公表の分類については、指定機関評価。適合ルート確定前に委員会の整合規格登録簿を確認してください
ベンダー契約を更新。 第三者AIシステムについて、契約で文書開示権、インシデント報告、ログ保持、第25条に基づく責任配分を明確にしてください。
透明性開示を準備。 顧客向けおよび従業員向けAIシステムを監査し、第50条要件(チャットボット開示、ディープフェイク表示、感情認識通知)への対応を整備してください。
フェーズ4:検証と準備完了(2026年Q3)
基本的人権影響評価を実施(第27条で要求される場合)。公的機関には必須であり、高インパクト文脈で高リスクAIを利用する民間deployerにも推奨されます。
インシデント対応手順を確立。 既存のセキュリティインシデント対応を拡張し、AI特有のインシデントを対象化してください。死亡または重大被害を伴う事案の15日報告、個人データ侵害の72時間報告、加盟国ごとの所管当局の特定を含みます。
高リスクシステムを登録(導入前にEUデータベースへ、第71条)。
適合性評価を完了し、EU適合宣言を発行(第47条)。上市するシステムにはCEマーキング(第48条)を付してください。
今後に向けて
EU AI法は、世界で施行中のAI規制として最も包括的です。段階的実装により企業には明確なタイムラインが与えられる一方、コンプライアンス対象は広範であり、技術文書、リスク管理、データガバナンス、人間による監督、透明性、市販後モニタリングが、場合によっては数百のAIシステムにまたがります。
最も有利な立場にあるのは、コンプライアンスを一時点の作業として扱うのではなく、今この時点でガバナンス基盤を構築している組織です。本法の義務は継続的です。リスク管理は継続運用、モニタリングは常時稼働、文書は常に最新でなければなりません。AIシステムの開発・導入・監視の方法そのものにコンプライアンスを埋め込む「マネジメントシステム・アプローチ」こそ、唯一持続可能なモデルです。
Enzaiのプラットフォームは、EU AI法コンプライアンスの運用基盤を提供します。すなわち、集中管理されたAI棚卸し、本法フレームワークに基づく自動リスク分類、第9〜15条向けの構造化文書化、継続的モニタリング、監査対応可能な証跡管理です。2026年8月に向けて準備する企業は、デモを予約し、プラットフォームが本法要件にどのように対応するかをご確認ください。
参考文献
[1] 欧州議会および理事会規則(EU)2024/1689、第113〜114条(施行および適用日)。欧州連合官報Lシリーズ、2024年7月12日。
[2] 欧州委員会「Digital Omnibus on AI」(COM(2025) 871)、2025年11月26日。整合規格の利用可能性を条件とした附属書IIIおよび附属書Iの期限延長案。
[3] 規則(EU)2024/1689、第5条(禁止されるAI慣行)および第99条(制裁金)。
[4] 規則(EU)2024/1689、第6条(高リスクAIシステムの分類規則)および附属書III。
[5] 規則(EU)2024/1689、第16条(provider義務)、第26条(deployer義務)、第25条(AIバリューチェーン上のその他当事者)。
[6] 規則(EU)2024/1689、第V章、第51〜56条(GPAIモデル義務)。
[7] GPAI実務規範(Code of Practice)、欧州委員会およびAI Board承認、2025年8月1日。
[8] 規則(EU)2024/1689、第99条(制裁金)。
組織がAIを採用し、管理し、監視する能力を、企業レベルの信頼性で強化します。規模で運営する規制対象の組織向けに構築されています。
