EU AI法コンプライアンスに関する実践的なエンタープライズ向けガイド――リスク分類、高リスクに該当する場合の義務、施行タイムライン、そして2026年8月までに取り組むべき事項。
•
•
34 最小読了時間
トピック
EU AI法はもはや制定予定ではありません。すでに施行されています。許容不能リスクのAIシステムの禁止は2025年2月2日から執行可能です。汎用AIモデルの義務は2025年8月2日に発効しました。そして、高リスクシステムに関する義務一式 - リスク管理、技術文書、人間による監督、適合性評価 - は2026年8月2日に発効します。[1] それは、4か月後のことです。
エンタープライズのコンプライアンスチームにとっての課題は、規制を抽象的に理解することではありません。異なるリスクプロファイル、異なる提供者、異なる導入文脈を持つ数十、あるいは数百ものAIシステムにわたって、それを運用可能な形に落とし込むことです。この法に関する法的解説は非常に多い一方で、実務的な導入ガイダンスは限られています。
本ガイドはそのギャップを埋めます。EU AI法へのエンタープライズ向けコンプライアンスに関する体系的なアプローチを提示し、リスク分類、各階層に付随する義務、執行スケジュール、そして今後数か月に向けた段階的な行動計画を網羅します。
執行スケジュール
本法は2024年8月1日に発効しましたが、義務は複数の段階に分けて適用されます。どの義務がすでに有効で、どの義務が目前に迫っているのかを理解することが、あらゆるコンプライアンス・プログラムの出発点です。
日付 | 適用内容 |
|---|---|
2025年2月2日 | 禁止されるAI慣行(第5条)。AIリテラシー義務(第4条)。すでに施行済み。 |
2025年8月2日 | GPAIモデルに関する義務(第51条〜第56条)。制裁および執行の枠組み(第99条)。ガバナンス体制(第VII章)。すでに施行済み。 |
2026年8月2日 | 高リスクAIシステムに関する義務一式(第9条〜第15条)。適合性評価(第43条)。透明性義務(第50条)。EUデータベースへの登録(第71条)。 |
2027年8月2日 | 2025年8月以前に市場投入されたGPAIモデルは、コンプライアンスを達成しなければなりません。 |
2025年11月に提案されたDigital Omnibusは、附属書IIIの高リスク期限を2027年12月まで、また附属書Iの組み込み製品の期限を2028年8月まで延長するものです。[2] ただし、これらの提案はまだ法令ではありません。欧州議会、理事会、欧州委員会の三者協議は継続中であり、その結果は不確実です。企業は2026年8月の期日を前提に計画を立て、いかなる延長も基本線ではなく、あくまで不測の事態への備えとして扱うべきです。
リスク分類:各AIシステムはどこに該当するのか?
本法の規制アーキテクチャは、4階層のリスク分類体系に基づいて構築されています。企業が構築、購入、または導入するすべてのAIシステムは、これらの階層に照らして分類しなければなりません。
許容不能リスク:禁止される慣行(第5条)
AIの利用に関する8つのカテゴリは全面的に禁止されており、罰金は最大で3,500万ユーロ、または全世界年間売上高の7%に達します。[3] 企業にとって特に関連性が高いのは以下です。
職場または教育現場における感情認識 - 安全または医療目的で使用される場合を除き、従業員や学生の感情状態を推定するAIシステム
センシティブ属性に基づく生体認証による分類 - 生体データを用いて、人種、政治的意見、労働組合加盟、宗教的信条、性生活、または性的指向に基づいて個人を分類するシステム
ソーシャルスコアリング - 社会的行動に基づいて個人を長期的に評価し、不均衡な取り扱いにつながる公的機関によるシステム
サブリミナル操作 - 意識の閾値を下回る技術を用い、重大な害を生じさせる可能性のある方法で行動を歪めるAI
企業としての対応:これらのカテゴリへの該当可能性を、すべてのAIシステムについて直ちに監査してください。感情分析を用いる人事ツール、生体認証システム、行動スコアリング・ツールは、特に厳格な精査が必要です。システムが禁止される慣行と明確に区別できない場合は、停止するか、再設計してください。この義務は2025年2月から執行可能です。
高リスク:中核となるコンプライアンス義務
高リスク分類は2つの経路で発生します。[4]
経路1 - 安全部品(第6条(1)): 既にEUの業種別法令で規制されている製品(医療機器、機械、航空、自動車、圧力機器など、附属書Iに列挙されたもの)の安全部品であり、かつ当該製品に第三者適合性評価が必要となるAIシステム。
経路2 - 附属書IIIの単体システム(第6条(2)): 8つのセンシティブなユースケース・カテゴリに導入されるAIシステム。
カテゴリ | 例 |
|---|---|
生体認証 | 遠隔生体識別、感情認識 |
重要インフラ | 水道、ガス、電力、デジタルインフラ、道路交通管理における安全部品 |
教育 | 入学判定、学習成果の評価、不正行為の監視 |
雇用 | 履歴書スクリーニング、面接評価、パフォーマンス監視、業務割り当て、解雇判断 |
基幹サービス | 信用スコアリング、保険リスク評価、社会保障給付の受給資格判断、緊急通報配車 |
法執行 | 個人のリスク評価、証拠評価、再犯予測 |
移民および国境管理 | 不法移民のリスク評価、査証および庇護申請の審査 |
司法および民主主義 | 司法上の事実認定の支援、選挙に影響を与え得るシステム |
重要な留意点があります。第6条(3)に基づき、提供者は、附属書IIIのカテゴリに該当するシステムであっても、実際には重大なリスクをもたらさないと判断することができます。ただし、そのシステムが限定的な手続目的のために使用され、実質的な判断に影響を与えず、または文脈を踏まえてリスクが明らかに軽微である場合に限ります。提供者は、その判断の効力が生じる前に、関係する国内市場監視当局へ通知し、当該自己判断をEUデータベースに登録しなければなりません。これはリスク免除ではなく、規制当局の精査に耐え得るよう、文書化され、監査可能な主張です。
限定リスク:透明性義務(第50条)
個人と直接やり取りするものの、高リスクカテゴリに該当しないシステムは、2026年8月から透明性要件を満たす必要があります。
チャットボットおよび会話型AIは、利用者がAIシステムとやり取りしていることを開示しなければなりません
ディープフェイク・コンテンツには、AI生成または改変されたものである旨を表示しなければなりません
公共の関心に関わる事項に関するAI生成テキストは、開示が必要です
感情認識および生体認証による分類システムは、影響を受ける個人に通知しなければなりません
最小リスク:義務なし
上記いずれのカテゴリにも該当しないAIシステム - スパムフィルター、レコメンデーション・エンジン、AI支援文法ツール、ゲーム内のAIなど - には、義務は課されません。第95条に基づく自主的行動規範は推奨されますが、義務ではありません。
高リスク義務:実際に求められるコンプライアンス
高リスクに分類されるAIシステムに対して、本法は第9条から第15条を通じて7種類の必須要件を課しています。これらは抽象的な原則ではなく、文書化要件を伴う、具体的で監査可能な義務です。
リスク管理(第9条)
継続的なリスク管理プロセスを構築してください。これは一度限りの評価ではなく、AIシステムのライフサイクル全体を通じた継続的なサイクルでなければなりません。プロセスは、健康、安全、基本的権利に対する予見可能なリスクを特定・分析し、それらのリスクを見積もり評価し、軽減措置を講じ(設計変更を運用上の統制より優先し)、導入前にリスク管理計画に対してシステムをテストする必要があります。残留リスクは文書化し、導入者に共有しなければなりません。
データガバナンス(第10条)
訓練用、検証用、テスト用のデータセットは、関連性があり、代表性を備え、誤りがなく、かつ十分に完全でなければなりません。データガバナンスの実務には、収集、ラベリング、処理、保管を含める必要があります。バイアスの検出および是正の手順が求められ、個人データはGDPRに従って処理されなければなりません。
技術文書(第11条および附属書IV)
システムを市場に投入する前に、包括的な技術文書を作成してください。附属書IVには、記載すべき内容が定められています。すなわち、システムの説明と目的、設計仕様、訓練方法およびデータ特性、性能指標、試験手順、既知の制約、サイバーセキュリティ対策、ならびに市販後監視計画です。この文書は常に最新の状態に保ち、当局から要請があれば提示できるようにしておかなければなりません。
記録保持(第12条)
高リスクシステムには、自動ログ記録機能を組み込む必要があり、システムの存続期間を通じて、リスクの特定や重大な改変に関係するイベントを記録しなければなりません。導入者は、ログを最低6か月間保管する必要があります。複数ステップの推論連鎖をまたいで動作するエージェント型AIシステムでは、このログ要件は特に厳格であり、同時に特に重要です。
透明性(第13条)
提供者は、システムの能力、制約、精度指標、意図された目的、ならびに必要な人間による監督措置を導入者が理解できるよう、使用方法の説明を提供しなければなりません。当該説明は、AIに関する専門知識を有しない人にも理解できるものでなければなりません。
人間による監督(第14条)
システムは、効果的な人間による監督が可能となるよう設計されなければなりません。これは、人間がシステムの出力を理解し、操作に介入または中断し、出力を無視または上書きし、事前の承認なしにシステムが人間の判断を覆すことを防げることを意味します。提供者が機能を実装し、導入者がその機能を行使するための適格な担当者を任命し、教育します。
正確性、堅牢性、サイバーセキュリティ(第15条)
システムは、そのライフサイクルを通じて宣言された精度水準を維持し、入力の誤りや矛盾に耐え、敵対的な操作に対して頑健であり、適用されるサイバーセキュリティ基準を満たさなければなりません。
第9条から第15条に加え、提供者は品質管理システム(第17条)を整備し、適合性評価(第43条)を受け、EU適合宣言(第47条)を発行し、CEマーキング(第48条)を付し、システムをEUデータベースに登録(第71条)し、市販後監視(第72条)を実施し、重大インシデントを15日以内に報告(第73条)しなければなりません。
提供者と導入者の役割分担
本法は、組織が提供者(AIシステムを開発または発注する主体)であるか、導入者(職業上の文脈でそれを使用する主体)であるかに応じて、義務を異なる形で割り当てています。[5]
提供者の負担はより重く、第9条から第15条への完全な適合、適合性評価、文書化、および市販後監視が求められます。導入者は、提供者の指示に従ってシステムを使用し、人間による監督を適格な担当者に割り当て、ログを保管し、影響を受ける個人に通知し、問題を報告しなければなりません。
重要な境界線があります。第三者のAIシステムを取り込み、それを大幅に改変し、意図された目的を変更し、または自社ブランドの下で市場に投入する企業は、第25条に基づき提供者となり、すべての提供者義務を引き受けることになります。たとえば、基盤モデルを新しいユースケース向けにファインチューニングすることは、この閾値を超える可能性があります。組織は各AIシステムを提供者・導入者の枠組みにマッピングし、その分類を文書化すべきです。
第三者のAIシステムについては、導入者側のデューデリジェンスが不可欠です。システムのリスク分類と適合状況を確認できる文書を要求してください。インシデント報告、ログ保管、人間による監督の仕様、責任分担を契約に反映させるようベンダー契約を更新してください。ベンダーが十分な文書を提供できない場合、それは重大なコンプライアンスリスクです。
見過ごされがちですが典型的な状況があります。大手SaaS提供者(Salesforce、ServiceNow、Workdayなど)は、雇用または基幹サービスのカテゴリに該当し得るAI機能をますます組み込んでいますが、適合性文書の提供を拒むことがあります。この場合、導入者は第26条の義務を外部委託することはできません。導入者は、自社で当該AI機能を評価するか、高リスクでない文脈に使用を限定するか、十分な文書が入手可能になるまで使用を停止する必要があります。これは契約更新前に評価すべき重大な調達リスクです。Enzaiは、階層化されたGPAIおよび高リスクシステム構成を含め、AIスタック全体にわたる提供者・導入者の義務を整理します。
GPAIモデルに関する義務
多くのエンタープライズAIシステムは、Anthropic、OpenAI、Google、Metaなどの汎用AIモデル、すなわち基盤モデルの上に構築されています。本法は、2025年8月以降有効となる第51条から第56条に基づき、GPAIモデルの提供者に対して別個の義務を課しています。[6]
すべてのGPAI提供者は、技術文書を維持し、下流の統合事業者が自らの義務を遵守できるよう十分な情報を提供し、著作権コンプライアンスポリシーを実施し、学習データの要約を公表しなければなりません。
システミックリスクの閾値を上回るモデル(累積学習計算量が10^25 FLOPsを超えるもの、または実証された能力に基づき欧州委員会が指定したもの)には、追加の義務があります。すなわち、敵対的テスト、リスク評価と軽減、欧州AI事務局への重大インシデント報告、ならびにサイバーセキュリティ保護です。
2025年8月に承認されたGPAI行動規範は、コンプライアンスへの道筋を提供し、署名者に対して適合推定を生じさせます。[7] 欧州AI事務局は、GPAIモデルに対する監督権限を独占的に有し、国内の市場監視当局とは別個です。
第三者のGPAIモデル上で構築されたエージェントやアプリケーションを導入する企業にとって、実務上の意味は階層的なコンプライアンスです。モデル提供者はGPAI義務を負い、一方で導入組織はアプリケーション層における高リスクシステム義務を負います。どこで一方の義務が終わり、もう一方が始まるのかを明確にすることが不可欠です。
罰則と執行
制裁の枠組みは重大かつ段階的です。[8]
違反行為 | 最大罰金 |
|---|---|
禁止される慣行(第5条) | 3,500万ユーロまたは全世界年間売上高の7% |
高リスクおよび透明性義務 | 1,500万ユーロまたは全世界年間売上高の3% |
当局への不正確な情報提供 | 750万ユーロまたは全世界年間売上高の1% |
執行は分散型です。高リスクシステムのコンプライアンスは国内市場監視当局が担当します。GPAIモデルのコンプライアンスは欧州AI事務局が担当します。基本権保護当局(加盟国によってはデータ保護当局がこれに該当することがあります)は、公的機関による高リスクAIの利用に関する事案を扱います。
罰金額の算定にあたっては、違反の性質と重大性、それが故意か過失か、組織の規模、当局との協力状況、そして被害軽減のために講じた措置が考慮されます。
段階的な行動計画
2026年8月の期限が迫る中、企業には体系的なアプローチが必要です。Enzaiは、本法への対応を進めるエンタープライズ・コンプライアンスチームとの協業を通じて得た知見に基づき、以下の順序を推奨します。
フェーズ1:即時対応(すでに適用される義務)
暫定AIコンプライアンス責任者を任命することで、フェーズ1の対応を主導させるとともに、全体プログラムのスコープ定義を開始してください。以下の即時対応には、推進力と裁量を持つ担当者が必要です。
禁止される慣行を監査する。 第5条は2025年2月から執行可能です。すべてのAIシステムについて、禁止カテゴリへの該当可能性を確認してください。特に、職場における感情認識、生体認証による分類、行動スコアリングは要注意です。
AIリテラシーを整備する。 第4条は、AI運用に関与する人員に十分なAIリテラシーを求めています。研修プログラムを文書化し、証跡を保管してください。
GPAIの対象範囲を評価する。 組織が基盤モデルを開発またはファインチューニングしている場合は、2025年8月から有効な第51条〜第56条の義務に確実に適合してください。
フェーズ2:基盤整備(現時点〜2026年第2四半期)
ガバナンス体制を整備する。 経営層レベルのAIコンプライアンス責任者を任命し、高リスクシステムについては製品単位の責任を割り当て、法務、テクノロジー、セキュリティ、調達、HRを横断するAIガバナンス・グループを招集してください。この権限構造がなければ、後続のインベントリ作成や分類作業には、事業部門に開示を促すための組織的な権限が欠けます。予算およびツールの選定はこの段階で行うべきです。エンタープライズ規模でのインベントリ作成と分類には、通常、専用ツールまたはマネージド・レビュー・プロセスが必要になります。
包括的なAIインベントリを構築する。 組織が構築、購入、または導入するすべてのAIシステムを台帳化してください。シャドーAI、ベンダープラットフォームに組み込まれたAI、AI機能を備えたSaaSツールも含みます。目的、データ入力、導入文脈、システム所有者を記録してください。EnzaiのAIインベントリ・モジュールは、クラウド環境およびSaaS連携を横断して自動発見を行い、このフェーズで最も大きな工数を占めがちな手作業を削減します - 仕組みをご覧ください。
すべてのシステムを分類する。 台帳化した各システムをリスク階層に照合してください。各分類の判断根拠を文書化すること自体が、コンプライアンス文書となります。
フェーズ3:コンプライアンス構築(2026年第2四半期〜第3四半期)
各高リスクシステムについて、次のコンプライアンス文書一式を整備してください。
リスク管理文書(第9条)
データガバナンス手順(第10条)
附属書IVに基づく技術文書(第11条)
自動ログ記録の実装(第12条)
使用方法の説明(第13条)
人間による監督の枠組み - 誰が監督するのか、どのように介入するのか、介入をどのように記録するのか(第14条)
適合性評価(第43条) - 整合規格が適用される附属書IIIの2〜8項目については社内評価、遠隔生体識別(1(a)項)および整合規格が公布されていないカテゴリについては認証機関による評価を実施してください。適合ルートを確定する前に、欧州委員会の整合規格登録簿を確認してください
ベンダー契約を更新する。 第三者のAIシステムについては、文書へのアクセス権、インシデント報告、ログ保管、および第25条に基づく責任分担を契約で明確にしてください。
透明性に関する開示を準備する。 顧客向けおよび従業員向けのAIシステムについて、第50条の要件 - チャットボット開示、ディープフェイク表示、感情認識の通知 - を監査してください。
フェーズ4:検証と準備完了(2026年第3四半期)
基本権影響評価を実施する - 第27条で要求される場合。公的機関には義務であり、また、高影響の文脈で高リスクAIを使用する民間導入者には実施が推奨されます。
インシデント対応手順を整備する。 既存のセキュリティインシデント対応を拡張し、AI固有のインシデントを対象に含めてください。死亡または重大な危害を伴うインシデントについては15日以内の報告、個人データ侵害については72時間以内の報告、各加盟国における適切な国内当局の特定が必要です。
高リスクシステムを登録する - 導入前にEUデータベースへ登録してください(第71条)。
適合性評価を完了し、EU適合宣言を発行する - 市場投入されるシステムについては、CEマーキング(第48条)を付してください(第47条)。
今後を見据えて
EU AI法は、世界のどこにも例を見ない最も包括的なAI規制です。段階的な施行により、企業には明確なタイムラインが与えられていますが、コンプライアンスの対象範囲は広大です。技術文書、リスク管理、データガバナンス、人間による監督、透明性、市販後監視が、潜在的に数百に及ぶAIシステムにまたがって求められます。
最適な立場にある組織は、コンプライアンスを一時点の作業として捉えるのではなく、今のうちにガバナンス基盤を構築している組織です。本法の義務は継続的です。リスク管理は継続的でなければならず、監視は सक्रियでなければならず、文書は常に最新でなければなりません。AIシステムの開発、導入、監視の方法にコンプライアンスを組み込むマネジメントシステム型アプローチこそが、唯一の持続可能なモデルです。
Enzaiのプラットフォームは、EU AI法コンプライアンスのための運用基盤を提供します。中央集約型のAIインベントリ、本法の枠組みに基づく自動リスク分類、第9条〜第15条に対応した体系的文書化、継続監視、監査対応可能な証跡管理を備えています。2026年8月に備える企業の皆さまは、デモを予約して、プラットフォームが本法の要件にどのように対応するかをご確認ください。
Enzaiは、エンタープライズ向けAIガバナンスのリーディング・プラットフォームです。抽象的な方針から運用レベルの監督へ移行するために設計されており、当社のAIリスク管理プラットフォームは、エージェント型AIガバナンスを管理し、包括的なAIインベントリを維持し、EU AI法コンプライアンスを確実にするために必要な専門基盤を提供します。複雑なワークフローを自動化することで、Enzaiは企業がグローバル基準との整合性を維持しながら、ISO 42001やNISTのような基準にも対応しつつ、AI導入を自信を持って拡大できるよう支援します。
参考文献
[1] 欧州議会・理事会規則(EU)2024/1689、第113条〜第114条(発効および適用日)。欧州連合官報、Lシリーズ、2024年7月12日。
[2] 欧州委員会、「AIに関するDigital Omnibus」(COM(2025) 871)、2025年11月26日。整合規格の利用可能性を条件とする、附属書IIIおよび附属書Iの期限延長案。
[3] 規則(EU)2024/1689、第5条(禁止されるAI慣行)および第99条(罰則)。
[4] 規則(EU)2024/1689、第6条(高リスクAIシステムの分類規則)および附属書III。
[5] 規則(EU)2024/1689、第16条(提供者の義務)、第26条(導入者の義務)、第25条(AIバリューチェーン上のその他の当事者)。
[6] 規則(EU)2024/1689、第V章、第51条〜第56条(GPAIモデルに関する義務)。
[7] GPAI行動規範、欧州委員会およびAI理事会により承認、2025年8月1日。
[8] 規則(EU)2024/1689、第99条(罰則)。
組織がAIを採用し、管理し、監視する能力を、企業レベルの信頼性で強化します。規模で運営する規制対象の組織向けに構築されています。

