EU AI法のリスク分類に関するデシジョンツリーガイド ― 4つのリスク層、附属書IIIのカテゴリー、境界事例、そして分類プロセス。
•
•
32 最小読了時間
トピック
欧州連合内に展開される、または欧州連合に影響を及ぼすすべてのAIシステムは、現在、4段階のリスクスペクトラムのいずれかに位置づけられます。その位置づけは理論上の演習ではありません。組織が規制上の負担を一切負わないのか、限定的な透明性義務のみを負うのか、数十万ユーロ規模の包括的な適合性制度の対象となるのか、あるいは全面的に禁止されるのかを左右します。分類をいずれの方向にも誤ると、実質的な結果を招きます。過大に分類すれば、不要だったはずのコンプライアンス基盤に資源が吸い込まれ、過小に分類すれば、組織は執行措置、最大3,500万ユーロまたは全世界売上高の7%に達する罰金、そして短期的な是正計画では容易に取り戻せない評判上の損害に直面します [1]。
EU AI法のリスク分類フレームワークは、表面的には明快です。実務上は、各階層の境界は立法文言が示すほど明確ではありません。ある区分にすっきり収まっているように見えるシステムでも、精査すると二つの区分にまたがることがあります。本ガイドは、その複雑性を通過するための体系的な道筋を示します。
4つのリスク区分
AI法は4つのリスク区分を定めており、各区分には固有の義務が伴います。各区分が何を要求するのかを理解することは、正確な分類の前提条件です。
許容不能リスク(禁止)
AI法第5条は、安全、生活基盤、権利に対してあまりにも根本的な脅威となるため、全面的に禁止されるAIの実践を定義しています。これには、公的機関が自ら、またはその委託により運用するソーシャルスコアリングシステム、法執行目的のために一般にアクセス可能な空間で行われるリアルタイム遠隔生体認証識別(狭い例外を除く)、年齢、障害、または社会状況に基づく特定の集団の脆弱性を悪用するAIシステム、ならびに、人の意識を超えた潜在的手法を用いて、害をもたらす形で行動を実質的に歪めるシステムが含まれます [2]。
禁止対象システムにコンプライアンスの道筋はありません。法的に許容される対応は、展開を停止することのみです。
高リスク
高リスクシステムは、規制上の中核を成します。これらは最も詳細な義務の対象となります。すなわち、リスク管理システム、データガバナンス要件、技術文書、記録保持、透明性に関する規定、人的監督の仕組み、ならびに正確性、堅牢性、サイバーセキュリティに関する要件です [3]。高リスク分類に至るルートは2つあり、以下で詳しく解説します。
この区分こそが、エンタープライズのコンプライアンス対応の大半が集中する領域であり、分類の誤りが最も大きなコストを生みます。
限定リスク
限定リスクに分類されるシステムには、透明性義務のみが課されます。主たる要件は開示です。つまり、ユーザーはAIシステムとやり取りしていることを知らされなければなりません。この区分には、チャットボット、禁止カテゴリに該当しない感情認識システム、ディープフェイク生成器、ならびにテキスト、音声、画像コンテンツを生成または改変するAIシステムが含まれます [4]。
限定リスクは、完全な適合性対応を課すことなく、欺瞞を管理するためのAI法上の仕組みです。
最小リスク
AIシステムの大多数はここに該当します。スパムフィルター、AI対応のビデオゲーム、在庫管理アルゴリズムなどは、AI法上の特定義務を負いませんが、任意の行動規範が推奨されます [5]。
最小リスクはデフォルトです。システムは、高い区分のいずれかに定められた基準を満たした場合にのみ、上位へ移行します。
判定ツリー:段階的な分類
EU AI法のリスク分類には、順次的な分析が必要です。以下の判定ツリーは、第5条、第6条、第7条の論理をそのまま反映しており、Enzaiの分類ワークフローが、数十から数百のシステムを扱うエンタープライズチーム向けに自動化している、反復可能なプロセスと同じものです。
ステップ1: システムは第5条の禁止事項に該当しますか。
システムの目的と仕組みを、各禁止行為と照合してください。法執行目的で公共空間におけるリアルタイム生体認証識別を実行する、害をもたらす潜在的技術で人を操作する、特定の脆弱性を悪用する、または公的機関によるソーシャルスコアリングを可能にする場合、そのシステムは禁止対象です。
はいの場合: システムは許容不能リスクです。ここで終了します。
いいえの場合: ステップ2へ進みます。
ステップ2: システムは、附属書Iに列挙されたEU整合法令の対象製品の安全コンポーネントですか、またはシステム自体がそのような製品ですか。
附属書Iには、機械、玩具、医療機器、民間航空、自動車、鉄道システムなどを対象とする既存のEU製品安全指令および規則が列挙されています [6]。AIシステムがこれらの規制対象製品のいずれかの安全コンポーネントとして機能する場合、またはシステム自体が規制対象製品である場合、第6条(1)に基づく高リスクに該当します。重要な点として、これらのシステムには、関連する部門別法令に基づく第三者適合性評価も必要です。
はいの場合: システムは第6条(1)に基づく高リスクです。分類後の義務へ進みます。
いいえの場合: ステップ3へ進みます。
ステップ3: システムは附属書IIIに列挙されたユースケース区分のいずれかに該当しますか。
附属書IIIは、高リスク適用の8つの領域を列挙しています。システムの意図された目的がこれらの区分のいずれかに対応する場合、第6条(2)に基づき暫定的に高リスクです。附属書IIIの区分は広範かつ事実依存であるため、ここでは最も高い精度が求められます。
はいの場合: ステップ4へ進みます。
いいえの場合: ステップ5へ進みます。
ステップ4: 第6条(3)の例外は適用されますか。
第6条(3)は、最終文言において重要な限定を導入しました。システムが附属書IIIに該当する場合でも、健康、安全、または基本的人権に対して重大なリスクを及ぼさないならば、高リスクとはみなされません。具体的には、狭い手続的作業を実行する、既に完了した人間の活動の結果を改善する、人的評価を代替または影響することなく意思決定パターンを検出する、または附属書IIIのユースケースに関連する評価に向けた準備作業を行うシステムは、適用除外となります [7]。
提供者は、例外が適用される理由を文書化し、システムを市場に出す前に関連する国内当局へ通知しなければなりません。当局が同意しない場合、システムは高リスクの地位に戻ります。
第6条(3)が適用される場合: システムは高リスクではありませんが、文書化および通知義務は残ります。透明性基準に基づき、限定リスクまたは最小リスクとして分類してください。
第6条(3)が適用されない場合: システムは第6条(2)に基づく高リスクです。分類後の義務へ進みます。
ステップ5: システムは透明性開示を必要としますか。
システムが自然人と直接やり取りする(チャットボット)、画像、音声、または動画コンテンツを生成もしくは改変する(ディープフェイク、生成AI)、あるいは禁止対象外の文脈で感情認識または生体分類を行う場合、限定リスクの透明性義務の対象となります [4]。
はいの場合: システムは限定リスクです。
いいえの場合: システムは最小リスクです。特定の義務は適用されません。
分類の信頼性は、各分岐で適用される厳密さに等しく依存します。複数のシステムを扱うチーム向けに、以下のワークシートを各AIシステムごとに複製してご利用ください。
ステップ | 質問 | 回答 | 判定区分 | 担当者 |
|---|---|---|---|---|
1 | システムは第5条の禁止事項に該当しますか。 | はい / いいえ | はいの場合: 禁止 | |
2 | 附属書I製品の安全コンポーネントですか。 | はい / いいえ | はいの場合: 高リスク(第6条(1)) | |
3 | 附属書IIIのユースケース区分に該当しますか。 | はい / いいえ / 区分: ___ | はいの場合: 暫定的に高リスク | |
4 | 第6条(3)の例外は適用されますか。 | はい / いいえ / 理由: ___ | はいの場合: 高リスクではない | |
5 | 透明性開示が必要ですか。 | はい / いいえ | はいの場合: 限定リスク | |
最終 | 分類結果 | ___ | ___ |
附属書IIIの区分: 具体的なエンタープライズ事例
附属書IIIは、多くのエンタープライズAIシステムにとって高リスク分類への入口です。立法文言は広範な表現を用いているため、8つの各領域を具体例とともに検討することが有益です。
1. 生体認証識別および分類
これは、遠隔生体認証識別システム(法執行のためのリアルタイムは除き、こちらは禁止)および、生体データに基づいて自然人をカテゴリに割り当てる生体分類システムを対象とします。エンタープライズの例としては、自動搭乗確認のために顔認識を導入する空港や、買い物客の属性を推定するために生体分類を用いる小売業者が挙げられます。
2. 重要インフラの管理および運用
道路交通、水道、ガス、暖房、電力供給、ならびにデジタルインフラの管理および運用において安全コンポーネントとして用いられるAIシステムです。例えば、電力網の負荷平準化を管理するAIシステム、水処理施設向けの予知保全アルゴリズム、または自治体が導入する信号最適化システムが含まれます。
3. 教育および職業訓練
教育機関への入学可否や配属を決定するシステム、または学習成果を評価するシステムです。AIを活用した入学審査スコアリングツール、自動小論文採点システム、あるいは学生を学術トラックに振り分けるプラットフォームはいずれも該当します。
4. 雇用、労働者管理、および自営業へのアクセス
採用、選考、雇用判断、タスク割当、パフォーマンス監視、または解雇判断に用いられるAIシステムです。これは、企業環境で最も頻繁に発動する区分の一つです。候補者を順位付けまたはフィルタリングするAI搭載の履歴書スクリーニングツール、予測生産性に基づいてシフトを割り当てる人員スケジューリングアルゴリズム、または解雇候補となる従業員を識別する評価システムがすべて該当範囲に入ります。
5. 必須の民間および公的サービスへのアクセスと享受
これには、公的給付の受給資格評価、信用スコアリング、生命保険および医療保険におけるリスク評価、ならびに緊急サービス配車の優先順位付けに用いられるAIシステムが含まれます。銀行が融資適格性の判定に用いる信用スコアリングアルゴリズム、社会住宅の申請を選別するAIシステム、または個人のリスクプロファイルに基づいて保険料を設定する引受モデルはいずれも、この区分において高リスクです。
6. 法執行
法執行機関が、個別リスク評価、ポリグラフ分析、証拠の信頼性評価、自然人に関する犯罪予測、ならびに刑事捜査におけるプロファイリングに用いるAIシステムです。犯罪を起こす可能性が高い人物を特定する予測的警備ツールや、目撃証言の信頼性を評価するAIシステムがこれに該当します。
7. 移民、庇護、国境管理
EUへ入国する人物がもたらす安全リスクの評価、庇護申請の審査支援、または移民の文脈における人物の検出、認識、識別に用いられるシステムです。国境管理で旅行者を追加検査対象としてフラグ付けするリスクスコアリングツールや、庇護申請者の主張の整合性を分析するAIシステムが該当します。
8. 司法および民主的プロセスの運営
司法当局による事実および法の調査・解釈を支援することを意図したAIシステム、または選挙結果に影響を与えるために用いられるシステムです。裁判官に事件の結論を推奨する法務リサーチツールや、有権者プロファイリングに基づいて政治広告をマイクロターゲティングするシステムがこの区分に含まれます。
分類を決定するのは、基盤技術ではなく意図された目的の具体性です。
エッジケースとグレーゾーン
AI法のリスク区分の境界は、EnzaiのようなAIガバナンス基盤を利用する組織が一貫して直面する、いくつかの反復的なシナリオで最も鋭く試されます。
感情検出: 文脈がすべてを左右する
職場および教育現場における感情認識は、特定の禁止事項または高リスク分類を引き起こします。しかし、カスタマーサポートの文脈で導入され、たとえば通話者の感情を分析してサポートチケットを振り分けるAIツールは、職場禁止には該当しません。それでも、透明性規定の下で限定リスクに該当し、通話者への開示が必要となる場合があります。決定要因は技術そのものではなく、導入の文脈と当事者間の力の非対称性です [8]。
AIによる推奨とAIによる意思決定
人間のレビューのために判断を推奨するシステムは、その判断を自律的に実行するシステムとは異なる位置づけにあります。求職者を順位付けし、候補者の短いリストを人事担当者に提示するAIツールは、附属書III(雇用区分)に基づき高リスクのままである可能性がありますが、人的監督の性質は適用される個別義務に影響します。逆に、実質的な人的関与なしに自動的に融資申請を却下するシステムは、高リスク要件の全面的な適用を受けます。重要な問いは、人間が現実的かつ継続的にAI出力を覆せるのか、それともシステムの推奨が事実上の意思決定として機能しているのか、という点です [9]。
第6条(3)による自己判断の道筋
第6条(3)は高リスク分類からの出口を提供しますが、多くの組織が当初想定するほど広くはありません。応募書類を標準化されたレイアウトに再整形するだけの履歴書スクリーニングツールであれば、準備的作業を行うものとして例外に該当する可能性があります。しかし、同じツールが候補者を順位付けするよう構成されている場合は該当しません。組織は、自社システムの機能を最も有利な形で描写したくなる誘惑に抗わなければなりません。国内当局は再分類する権限を保持しており、文書化の負担は提供者にあります。Enzaiの分類ワークフローは、組織が立場を確定する前に、第6条(3)の主張を規則の基準に照らして厳格に検証するよう設計されています。
高リスクシステムにおける汎用AIモデル
汎用AIモデルが高リスクシステムに組み込まれる場合、義務は、モデル提供者だけでなく、特定の高リスクユースケース向けにシステムを構成する導入者にも帰属します。基盤モデルを信用スコアリング向けにファインチューニングする組織は、基礎となるモデルが第三者によって開発されたものであっても、高リスク義務を引き継ぎます [10]。
システムがリスクスペクトラムのどこに位置するかは、見た目ほど明白であることは稀です。
分類プロセス: ガバナンスと文書化
EU AI法のリスク分類は、単一部門だけで完結する作業ではありません。複数の専門分野からの体系的なインプットと、規制上の精査に耐えうる文書化の軌跡が必要です。
誰を関与させるべきか
少なくとも、分類プロセスには、規制に関する専門知識を持つ法務担当、システムの設計と意図された目的を担う技術チーム、導入の運用文脈を理解するドメイン専門家、リスクまたはコンプライアンス担当者、そしてシステムが従業員に影響を及ぼす場合は、従業員代表または人事部門の責任者を含めるべきです。
よくある失敗は、分類を法務に全面委任するか、あるいはエンジニアリングに全面委任することです。法務チームは、システムが本当に自律的な判断を行うのかを評価するための技術的理解を欠く場合があり、エンジニアリングチームは、システムの運用文脈が持つ規制上の重要性を過小評価することがあります。
文書化の方法
分類の根拠は、国内監督当局に提示できる形式で記録しなければなりません。文書には、システムの意図された目的の明確な説明、検討した具体的な条項および附属書、割り当てた区分の理由、第6条(3)が適用される場合の分析、評価に関与した個人および役割の特定、ならびに分類日と今後の見直しトリガーを含めるべきです。
意見の相違への対応
社内の利害関係者の間で分類について意見が一致しない場合、さらなる分析が完了するまで保守的な立場を優先すべきです。システムを暫定的に高リスクと分類し、その後で格下げする組織は、低く分類して後に不適合と判明する組織よりも、はるかに低いリスクしか負いません。意見の相違は文書化しておくべきです。それはプロセスの厳密性を示し、規制当局からの照会があった場合に組織を守るためです。
分類は、単なる事務手続きではなく、ガバナンス上の行為です。
分類後に起こること
システムに割り当てられたリスク区分が、その後に続くコンプライアンス義務を決定します。区分間の差は大きいです。
禁止対象システム
義務は絶対です。EU市場において、開発、展開、提供を行ってはなりません。既存システムは廃止しなければなりません。禁止行為に移行期間はありません [2]。
高リスクシステム
提供者は、システムのライフサイクル全体にわたって機能するリスク管理システムを実装しなければなりません。データガバナンスの実務では、学習、検証、テスト用データセットが関連性を備え、代表性があり、誤りを含まないことを確保する必要があります。包括的な技術文書は、システムを市場に出す前に作成しなければなりません。システムは、イベントの自動ログ記録を可能にするよう設計されていなければなりません。透明性要件は、導入者向けの明確な指示を求めます。人的監督の措置は、自然人がシステムを理解し、監視し、上書きできるようにしなければなりません。正確性、堅牢性、サイバーセキュリティに関する要件は、満たされ、維持されなければなりません [3]。
高リスクシステムの導入者も、独自の義務を負います。すなわち、基本的人権影響評価の実施、人的監督が運用上有効であることの確保、提供者の指示に従ったシステム監視、ならびに重大インシデントの報告です。
限定リスクシステム
主たる義務は透明性です。ユーザーはAIとやり取りしていることを知らされなければなりません。AIによって生成または改変されたコンテンツは、その旨を表示しなければなりません。感情認識システムは、影響を受ける者に対してその運用を開示しなければなりません [4]。
最小リスクシステム
拘束力のある義務は適用されません。組織には、とりわけ環境持続可能性やAIリテラシーを扱う任意の行動規範の採用が推奨されます [5]。
各区分における義務は、単なる理想ではありません。不遵守に対する定められた罰則を伴う、執行可能な要件です。
分類からコンプライアンスへ
システムのリスク区分を決定することは、より長いコンプライアンスプログラムの最初の行為ですが、他のすべてがそれに依存する中核的な行為でもあります。不正確な分類は、文書化に割り当てる資源から選択する適合性評価の経路に至るまで、その後のすべての判断に波及します。
複数の法域と事業部門にまたがるAIシステムのポートフォリオを管理する組織にとって、この課題は大規模です。分類判断の追跡、システムの区分を変更し得る規制更新の監視、ならびに各判断の背後にある理由を監査可能な形で記録し続けるには、目的特化型の基盤が必要です。
AI資産全体にわたってEU AI法のリスク分類を運用化したい組織に対し、Enzaiは、進化する規制要件に照らしてAIシステムを分類、文書化、監視するためのガバナンス基盤を提供します。デモを依頼することで、体系化された分類ワークフローが、コンプライアンスリスクと無駄な労力の双方をどのように削減するかをご確認ください。
Enzaiは、組織が抽象的な方針から運用上の監督へ移行するのを支援するために設計された、業界をリードするエンタープライズAIガバナンスプラットフォームです。当社のAIリスク管理プラットフォームは、エージェント型AIガバナンスを管理し、包括的なAIインベントリを維持し、EU AI法コンプライアンスを確保するために必要な専門基盤を提供します。複雑なワークフローを自動化することで、Enzaiは、 ISO 42001 やNISTのようなグローバル基準との整合を維持しながら、企業が自信を持ってAI導入を拡大できるよう支援します。
参考文献
[1] 規則(EU)2024/1689、第99条 - 罰金。
[2] 規則(EU)2024/1689、第5条 - 禁止された人工知能の実践。
[3] 規則(EU)2024/1689、第8条〜第15条 - 高リスクAIシステムの要件。
[4] 規則(EU)2024/1689、第50条 - 限定リスクAIシステムに対する透明性義務。
[5] 規則(EU)2024/1689、第95条 - 非高リスクAIシステム提供者による任意の取組のための行動規範。
[6] 規則(EU)2024/1689、附属書I - EU整合法令。
[7] 規則(EU)2024/1689、第6条(3) - 高リスクAIシステムの分類ルール。
[8] 規則(EU)2024/1689、前文44〜46 - 感情認識禁止の適用範囲。
[9] 規則(EU)2024/1689、第14条 - 人的監督。
[10] 規則(EU)2024/1689、第51条〜第56条 - 汎用AIモデル提供者の義務。
組織がAIを採用し、管理し、監視する能力を、企業レベルの信頼性で強化します。規模で運営する規制対象の組織向けに構築されています。

