EnzaiのAIガバナンス製品のフルスイートを探求し、企業がAIを自信を持って管理、監視、拡張するのを支援します。構造化されたインテークや中央集約されたAIインベントリから、自動評価やリアルタイムの監督まで、Enzaiは日常のAIワークフローにガバナンスを直接組み込むための基盤を提供します—イノベーションを遅らせることなく。

Enzai

AI 規制

EU AI法におけるリスク分類:自社のAIシステムのリスク階層を判定する方法

AI 規制

EU AI法におけるリスク分類:自社のAIシステムのリスク階層を判定する方法

AI 規制

EU AI法におけるリスク分類:自社のAIシステムのリスク階層を判定する方法

EU AI法のリスク分類に関するデシジョンツリーガイド ― 4つのリスク層、附属書IIIのカテゴリー、境界事例、そして分類プロセス。

ベルファスト

ベルファスト

30 最小読了時間

By

By

Ryan Donnelly

Ryan Donnelly

トピック

AIガバナンス、EU AI法、リスク分類、コンプライアンス

トピック

欧州連合(EU)域内で導入される、またはEUに影響を及ぼすすべてのAIシステムは、現在、4段階のリスク区分のいずれかに位置づけられます。この位置づけは、理論上の検討ではありません。組織に対して、規制上の負担が一切生じないのか、限定的な透明性義務のみが課されるのか、数十万ユーロ規模の包括的な適合性制度への対応が必要となるのか、あるいは全面禁止となるのかを左右します。いずれの方向であっても分類を誤ることは重大な結果を招きます。過大分類すれば、本来不要であったコンプライアンス基盤にリソースが流出し、過小分類すれば、組織は執行措置、最大3,500万ユーロまたは全世界売上高の7%の罰金、さらに迅速な是正計画では回復しがたい評判毀損に直面します [1]。

EU AI法のリスク分類フレームワークは、表面的には明快です。しかし実務では、各階層の境界は法文が示唆するほど明瞭ではありません。ひとつの区分に整然と収まるように見えるシステムが、精査すると2つの区分にまたがることもあります。本ガイドは、この複雑性を体系的に解きほぐすための道筋を提示します。

4つのリスク階層

AI法は4段階のリスクを定めており、それぞれに異なる義務が伴います。各階層で何が求められるかを理解することが、正確な分類の前提です。

許容不能リスク(禁止)

AI法第5条は、安全、生計、権利に対して根本的な脅威をもたらすとみなされるAI実務を特定し、全面的に禁止しています。これには、公的機関が実施する、またはその代理で実施されるソーシャルスコアリング、法執行目的で公共空間において行われるリアルタイム遠隔生体識別(限定的な例外あり)、年齢・障害・社会的状況に基づく特定集団の脆弱性を悪用するAIシステム、ならびに本人の意識の及ばない閾下技術を用いて行動を実質的に歪め、危害を生じさせるシステムが含まれます [2]。

禁止対象システムに適合の道筋は存在しません。唯一適法な対応は、導入を中止することです。

高リスク

高リスクシステムは規制の中心領域を構成します。最も詳細な義務が課され、具体的には、リスク管理体制、データガバナンス要件、技術文書、記録保持、透明性規定、人による監督メカニズム、正確性・堅牢性・サイバーセキュリティ要件が含まれます [3]。高リスク分類に至る経路は2つあり、以下で詳述します。

この階層は、企業のコンプライアンス対応が最も集中する領域であり、分類誤りのコストも最大化しやすい領域です。

限定的リスク

限定的リスクに分類されるシステムには、透明性義務のみが課されます。中心的要件は開示です。ユーザーに対し、AIシステムと対話していることを通知しなければなりません。この階層には、チャットボット、禁止区分に該当しない感情認識システム、ディープフェイク生成器、ならびにテキスト・音声・画像コンテンツを生成または操作するAIシステムが含まれます [4]。

限定的リスクは、完全な適合性制度を課すことなく欺瞞を管理するための、同法の仕組みです。

最小リスク

AIシステムの大多数はここに該当します。スパムフィルター、AI搭載ビデオゲーム、在庫管理アルゴリズムなどは、同法上の特定義務を負いません(ただし自主的行動規範の採用は推奨されます)[5]。

最小リスクはデフォルトです。上位階層への移行は、より高い階層の定義要件を満たす場合に限られます。

意思決定ツリー:段階的な分類手順

EU AI法におけるリスク分類は、順次的な分析を要します。以下の意思決定ツリーは第5条・第6条・第7条の論理を反映しており、Enzaiの分類ワークフローが、数十〜数百のシステムを扱う企業チーム向けに自動化している再現可能なプロセスと同一です。

ステップ1:当該システムは第5条の禁止対象に該当するか?

システムの目的と仕組みを、各禁止実務と照合して確認します。法執行のために公共空間でリアルタイム生体識別を行う、閾下技術で人を操作して危害を生じさせる、特定の脆弱性を悪用する、または公的機関によるソーシャルスコアリングを可能にする場合、禁止対象です。

該当する場合:当該システムは許容不能リスクです。ここで終了します。

該当しない場合:ステップ2へ進みます。

ステップ2:当該システムは、附属書Iに列挙されたEU整合法令の対象製品の安全構成要素か、またはシステム自体が当該製品か?

附属書Iには、機械、玩具、医療機器、民間航空、自動車、鉄道システム等を対象とする既存のEU製品安全指令・規則が列挙されています [6]。AIシステムがこれら規制製品の安全構成要素として機能する場合、またはシステム自体が規制製品である場合、第6条(1)に基づく高リスクに該当します。重要なのは、これらのシステムには関連する分野別法令に基づく第三者適合性評価も必要になる点です。

該当する場合:当該システムは第6条(1)経由の高リスクです。分類後義務へ進みます。

該当しない場合:ステップ3へ進みます。

ステップ3:当該システムは附属書IIIに列挙されたユースケース区分のいずれかに該当するか?

附属書IIIは高リスク適用分野を8領域列挙しています。システムの意図された目的がこれらの区分に対応する場合、第6条(2)に基づき暫定的に高リスクとなります。附属書IIIの区分は広範で事実依存性が高いため、ここで最も精緻な分析が求められます。

該当する場合:ステップ4へ進みます。

該当しない場合:ステップ5へ進みます。

ステップ4:第6条(3)の例外は適用されるか?

第6条(3)は最終条文で重要な限定を導入しました。附属書IIIに該当しても、健康・安全・基本的権利に対する重大な危害リスクを生じさせない場合、高リスクとはみなされません。具体的には、限定的な手続タスクを実行する、既に完了した人間活動の結果を改善する、人間の評価を置換・影響せずに意思決定パターンを検知する、または附属書IIIユースケースに関連する評価の準備タスクを実行する場合、適用除外となります [7]。

提供者は、例外適用の理由を文書化し、市場投入前に所管の国内当局へ通知する必要があります。当局が不同意の場合、当該システムは高リスクに戻ります。

第6条(3)が適用される場合:当該システムは高リスクではありません。ただし文書化・通知義務は残ります。透明性基準に基づき、限定的リスクまたは最小リスクとして分類します。

第6条(3)が適用されない場合:当該システムは第6条(2)経由の高リスクです。分類後義務へ進みます。

ステップ5:当該システムは透明性開示を要するか?

システムが自然人と直接対話する(チャットボット)、画像・音声・動画コンテンツを生成または操作する(ディープフェイク、生成AI)、または禁止文脈外で感情認識や生体カテゴリ化を行う場合、限定的リスクの透明性義務に該当します [4]。

該当する場合:当該システムは限定的リスクです。

該当しない場合:当該システムは最小リスクです。特定義務はありません。

分類の信頼性は、各ノードで適用される厳密性に依存します。複数システムを扱うチーム向けに、以下のワークシートを複製し、在庫内の各AIシステムについて記入できます。


ステップ

質問

回答

判定される階層

担当者

1

当該システムは第5条の禁止対象に該当するか?

はい / いいえ

はいの場合:禁止


2

附属書I製品の安全構成要素か?

はい / いいえ

はいの場合:高リスク(第6条(1))


3

附属書IIIのユースケース区分に該当するか?

はい / いいえ / 区分:___

はいの場合:暫定的高リスク


4

第6条(3)の例外は適用されるか?

はい / いいえ / 根拠:___

はいの場合:高リスクではない


5

透明性開示が必要か?

はい / いいえ

はいの場合:限定的リスク


最終

分類結果

___

___


附属書IIIの区分:企業向け具体例

附属書IIIは、多くの企業AIシステムにとって高リスク分類への入口です。条文は広い表現を用いているため、8領域それぞれを具体例とともに検討することが有益です。

1. 生体識別およびカテゴリ化

これには、遠隔生体識別システム(法執行目的のリアルタイムは禁止)および、生体データに基づいて自然人をカテゴリに割り当てる生体カテゴリ化システムが含まれます。企業例として、空港が自動搭乗確認に顔認証を導入するケースや、小売業者が買い物客の属性推定に生体カテゴリ化を用いるケースが挙げられます。

2. 重要インフラの管理・運用

道路交通、水道、ガス、暖房、電力供給、ならびにデジタルインフラの管理・運用において安全構成要素として用いられるAIシステムが対象です。例として、電力網の負荷平準化を管理するAIシステム、水処理施設向けの予知保全アルゴリズム、自治体が導入する信号最適化システムがあります。

3. 教育および職業訓練

教育機関へのアクセスまたは配属を決定するシステム、あるいは学習成果を評価するシステムが該当します。AI活用の入学選考スコアリング、エッセイ自動採点、学生を学習トラックへ配置するプラットフォームはいずれも該当します。

4. 雇用、労務管理、自営業へのアクセス

採用、選考、雇用判断、業務配分、パフォーマンス監視、解雇判断に用いられるAIシステムが対象です。これは企業文脈で最も頻繁に該当する区分のひとつです。候補者を順位付け・絞り込みするAI履歴書スクリーニング、予測生産性に基づくシフト配分アルゴリズム、解雇候補を示す評価システムはいずれも範囲内です。

5. 重要な民間・公共サービスへのアクセスと享受

公的給付の受給適格性評価、信用スコアリング、生命・医療保険におけるリスク評価、緊急サービスの出動優先順位付けに用いられるAIシステムを含みます。融資適格性を判断する銀行の信用スコアリング、社会住宅申請をトリアージするAI、個別リスクプロファイルに基づき保険料を設定する引受モデルはすべてこの区分で高リスクです。

6. 法執行

法執行機関による個人リスク評価、ポリグラフ分析、証拠の信頼性評価、自然人に関する犯罪予測、刑事捜査におけるプロファイリングに用いられるAIシステムが対象です。犯罪を行う可能性が高い人物を特定する予測警察ツールや、証言の信頼性を評価するAIシステムが含まれます。

7. 移民、庇護、国境管理

EU入域者がもたらす安全保障リスクの評価、庇護申請審査の支援、移民文脈における人物の検出・認識・識別に用いられるシステムが対象です。国境管理で追加審査対象を抽出するリスクスコアリングや、庇護申請内容の整合性を分析するAIシステムが該当します。

8. 司法運営および民主的プロセス

司法当局による事実・法解釈の調査支援を目的とするAIシステム、または選挙結果に影響を与えるために用いられるシステムが該当します。裁判官に判決見通しを推奨するリーガルリサーチツールや、有権者プロファイリングに基づく政治広告のマイクロターゲティングシステムが含まれます。

分類を決定するのは基盤技術ではなく、意図された目的の具体性です。

境界事例とグレーゾーン

AI法のリスク階層の境界は、EnzaiのようなAIガバナンス基盤を活用する組織が継続的に直面する、いくつかの反復的シナリオで最も鋭く試されます。

感情検知:文脈がすべてを決定する

職場および教育現場での感情認識は、特定の禁止または高リスク分類を引き起こします。しかし、コールセンターの感情分析によるチケット振り分けのような顧客サービス文脈での感情検知は、職場禁止には該当しません。それでも透明性規定により限定的リスクとなり、通話者への開示が必要になる場合があります。決定要因は技術そのものではなく、導入文脈と当事者間の力の非対称性です [8]。

AIの推奨とAIの決定

人によるレビュー向けに決定を推奨するシステムは、自律的に決定を実行するシステムとは位置づけが異なります。求人候補を順位付けして人間の採用担当者に提示するAIツールは、附属書III(雇用区分)で高リスクに該当し得ますが、人による監督の実態が適用義務の具体像に影響します。対照的に、実質的な人間介入なしにローン申請を自動却下するシステムには、高リスク要件が全面的に及びます。重要なのは、人間が現実的かつ日常的にAI出力を上書きできるのか、それとも推奨が事実上の決定として機能しているのかという点です [9]。

第6条(3)による自己判定の経路

第6条(3)は高リスク分類を回避する経路を提供しますが、多くの組織が当初想定するより狭いものです。応募書類を標準レイアウトに整形するだけの履歴書スクリーニングツールは、準備タスクとして例外に該当し得ます。一方で候補者を順位付けする設定では該当しません。組織は自社システムの機能を最も有利に描写したくなる誘惑を抑える必要があります。国内当局には再分類権限があり、文書化責任は提供者にあります。Enzaiの分類ワークフローは、組織が立場を確定する前に、第6条(3)の主張を規則上の基準に照らして厳格に検証するよう設計されています。

高リスクシステムに組み込まれる汎用AIモデル

汎用AIモデルが高リスクシステムに統合される場合、義務はモデル提供者のみに帰属するのではなく、特定の高リスク用途向けにシステムを設定する導入者にも及びます。第三者が開発した基盤モデルであっても、信用スコアリング向けに微調整する組織は高リスク義務を引き継ぎます [10]。

システムがリスクスペクトラムのどこに位置するかは、初見ほど明白でないことがほとんどです。

分類プロセス:ガバナンスと文書化

EU AI法におけるリスク分類は、単一部門で完結する業務ではありません。複数分野からの構造化された入力と、規制当局の審査に耐える文書証跡が必要です。

誰を関与させるべきか

少なくとも、規制専門性を有する法務顧問、システム設計と意図された目的に責任を負う技術チーム、導入の運用文脈を理解するドメイン専門家、リスクまたはコンプライアンス担当者、さらにシステムが従業員に影響する場合は労働者代表または人事責任者を関与させるべきです。

典型的な失敗は、分類を法務のみに、またはエンジニアリングのみに委ねることです。法務チームはシステムが真に自律的判断をしているかを見極める技術理解を欠く場合があり、エンジニアリングチームは運用文脈の規制的重要性を過小評価しがちです。

文書化の方法

分類の根拠は、国内監督当局に提示可能な形式で記録しなければなりません。文書には、システムの意図された目的の明確な記述、検討した条文・附属書、付与した階層の判断理由、該当時の第6条(3)分析、評価に関与した個人と役割の特定、分類日および予定レビュー・トリガーを含めるべきです。

意見不一致の扱い

社内関係者間で分類に不一致がある場合、追加分析が完了するまで保守的な立場を採用すべきです。暫定的に高リスクとして分類し後に引き下げる組織の方が、低く分類して後に不適合と判断される組織より、リスクははるかに小さくなります。不一致は文書に記録すべきであり、プロセスの厳密性を示し、規制照会時に組織を保護します。

分類は事務的形式ではなく、ガバナンス行為です。

分類後に何が起こるか

システムに付与されたリスク階層は、その後のコンプライアンス義務を決定します。階層間の差は大きいものです。

禁止システム

義務は絶対的です。EU市場向けに開発・導入・提供してはなりません。既存システムは廃止する必要があります。禁止実務には移行期間がありません [2]。

高リスクシステム

提供者は、システムのライフサイクル全体で機能するリスク管理体制を実装しなければなりません。データガバナンス実務は、学習・検証・試験データセットが関連性・代表性を有し、誤りがないことを確保する必要があります。市場投入前に包括的な技術文書を整備しなければなりません。システムは事象の自動ログ記録を可能にする設計である必要があります。透明性要件は導入者向けの明確な指示を求めます。人による監督措置は、自然人がシステムを理解・監視・上書きできるようにしなければなりません。正確性・堅牢性・サイバーセキュリティ要件は満たされ、維持される必要があります [3]。

高リスクシステムの導入者にも独自の義務があります。基本的権利影響評価の実施、人による監督の運用上の実効性確保、提供者指示に従ったシステム監視、重大インシデントの報告です。

限定的リスクシステム

主要義務は透明性です。ユーザーにはAIと対話していることを通知しなければなりません。AIが生成または操作したコンテンツにはその旨を表示する必要があります。感情認識システムは、影響を受ける人に対して稼働を開示しなければなりません [4]。

最小リスクシステム

拘束力のある義務はありません。組織には、環境持続可能性やAIリテラシーを含む論点に対応する自主的行動規範の採用が推奨されます [5]。

各階層の義務は理想目標ではありません。違反時の罰則が明確に定められた執行可能な要件です。

分類からコンプライアンス運用へ

システムのリスク階層の確定は、より長期的なコンプライアンス・プログラムの第一歩です。しかし、あらゆる後続対応を規定する最重要の行為でもあります。不正確な分類は、文書化に配分するリソースから選択する適合性評価経路に至るまで、後続の意思決定全体に連鎖的影響を及ぼします。

複数法域・複数事業部にまたがるAIシステムのポートフォリオを管理する組織は、この課題を大規模に抱えます。分類判断の追跡、システム階層を変え得る規制更新の監視、各判定の根拠に関する監査可能な記録の維持には、目的に特化した基盤が必要です。

AIインベントリ全体でEU AI法リスク分類を運用化したい組織に対して、Enzaiは、進化する規制要件に照らしてAIシステムを分類・文書化・監視するためのガバナンスフレームワークを提供します。デモをリクエストして、構造化された分類ワークフローがコンプライアンスリスクと無駄な工数をいかに同時に削減するかをご確認ください。

参考文献

[1] 規則 (EU) 2024/1689、第99条 - 罰金。

[2] 規則 (EU) 2024/1689、第5条 - 禁止される人工知能実務。

[3] 規則 (EU) 2024/1689、第8条〜第15条 - 高リスクAIシステムの要件。

[4] 規則 (EU) 2024/1689、第50条 - 限定的リスクAIシステムの透明性義務。

[5] 規則 (EU) 2024/1689、第95条 - 非高リスクAIシステム提供者による自主的コミットメントの行動規範。

[6] 規則 (EU) 2024/1689、附属書I - EU整合法令。

[7] 規則 (EU) 2024/1689、第6条(3) - 高リスクAIシステムの分類規則。

[8] 規則 (EU) 2024/1689、前文44〜46 - 感情認識禁止の適用範囲。

[9] 規則 (EU) 2024/1689、第14条 - 人による監督。

[10] 規則 (EU) 2024/1689、第51条〜第56条 - 汎用AIモデル提供者の義務。

さらに詳しく見る

さらに詳しく見る

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

設計に伴うコンプライアンス

設計に伴うコンプライアンス

ISO 27001

EnzaiISO 270012023NQAInstil

一般データ保護規則 (GDPR)

ISO 27001

EnzaiISO 270012023NQAInstil

一般データ保護規則 (GDPR)

AI

AI

インフラストラクチャ

インフラストラクチャ

信頼を構築するために設計されています。

信頼を構築するために設計されています。

組織がAIを採用し、管理し、監視する能力を、企業レベルの信頼性で強化します。規模で運営する規制対象の組織向けに構築されています。

既存のシステム、ポリシー、AIワークフローを、すべて1つの統合プラットフォームでシームレスに接続します。

既存のシステム、ポリシー、AIワークフローを、すべて1つの統合プラットフォームでシームレスに接続します。