EnzaiのAIガバナンス製品のフルスイートを探求し、企業がAIを自信を持って管理、監視、拡張するのを支援します。構造化されたインテークや中央集約されたAIインベントリから、自動評価やリアルタイムの監督まで、Enzaiは日常のAIワークフローにガバナンスを直接組み込むための基盤を提供します—イノベーションを遅らせることなく。

Enzai

AI 規制

EU人工知能法に関する洞察

AI 規制

EU人工知能法に関する洞察

AI 規制

EU人工知能法に関する洞察

EnzaiはEUのAI法に関する我々の見解を提供します

ベルファスト

ベルファスト

11 最小読了時間

トピック

トピック

EU AI 法

EU AI 法

集中

集中

水平法規

水平法規

トピック

AIガバナンス機能
製品イノベーション
コントロール
リスク管理

トピック

2021年4月、欧州委員会は人工知能の規制に関する待望の旗艦案を発表しました。一般に「人工知能法案」(「AI法案」)と呼ばれるこの提案は、AIシステムの水平な規制を実施する世界初の包括的な試みを示しています。AI法案は、AIおよびその特定の使用に伴う有害なリスクに取り組む一方で、この分野での責任ある革新を促進することを目的としています。この法案が成立すれば、企業が人工知能技術を開発、展開、維持、利用する方法を永久に再定義することになります。

AI法案の主な特徴

「人工知能システム」(AIシステム)の定義:

委員会は、非常に広範なAIシステムの定義を提案しており、「機械学習」、「論理および知識ベース」のシステム、「統計的アプローチ」など、幅広く定義されたAIアプローチと技術を含むソフトウェアベースの技術にまで及んでいます。

リスクに基づくアプローチ:

規制はリスクに基づくピラミッドアプローチを採用し、市場参加者の義務や要件をそれぞれのAIシステムがもたらすリスクレベルに応じて調整します。リスクの4つのカテゴリについてさらに詳しく説明します。

1. 許容できないリスク。このピラミッドの頂点にはユーザーや社会全体に許容できないリスクをもたらすと考えられるAIの使用事例があり、それらは完全に禁止されています。禁止されているシステムの一覧には、サブリミナル操作、リアルタイムの生体認証、公共機関による社会的スコアリング、または社会的に弱いグループの搾取を含むAI技術が含まれますが、それに限定されません。

2. 高リスク。許可されているものの、個人の安全やその基本的権利に悪影響を及ぼす可能性のある多数の高リスクAIシステムには厳格な要求が提案されています。このカテゴリのアプリケーションには、インフラ、教育、雇用、法執行、EUの健康安全法の適用を受ける製品の安全コンポーネントを含むシステムが含まれます。高リスクシステムに適用される具体的な規則には、以下の要件が含まれます:

• 特定のシステムについて適切なリスク評価を実施するためのリスク管理システムを確立すること;

• システムに関する包括的な技術文書を準備すること;

• 導入前の適合性評価を行うこと;

• 高品質なデータガバナンスおよびデータ管理手続きを維持すること; そして

• システムが堅牢性、サイバーセキュリティ、精度の高い基準に準拠していることを保証すること。

3. 限定的リスク。明示的に禁止されていない、または高リスクとラベル付けされないアプリケーションは、主に規制されていません。限定的リスクシステムは、ユーザーがAIツールとやり取りしていることを通知するだけの透明性ルールに従うことになります。

4. 最小限のリスク。他のカテゴリに適合しないアプリケーションには特定の要件は存在しませんが、最小限のリスクをもたらすものでも、企業は倫理に基づいたアプローチを採用することが推奨されています。実際、第69条は、「包括的」条項として、低リスクAIシステムのベンダーやユーザーにも高リスクシステムと同等の基準を比例的に遵守するよう奨励しています。

コンプライアンスの責任と違反の結果:

AIのライフサイクルにおける役割によって異なる義務が各市場参加者に適用されます。AI法は「プロバイダー」、「ユーザー」、「輸入者」、「販売者」を区別し、それぞれに異なる義務を課します。現行のEU AI法案によると、最も深刻な違反に対する罰金は年間売上の6パーセントに達する可能性があります。

現在の状況

発表以来、この法案は欧州連合の他の立法機関や利害関係者から大きな注目を集めてきました。主な未解決のポイントについては以下でさらに議論します。

「人工知能システム」の定義:

「AIシステム」の定義は、AI法における責任の割り当てにおいて重要です。概念を定義しようとする第3条第1項の広範な定義範囲は、業界の利害関係者の間で多くの論争を引き起こしています。欧州協議会チェコ議長による妥協案は、広範な定義が生じる曖昧さを解決することを目指しています。このより狭い定義は、従来型のソフトウェアシステムを規制の適用範囲から除外し、2つの追加要件を導入しています:(1) システムが機械学習技術と知識ベースのアプローチを通じて開発されたものであること、(2) ターゲットアプリケーションが「生成的システム」であり、相互作用する環境に影響を与えるものであること。

AI「プロバイダー」と「ユーザー」の責任の割り当て:

AI法は主にプロバイダー(すなわち、あるAIシステムを開発する者)にコンプライアンス義務を課しています。業界団体は、このトップダウン方式の責任分配が、AIサービスが意図しない用途で使用される場合や、誰がプロバイダーであるかを正確に把握することが困難な場合に問題を引き起こす可能性があると主張しています。

汎用AI:

アプリケーションを汎用AIシステムとして分類することは、様々な文脈で複数のタスクを実行できる能力に基づいています。今年5月、EUの政策立案者は、低リスクの使用であってもすべての汎用AIにAI法の要件を拡大する意図を発表しました。これは議論を呼び、反対者は提案の中心にあるリスクに基づくアプローチからの根本的な逸脱を表し、革新を抑圧するおそれがあると主張しています。今年9月に評議会は妥協案を提示し、汎用AIは包括的なリスク評価手続きを経ることを要求し、これにより低リスクの汎用AIシステムをAI法の厳格な要件から除外することを提案し、これは一般的に好意的に受け取られています。

必須の基礎原則:

欧州議会議員(MEP)が、すべてのAIシステム(リスクレベルに関わらず)に対する公正性、透明性、説明責任の基本原則の導入を推奨しており、最終的な決定を待っています。

基準:

立法プロセスと並行して、委員会はヨーロッパの標準化団体CENおよびCENLECに対し、AI法のコンプライアンスをベンチマークする技術基準の開発を依頼しました。これらの団体が開発する基準は任意ですが、システムがそれらを満たすことを示す組織は、AI法に対する適合性の推定を享受できます。




課題

AI法案はまだEUの複雑な立法プロセスを進行中ですが、多くの組織がすでにAI法に向けて準備を始めています。この分野が成熟するにつれて、リスク管理システムの実施や詳細な技術レビューの実施など、先見的な手段を講じることの利点が明らかになり、規制の必要性に関係なく、組織に明確な利益をもたらします。


プロセスにはまだ多くの課題があります。エコシステムにおける市場参加者の役割を理解し、リスクレベルを確立する複雑さを乗り越え、AI法に基づく関連する義務の適用性を判断しつつ、コンプライアンスを確保することは間違いなくこの分野で活動する者にとって負担となります。Enzaiプラットフォームはその点を考慮して設計されており、組織が迅速かつ効率的にこの分野をナビゲートし、将来を見据えたAI技術を構築することに専念できるよう支援します。

私たちのEU AI法ソリューションについて詳しく知りたい方は、hey@enz.aiまでご連絡ください。米国英国におけるAI規制アプローチに関する記事については、私たちのブログをご覧ください。

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

設計に伴うコンプライアンス

設計に伴うコンプライアンス

ISO 42001

AI

一般データ保護規則 (GDPR)

ISO 42001

AI

一般データ保護規則 (GDPR)

AI

AI

インフラストラクチャ

インフラストラクチャ

信頼を構築するために設計されています。

信頼を構築するために設計されています。

組織がAIを採用し、管理し、監視する能力を、企業レベルの信頼性で強化します。規模で運営する規制対象の組織向けに構築されています。

既存のシステム、ポリシー、AIワークフローを、すべて1つの統合プラットフォームでシームレスに接続します。

既存のシステム、ポリシー、AIワークフローを、すべて1つの統合プラットフォームでシームレスに接続します。