EnzaiのAIガバナンス製品のフルスイートを探求し、企業がAIを自信を持って管理、監視、拡張するのを支援します。構造化されたインテークや中央集約されたAIインベントリから、自動評価やリアルタイムの監督まで、Enzaiは日常のAIワークフローにガバナンスを直接組み込むための基盤を提供します—イノベーションを遅らせることなく。

Enzai

AI 規制

AI責任指令 - ヨーロッパにおけるAIの責任に関する設計図

AI 規制

AI責任指令 - ヨーロッパにおけるAIの責任に関する設計図

AI 規制

AI責任指令 - ヨーロッパにおけるAIの責任に関する設計図

EnzaiはEUのAI責任指令の初稿を分析します

ベルファスト

ベルファスト

9 最小読了時間

規制

規制

EU AI責任

EU AI責任

トピック

トピック

説明責任

説明責任

トピック

欧州AI規制、DPOガイダンス、コンプライアンス準備、ガバナンス実践

トピック

2022年9月28日、欧州委員会は提案された人工知能責任指令(「AILD」)の初稿を発表しました。AILDの目的は、AIシステムによる損害に関する情報アクセスと立証責任の軽減に関する統一規則を定めることです。


AILDは、信頼できるAIエコシステムを創出するためのヨーロッパにおける広範な立法プッシュの最新のものです。この風景には、以下が含まれます: (1) 人工知能法(「EU AIA」)、詳細はこちらをご覧ください; (2) 既に40年経過している製品責任指令の改訂であり、欠陥製品に対する生産者の無過失責任をカバーします。




必要性

2020年のEU調査では、責任に関する曖昧さがヨーロッパの企業によるAI使用の3大障壁の一つであることが判明しました。これはEUで現在施行されている国別の責任規則のパッチワークを考えれば驚くべきことではありません。多くの加盟国は、請求者がある個人の不当な行為または不作為が問題の損害を引き起こしたことを証明する必要のある過失責任体制を採用しています。しかし、AIの「ブラックボックス」性(自律的行動、限定的な予測可能性、継続的な適応、および透明性の欠如)により、既存の体制下で成功した責任請求を支持するのに必要な過失の源を特定するのが難しくなっています。


*** 鷹の目を持つ読者はAILDが「指令」であり、EU AI法が「規則」であることに気づくかもしれません。違いは何でしょうか?EU規則は加盟国全体で自動的に施行されます。一方、指令はすべての加盟国が達成しなければならない目標を設定します。その目標をどのように達成するかは、それをどのように達成するかは個々の加盟国に委ねられています。***

規則

AILDは、加盟国が実施すべき目標として2つの請求者に有利な保障策を導入します: (1) 因果関係の推定; (2) 証拠の権利。これらの措置は、AIシステムに責任規則を適用する際に発生する独特の証拠上の課題を克服するのに役立ちます。




1. 因果関係の推定

AIによる被害の場合に因果関係を証明することの困難さに対処するため、AILDは攻守可能な推定を創設し、被告人はその故障したAIシステムによって生じた過失または不作為に責任を負います。この推定は以下の3つの条件が満たされた場合にのみ発生します:


A - 被告人の行為が発生した損害を防ぐことを目的とした欧州または国内法に定められた注意義務に合致していない;

B - ケースの状況に基づいて、被告人の過失がAIシステムによって出力された結果(またはAIシステムが出力を生成しなかったこと)に影響を与えたと合理的に仮定できる; そして

C - 請求者がAIシステムによって出力された結果(またはAIシステムが出力を生成しなかったこと)が損害を引き起こしたことを証明している。

EU AIAの下での高リスクAIシステムの場合、上記Aで定められた要件は、被告人がEU AIAの下で課された特定の義務を遵守していない場合、自動的に満たされたと見なされます。これらの義務には、他のことの中でも、文書化と監視要件が含まれます。




2. 証拠の権利

AILDは潜在的な請求者が高リスクAIシステムに関する関連する証拠の開示を求める裁判所命令を取得する力を付与します。この種の証拠には、技術文書、監視ログ、EU AIAの下でのすべての透明性要件が含まれます。決定的なことに、被告人がこの情報を開示しない場合、その情報を開示した義務を満たさなかったと見なされ、それにより上記Aで定められた要件が自動的に満たされます。これにより、関連情報を開示しないことは、被告人にとって因果関係の推定を克服するのが非常に困難になります。




タイムライン

この提案は、EU AIAの初稿が発表されてから1年以上経って浮上しました。一部の論評者は、ヨーロッパにおけるAI規制体系の不調和が曖昧性を増し、規制のギャップを生む可能性があるため、このことに懸念を持っています。それももっともな指摘です - EU AIAの発効とAILDの発効の間に大きなギャップがあると、規制のギャップが生じる可能性があります。FWIW、委員会はそのギャップを見ておらず、時間が示してくれるでしょう。それは現在、レビューのため欧州理事会にあり、また議会を通過しなければなりません。




私たちの見解

これは、AIシステムに関する詳細な技術文書を維持することの重要性を強調します。AILDの下で創設された責任の推定は反駁可能であるため、詳細かつ頑強な文書は、AIシステムが損害を引き起こしたとする潜在的な請求に対する強い盾となる可能性があります。


興味深いことに、委員会は反駁可能な推定の要件A(欧州または国内法の既存の注意義務が侵害された)を通じて、既存の過失責任の規則に依拠することを選択しました。AI特有の過失を導入するのではありませんでした。AILDには見直し条項が含まれているため、これは「待ち望んで見る」のようなものかもしれません…。


2023年はAI規制にとって大きな年になるでしょう。EUで使用されるあらゆる種類のAIを構築する組織は、これらの問題について今考え始め、遵守に向けて取り組むことをお勧めします。Enzaiは、この分野の専門家である弁護士によって設立され、支援されています。

EnzaiのAIガバナンスAI規制、及びEU AI法のソリューションについてもっと読む。

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

設計に伴うコンプライアンス

設計に伴うコンプライアンス

ISO 42001

AI

一般データ保護規則 (GDPR)

ISO 42001

AI

一般データ保護規則 (GDPR)

AI

AI

インフラストラクチャ

インフラストラクチャ

信頼を構築するために設計されています。

信頼を構築するために設計されています。

組織がAIを採用し、管理し、監視する能力を、企業レベルの信頼性で強化します。規模で運営する規制対象の組織向けに構築されています。

既存のシステム、ポリシー、AIワークフローを、すべて1つの統合プラットフォームでシームレスに接続します。

既存のシステム、ポリシー、AIワークフローを、すべて1つの統合プラットフォームでシームレスに接続します。