EnzaiはEUのAI責任指令の初稿を分析します
•
•
11 最小読了時間
トピック
2022年9月28日、欧州委員会は、提案されている人工知能責任指令(“AILD”)の第1次草案を公表しました。AILDの目的は、AIシステムによって生じた損害に関する情報へのアクセスおよび立証責任の軽減について、統一的なルールを定めることです。
AILDは、信頼性の高いAIエコシステムを構築するための、より広範な欧州の立法推進における最新の取り組みです。この枠組みには、(1) 人工知能法(“EU AIA”)—こちらで詳細をご覧いただけます—、および (2) 現在40年を迎える製造物責任指令の改正も含まれます。製造物責任指令は、欠陥製品に対する製造者の無過失責任を定めています。
必要性
2020年のEU調査では、責任の所在に関する曖昧さが、欧州企業によるAI利用を妨げる主な3つの障壁の一つであることが示されました。これは、現時点でEU内に存在する各国の責任ルールが寄せ集めの状態にあることを踏まえれば、驚くことではありません。多くの加盟国は過失責任制度を採用しており、請求者は、個人の違法な行為または不作為が当該損害を引き起こしたことを証明する必要があります。しかし、AIの「ブラックボックス」特性(自律的な挙動、限定的な予測可能性、継続的な適応、透明性の欠如を伴います)により、既存の制度の下で責任請求の成立に必要な過失の原因を特定することは困難です。
*** 目の利く読者の方は、AILDが「Directive」であるのに対し、EU AI Actが「Regulation」であることにお気づきかもしれません。違いは何でしょうか。EU規則は、EU全加盟国で自動的に効力を生じます。一方、指令は、すべての加盟国が達成すべき目標を定めるものです。その目標を国内法でどのように達成するかは、各加盟国に委ねられています。 ***
規定
AILDは、加盟国が実施すべき目標として、原告側に有利な2つの保護措置を導入しています。すなわち、(1) 因果関係の推定、(2) 証拠への権利です。これらの措置は、責任ルールをAIシステムに適用する際に生じる特有の立証上の課題を、請求者が克服するうえで役立ちます。
1. 因果関係の推定
AIによって損害が生じた事案において因果関係を証明することの難しさに対処するため、AILDは、被告が故障したAIシステムによって生じた過失または不作為について責任を負うという、反証可能な推定を創設します。この推定は反証可能であり、以下の3要件が満たされた場合にのみ成立します。
A - 被告の行為が、発生した損害から保護することを特に意図してEU法または国内法に定められた注意義務を満たしていなかったこと。
B - 事案の状況に照らして、被告の過失がAIシステムによって生成された出力(またはAIシステムが出力を生成しなかったこと)に影響を及ぼしたと合理的に推定できること。
C - 請求者が、AIシステムによって生成された出力(またはAIシステムが出力を生成しなかったこと)が当該損害を引き起こしたことを立証していること。
EU AIAに基づく高リスクAIシステムの場合、上記Aで定める要件は、被告がEU AIAの下で課される一定の義務を遵守していないときは、自動的に満たされたものとみなされます。これらの義務には、とりわけ文書化要件および監視要件が含まれます。
2. 証拠開示請求権
AILDは、将来の請求者に対し、高リスクAIシステムに関する関連証拠の開示を求める裁判所命令を取得する権限を与えます。この種の証拠には、技術文書、監視ログ、およびEU AIAに基づくその他すべての透明性要件が含まれます。特に、被告がこれらの情報の開示を怠った場合、欧州法または国内法上の関連する注意義務を果たしていなかったものと推定され、上記Aで定める要件が自動的に充足されます。つまり、関連情報の開示を怠ると、被告が因果関係の推定を覆すことは著しく困難になります。
時系列
この提案は、EU AIAの第1次草案が公表されてから1年以上後に提出されました。欧州におけるAI規制体系が分断されれば、曖昧さが増し、規制の空白が生じるおそれがあるとして、懸念する向きもあります。それはもっともな指摘です。EU AIAの施行とAILDの施行の間に大きな空白があれば、確かに規制の空白が生じます。参考までに、欧州委員会はそのような空白は存在しないと考えており、最終的には時間が示すことになるでしょう。現在は欧州理事会で審査中であり、さらに欧州議会での審議も必要です。
当社の見解
これは、AIシステムに関する詳細な技術文書を整備しておくことの重要性を、改めて強く示しています。AILDの下で創設される責任推定は反証可能であるため、詳細かつ堅牢な文書化は、AIシステムが損害を引き起こしたとする将来的な請求に対する強力な防御手段となり得ます。
また、欧州委員会が、上記の反証可能な推定の要件A(欧州法または国内法上の既存の注意義務が侵害されていること)を通じて、域内全体で既存の過失責任ルールに依拠することを選択した点も興味深いところです。AI特有の過失を導入するのではなく、既存の枠組みを用いています。AILDには見直し規定も含まれているため、これも「様子を見る」アプローチなのかもしれません。
2023年は、AI規制にとって大きな転機となる年です。EUで使用されるあらゆる種類のAIを構築する組織は、今すぐこれらの課題の検討を開始し、コンプライアンスに向けて取り組むことが賢明です。Enzaiは、この分野の専門家である弁護士によって設立され、支援されています。
Enzaiは、業界をリードするエンタープライズAIガバナンスプラットフォームであり、抽象的なポリシーから運用レベルの監督へと企業が移行するのを支援するために専用設計されています。当社のAIリスク管理プラットフォームは、エージェンティックAIガバナンスを管理し、包括的なAIインベントリを維持し、EU AI Actへの準拠を確実にするために必要な専用インフラを提供します。複雑なワークフローを自動化することで、Enzaiは、ISO 42001やNISTといった国際基準との整合性を維持しながら、企業が自信を持ってAI導入を拡大できるよう支援します。
組織がAIを採用し、管理し、監視する能力を、企業レベルの信頼性で強化します。規模で運営する規制対象の組織向けに構築されています。

