EnzaiのAIガバナンス製品のフルスイートを探求し、企業がAIを自信を持って管理、監視、拡張するのを支援します。構造化されたインテークや中央集約されたAIインベントリから、自動評価やリアルタイムの監督まで、Enzaiは日常のAIワークフローにガバナンスを直接組み込むための基盤を提供します—イノベーションを遅らせることなく。

Enzai

AI 規制

AIガバナンスの未来:AI専門家からの洞察

AI 規制

AIガバナンスの未来:AI専門家からの洞察

AI 規制

AIガバナンスの未来:AI専門家からの洞察

当社のAIガバナンス専門家パネルは、規制と基準、責任、三重の防衛線などについて意見を述べています。

ベルファスト

ベルファスト

57 最小読了時間

提供元

提供元

カレン・ワーザースタイン

カレン・ワーザースタイン

「Three Lines of Defence」の解説

「Three Lines of Defence」の解説

Ada Lovelace、SWIFT、Enzaiの業界専門家は、複雑なAIバリューチェーン全体にわたるリスクを効果的に管理するため、実績のある3線防御(事業オーナー、法務/リスクパートナー、独立監査人)の適用を強調しています。

Ada Lovelace、SWIFT、Enzaiの業界専門家は、複雑なAIバリューチェーン全体にわたるリスクを効果的に管理するため、実績のある3線防御(事業オーナー、法務/リスクパートナー、独立監査人)の適用を強調しています。

グローバルな義務への対応

グローバルな義務への対応

本パネルディスカッションでは、EU AI法における「systemic risk」モデルの計算上の閾値から、米国大統領令の包括的な適用に至るまで、地域ごとの要件を正確に理解することの喫緊の必要性が強調されています。

本パネルディスカッションでは、EU AI法における「systemic risk」モデルの計算上の閾値から、米国大統領令の包括的な適用に至るまで、地域ごとの要件を正確に理解することの喫緊の必要性が強調されています。

トピック

NIST AI RMF、リスク管理、米国標準、ガバナンスフレームワーク

トピック

先般開催したウェビナーの専門家パネルにおける洞察を共有できることを嬉しく思います。登壇者は、Ada Lovelace Institute の欧州公共政策責任者である Connor Dunlop(CD)、SWIFT の AI ガバナンス責任者である Martin Koder(MK)、AI 政策・ガバナンスアドバイザーの Chloe Autio(CA)、そして AI ガバナンスソリューション Enzai の CEO である Ryan Donnelly(RD)です。 

パネリストの回答は、長さと明瞭さのために編集されています。 

先週、EU AI法をめぐる最新の議論が行われましたが、主要な論点はどこにあるとお考えですか。また、来年に向けて EU に期待している進展は何でしょうか。 

CD: これはブリュッセルと EU にとって非常に大きな節目です。AI法について政治的合意が成立しました。これは、世界初の AI に関する分野横断的規制となります。非常に大きな出来事でした。今後、技術的な起草の過程でいくつか論点が出てくる可能性はありますが、そう多くならないことを願っています。ただし、来年に向けた論点や進展についてお話しする前に、まず AI法がなぜ重要なのか、そして政治的合意が成立したことをなぜ重視すべきなのかを簡単に触れておきたいと思います。先ほど申し上げたとおり、これは世界のどこにも存在しない、AI に関する初の分野横断的規制になります。興味深いのは、実際に一部の AI システムの利用が禁止される点です。たとえば、公的空間におけるリアルタイムの遠隔生体認証は、法執行機関による利用に一部の例外を除き、全面的に禁止されます。今週の焦点は、その例外がどこまで広がるのかという点でした。 

高リスク AI システムは、欧州委員会によれば、全システムの5〜15%を占める可能性があります。これは、法制度や法執行機関などの公的部門でのユースケースに加え、教育、医療などの高影響分野における多くの利用を対象に含むことになります。この法案は、リスク管理、データガバナンス、人間による監督の確保に関する一定のルールを定めます。  また、先週合意された新しいカテゴリーが追加される可能性があります。法案の草案では、システムを禁止システム、高リスクシステム、低リスクシステムに分類していますが、そこに『システミックリスク』カテゴリーが新たに導入されました。このカテゴリーは汎用 AI モデルを対象としています。ここで論点になり得るのは、AI システムをシステミックリスクを伴うものとして分類するための計算量の閾値です。現時点でその閾値は、当研究所の見解ではかなり高い水準にあります。10^25 FLOPs という提案閾値では、市場にある1つのモデル、GPT-4 しか対象になりません。Google Deepmind の Gemini も対象となる可能性はありますが、まだ明確ではありません。

2024年に向けて何が起こるのかという点では、年明け第1四半期も、引き続き法案の技術的な文言起草に焦点が当たるでしょう。利害関係者は引き続きそのプロセスに影響を与えようとするはずです。AI法の前文や、法文が何を意味するのかについての明確化は極めて重要です。来年初頭において、この作業を見落としてはなりません。 潜在的に興味深い進展としては、システミックな汎用 AI モデルに関する行動規範について合意が得られたことが挙げられます。まずは、汎用 AI プロバイダー向けの拘束力のないガイダンスという形で進むことになるでしょう。これは市民社会が関与できる道筋であり、非常に重要です。おそらく来年第2四半期以降、この行動規範に大きな焦点が当たるでしょう。これが適切に進めば、標準設定プロセスにおける民主的正統性の不足に対処できる可能性があります。最後に強調したいのは、EU における AI 責任指令の作業です。来年の EU 選挙のため中断されることにはなりますが、重要な取り組みです。

欧州の文脈で AI Safety について議論してきました。米国は長らく規制で主導的な役割を担っていませんでしたが、バイデン大統領による AI に関する大統領令によって状況は変わりました。米国の雰囲気はどのようなものでしょうか。また、この大統領令は来年どのように実施されていくとお考えですか

CA: まず簡単にまとめると、大統領令は10月30日、英国 AI サミットの直前に公表されました。これはバイデン政権の大統領令として、これまでで最長かつ最も包括的なものであり、技術・デジタル政策に関する大統領令としても史上最大級の111ページに及びます。つまり、この課題に対して政権がいかに意図的かつ積極的に取り組んでいるかを示しています。

この大統領令は50の異なる組織を動かします。多くの実施を主導するのは商務省であり、特に NIST(National Institute for Standards and Technology/米国国立標準技術研究所)が中心的な役割を担います。NIST は、AI リスク管理フレームワークに関する取り組みでご存じの方も多いかもしれません。これは、AI ガバナンスにおける主要な自主的標準フレームワークです。また、150を超える新たな指示、つまりアクション、報告、ガイダンス、各種ルールや政策、各機関が独自に作成する報告書などを創設し、今後30日から365日以内に実施されることになります。要するに、ここには非常に多くの取り組みがあり、受け止めは本当に非常に前向きです。

連邦議会の関係者や、行政、産業界の方々との議論では、この大統領令が示すロードマップや方向性に大きな期待が寄せられており、また、それがどのように実施されるのかについて強い関心が示されています。 

これは、特にトランプ政権による信頼できる AI に関する大統領令など、過去の大統領令とは異なります。前回の大統領令には、最後まで実現しきれなかった指示が数多くありました。たとえば、AI のユースケースの整理、さまざまな機関向けのリスク管理ガイダンスの策定、管理予算局(Office of Management and Budget)が AI を責任ある形で採用・実装する方法についてのガイダンスを含むメモを作成することなどです。これらは結局、最終化されませんでした。ですので、この大統領令については、トーンと方向性の両面で、実施にこれまで以上に重点が置かれ、政府全体で実現していくアプローチが見られると考えています。 

大統領令が公表される前から、実は米国政府は AI ガバナンスに関して非常に多くの作業を進めていました。議会が EU で見られるような包括的な横断型 AI 法を成立させていないのは事実ですが、政府内外の多くの機関、たとえば EEOC(雇用機会均等委員会)、NIST 自体の AI リスク管理フレームワーク、CFPB(消費者金融保護局)などが、広く知られている AI による被害に対処するため、さまざまなガイダンスを公表してきました。この大統領令は、そうした多くの機関が進めてきた優れた取り組みの上に成り立っています。そうした作業が、この大統領令の方向性を形作るうえでも役立ちました。

この大統領令は実に幅広い論点を扱っています。モデルへのアクセスや将来のリスクへの備えに関連する国家安全保障に焦点を当てる一方で、プライバシー、消費者保護、知的財産にも大きく踏み込んでいます。 

この文脈で機関に求められているのは、データブローカーを含むさまざまなデータソースを整理し、プライバシーへの影響、つまりこれらのモデルのデータがどこから来ているのかを本当に把握することです。多くの市民社会関係者や擁護者にとって、そして私自身も、今後それがどう展開するのか非常に楽しみにしています。米国特許商標庁は、知的財産ルールと AI による発明者性に関する新たなガイダンスを発出する予定です。これも非常に興味深いところです。 

この大統領令は、公平性と差別禁止の問題にも大きく焦点を当てています。米国政府の主要な規制当局である DOJ、EOC、そして DHS の他の機関にも連携を求め、AI による被害に対する執行のための投資や新たなガイダンス策定をどう行うかを決定するよう求めています。これまで、そのための協調的な取り組みは本格的には見られませんでした。この大統領令は、それを明確に制度化したのです。住宅や融資の可用性における差別禁止など、私たちが長年にわたって知ってきた、十分に文書化された AI の被害が論点になっています。政府がこれらの問題に対してどのような執行戦略を打ち出すのか、非常に楽しみです。

この大統領令は、労働と労働者の権利にも触れています。機関に対し、AI システムをどのように利用しているのか、あるいは連邦政府の請負業者が採用プロセスで AI システムをどのように使用しているのかについて、一定のガイダンスを示すよう求めています。英国 AI Safety Institute については皆さんご存じかと思います。NIST 自身も AI Safety Institute を立ち上げ、基盤モデルや AI モデルのセキュリティと堅牢性を検証し、レッドチーミングのプロセスを開発し、既存のリスク管理プロセスを基盤にして、これらのモデルの安全性を大幅に高めるための多くの作業を行う予定です。

そして最後に、この大統領令は米国政府における AI 人材の強化を本当に強く重視しています。これは残念な統計ですが、事実です。米国でコンピューターサイエンスおよび AI の博士号を取得した人のうち、連邦政府の職員になるのはわずか1%にすぎません。非常に優秀な AI 専門家の多くが民間企業、アカデミア、あるいは大規模ラボに流れています。その一方で、そうした人材のごく一部しか公共部門で働き、公共部門の目標やニーズに貢献し、公共サービスの質を高めることに至っていません。この大統領令は、いくつかの新しいルールと変更を導入します。たとえば、米国外生まれで米国で教育を受けた AI 人材が米国内に留まり、米国のエコシステムに貢献できるよう、移民政策に小規模な修正を加えます。以上が、この大統領令に散りばめられている主要テーマの非常に高いレベルでの概要です。

英国では何が起きているのでしょうか。ここでは、上級 AI リーダーやダウニング街の政府とともに、あなたが非常に密接に議論に関わってこられたことは承知しています。AI Safety Summit 以降、何か進展はありましたか。

RD: 英国での動きを手短にまとめると、政府はまず人工知能の規制に対して「イノベーションを重視する」アプローチを打ち出しました。目的は、英国を人工知能分野の世界的リーダーとして位置づけることでした。これは、人材育成の推進や、組織に過度な負担をかけないことを確実にする点など、多くの論点に通じます。政府が、これらの非常に優れた技術の周辺で本当にイノベーションを促進するためのインフラをどう整備できるか、という視点です。この方針に関する最初の白書は数年前に公表されました。私たちも企業として、その直接提案に意見を反映してきました。初期段階ではガイダンスとして始まりましたが、時間の経過とともに、イノベーション重視の人工知能規制アプローチには実効性がないというフィードバックが寄せられました。政府はこのフィードバックを受け止め、選択を迫られました。AI を規制するのか、それとも規制しないのか、ということです。 

イノベーション重視アプローチの第2版はかなり創造的でした。選択肢は2つと言いましたが、実際には3つ目があったのかもしれません。英国で AI を規制する計画は、規制の負担を既存の分野別規制当局に移し、「あなたは金融行動監督機構なのか、競争当局なのか、すでに自分の分野を規制している。であれば、既存の権限の範囲内で AI がどのように使われているかも確認すべきだ」と伝えることです。これには、AI システムが分野横断的な原則に準拠していることの確認が含まれます。このアプローチでは、産業界に義務が課されます。

さらに踏み込んで AI 法案を導入するという話もあり、政府がこれを詳細に検討していたことは間違いありません。AI Safety Summit を前にしては、まだ未確定の論点でした。サミットの最終段階では、英国で追加規制を導入しないという判断が下されました。自動運転車やオフロード車両に関する別の法案はありましたが、EU AI法のようなものはありません。おそらく当時、人々はそのようなものも検討していたのだと思います。新年には、このイノベーション重視アプローチの新しい草案が出てくるはずです。私も DSIT の何人かの方々とかなり密接に話をしていますが、欧州で見られるような横断的な法制度が英国で登場する可能性は非常に低いです。

このアプローチは、いくつもの点で異なります。イノベーション重視アプローチに対する最大の批判の一つは、分野別規制当局に負担を負わせる一方で、調整機能がないことです。背後で全体をまとめる中央機能がなければ、ある規制当局はバリューチェーンのある側面をこう解釈し、別の規制当局は同じ問題を反対の方向で解釈するかもしれません。市場には大きな不確実性があり、これは政府が白書の最新版で対処しようとしているフィードバックの一つです。同様に、EU AI法では、今度は逆の批判がほぼ向けられています。つまり、横断性が高すぎて、個別の分野やそこに伴う нюアンスを考慮する必要があるのではないか、というものです。 

これまで、米国、EU、英国における異なる規制アプローチについて議論してきましたが、ブラジルや中国、そして世界各地でも同様の取り組みが進んでいることも分かっています。なぜ国際的な整合性がこれほど価値を持つのでしょうか。また、グローバル基準を設定することの利点をどのように見ていますか。

MK: ここで SWIFT と、私たちがこうした課題にどう取り組んでいるかについてお話しできればと思います。前提として、SWIFT は Society for Worldwide Interbank Financial Telecommunications の略で、国際決済メッセージングのインフラを運営する中立的な非営利組織です。私たちはガバナンスを非常に重視しています。顧客、つまり大規模金融機関に対しては、既存の金融サービス事業者にすでに備わっている、非常に広範で成熟したリスク管理能力を指し示しています。3つの防御線モデルの下で、ベンダー管理、製品ガバナンス、データガバナンス、セキュリティ管理、プライバシー評価などを実施しています。無数の委員会やプロセスがあり、これに取り組む人材も非常に多くいます。これだけで、政策立案者が期待する状態と70%は整合しているのです。 

一部の領域では、1つか2つのギャップがあるかもしれません。ただし、AI ガバナンス規制の語彙、たとえば説明可能性は法的には何を意味するのか、つまりどのようなリスク責任を指すのか、といった言葉を使うだけの話かもしれません。公平性のような原則も、すでに差別禁止などとして存在しています。 

つまり、すでに社内にある多くのプロセス――リスク評価、特定、影響のモニタリングなど――から、責任ある AI と AI リスク管理に関して規制当局が確認したいと考える、定義済みの指標に沿った管理情報を抽出するということです。これらの指標は、公平性、監査可能性、説明責任、正確性など、さまざまな次元にまたがります。そして、その情報を標準化された形で提示することで、組織の上級意思決定者、つまり経営層、取締役会、最高リスク責任者、法務責任者など、必ずしもデータや AI の専門知識を持たない人々にも理解できるようにするのです。再現可能な形であり、リーダーシップが判断できる保証を与え、必要とする相手――規制当局であれ、顧客であれ、その他のステークホルダーであれ――に提供できる保証となるべきです。

顧客の皆さまにお伝えしたいのは、慌てないでください、ということです。特に成熟した組織であれば、AI ガバナンスに対応するための十分なリスク管理能力をすでに備えています。

グローバル基準について言えば、企業文化、汎用的なリスク管理プロセスを遂行する能力、そして整備済みのインフラによって、得られる保証アウトプットは十分に確保できます。まずは自社の文脈で自ら基準を定めてください。そのうえで、さまざまな戦略を通じて、それらを各法域の要件に応じて再活用できます。たとえば、世界各地の人々、顧客基盤、ベンダー群、学術界、規制当局などとパートナーシップを築くことです。作業部会の理事会に参加して、ペットテクノロジーのような新しい領域がどのような基準に従っているのかを見極め、特定分野における地域の文脈を学び、提供できる保証を地域規制に合わせて再構成することもできます。 

Connor はカテゴリーと閾値について話していたと思います。残念ながら、これが規制というものです。規制当局は常に箱を作ります。そして人々は、ものが間違った箱に入っているとか、閾値が間違っているとか不満を言うのですが、実際には時間とともに変化していきます。機械学習に精通している政策担当者は多くないことを踏まえると、規制当局は世界的に見てもかなり良い仕事をしていると思います。NIST は注目すべき重要な組織です。AI ガバナンスに関するベストプラクティスとは何か、台頭するさまざまな規制基準にどう対処すべきか――こうしたノイズは非常に多いです。実際、信号対ノイズ比の観点では、昨年よりかなり悪化しています。どの組織を信頼すべきかを見極めるのは、ますます難しくなっています。最善の方法は、たとえば3つの防御線のように、すでに持っているものを活用することです。

Ryan の英国に関する指摘について言えば、英国は3つの点でかなり賢明だったと思います。第一に、AI Safety Institute を設立しました。米国と英国の機関がチェックするため、英国は米国企業の最先端の基盤モデルをすべて確認できる立場にあります。第二に、英国は依然として、EU 規制の標準を設定する権限を持つ標準設定機関のメンバーです。ある意味で、英国は EU 法の標準設定段階にまだ席を持っているのです。第三に、EU 法が企業に対し、リスク管理体制を整備していることの証明を求める要件は、専門アドバイザリー企業にとって大きな追い風になります。それらの多くはロンドンに拠点を置いているため、この法案からかなりのビジネスを獲得する可能性があります。

3つの防御線について触れられました。これは金融サービスや保険業界では非常になじみ深い概念ですが、他の業界ではそれほどでもありません。AI リスクの管理において3つの防御線はどの程度適用可能でしょうか。また、他の組織も検討すべきものだと思われますか。

MK: それは、どの業界にいるかによります。一般論として、AI Safety Summit で示されたメッセージは、世界の歴史の中で、かつてはやや危険と見なされ、人々を不安にさせていたものの、もはやそうではなくなった分野が存在するということでした。そうしたリスクを管理し、社会の信頼を獲得してきたのが安全基準です。たとえば航空や、より広く輸送を見れば、厳格な安全点検と規制があることを知っているので、飛行機に乗ることを誰も心配しません。製薬業界や臨床試験の段階的アプローチを見れば、基盤モデルにもこのアプローチを採るべきだと提案する人がいます。安全研究所の使命の一部は、こうした高規制分野で確立された基準を AI の世界にどこまで転用できるかを見極めることです。 

3つの防御線は、金融サービス分野に非常に特有の考え方です。しかし、その本質は他業界でも十分に通用します。第1線は事業部門、つまり製品オーナーです。彼らがリスクを負い、リスクを特定し、統制を特定し、軽減策を講じ、成果を監視する責任を担います。説明責任は事業部門にあります。 第2線は、リスクマネージャー、弁護士、データガバナンスチーム、サイバーセキュリティチームなど、あらゆる支援パートナーです。彼らは、分野横断的なワークショップを通じて専門知識を提供し、事業部門の対応にあるあらゆる課題を特定します。また、事業部門が集まり、特定のプロジェクトに対する定義済みのリスク許容度に照らして、すべてのリスクを定量的に登録・評価できるよう支援します。第2線は監視を助けてくれます。 第3線は監査人です。彼らは定期的に入り、リスクを特定し管理するために行った作業が、あなたが述べたとおりに行われているかを確認します。一般に、すでに高度な安全対策が整っている分野があり、その転用可能性がこの分野でどの程度あるかを見極めることが重要なのです。 

対策は、何を行うかに即して具体的である必要があります。たとえば、B2B の表形式データを扱うバックオフィスのロジスティック回帰による異常検知サービスを運用しているのであれば、基本的人権の問題が、必ずしもその AI 利用における最大のリスクとは限りません。 

今お話しいただいたリスクの所有に関する点は非常に興味深いです。ここから、説明責任に関する問いへとそのままつながります。AI リスクの管理において、バリューチェーン全体を通じた最終的な説明責任はどこにあるとお考えですか。

CD: Ada Lovelace Institute では、この問いについて非常に多く考えてきました。Martin が述べたことと同様に、複数の防御線という概念は AI のバリューチェーンに非常によく当てはまります。EU AI法について私たちが直面してきた課題の一つは、製品安全のレンズを取っていたため、配備段階に焦点が当たりすぎていることです。研究所での調査では、それよりはるかに複雑であることが常に明らかになっています。リスクはバリューチェーンのどの段階でも発生し得るため、説明責任をどこに割り当てるかについて一律の答えはありません。 

明らかなのは、説明責任はバリューチェーンに沿って配分されるべきだということです。たとえば、設計・開発段階で行われる判断や、学習時にモデルへ入力するデータの選択は、実際に展開された後のアプリケーション層の出力にも必ず何らかの影響を与えます。リスクの発生源がどこかを考えることは、ひとつの有用な着眼点です。リスクの発生源は非常に重要です。同様に、リスクの拡散も規制当局が注目すべき重要な論点です。たとえば、API 経由で提供される形でクラウドホスティングサービスにアップロードされた瞬間にリスクが拡散することがあります。広範なアクセス可能性を与えることで、害となり得るものが増幅されるのです。これは、規制当局がリスクの発生源と、それをどう軽減できるかを問うための有用な介入点となり得ます。

説明責任が明確にどこにあるかを一概に言うことはできません。説明責任は共有される必要があり、かつリスクの発生源に非常に的を絞った形でなければなりません。他分野から学べる、興味深いガバナンスモデルもあります。たとえば3つの防御線です。最近私たちが注目しているのは、米国におけるライフサイエンス規制、つまり AI 版 FDA がどのようなものになり得るかという点です。近いうちにこの研究を公表する予定です。重要なのは、開発者と規制当局の間に見られる情報の非対称性に対処するため、高価値情報にアクセスできるようにすることです。たとえば、食品医薬品局(FDA)は医療機器を規制するための情報にアクセスできます。製品のライフサイクルを通じて、開発者と規制当局の継続的な関係があります。特定の基準に基づいて、対象を絞った精査を行う選択肢もあります。これは、リスクの発生源が非常に不明確なバリューチェーンに対処するうえで優れた方法であり、また、規制当局が高価値情報にアクセスできるチェックポイントを見つけることで、学習し、段階的に能力を高めていくうえでも有効です。 

市場投入前の段階では、開発者と雇用主に大きな説明責任があります。その後、市場投入後の段階では、ライフサイクル全体を通じてリスクを確認できる強力な規制当局が必要です。これはおそらく第2線と第3線に相当しますが、私たちが「検査のエコシステム」と呼ぶものに支えられるべきです。つまり、Martin が述べたように監査人へのアクセス、あるいは審査済みのレッドチーム担当者へのアクセスです。

主な課題は、インセンティブの問題です。EU AI法は、おそらく独立監査や、審査済みのレッドチーム担当者による敵対的テストを義務付けるものにはならないでしょう。では、規制上の根拠がなければ、その種の精査に自ら応じないかもしれないプロバイダーにとって、どのようなインセンティブがあるのか、という問いです。これが、今後私たちが考えていくことになります。

視聴者から次の質問があります。NIST のリスク管理フレームワークを EU AI法にマッピングした文書を作成されていますか。

CA: リスク管理フレームワーク(RMF)と EU AI法、そして他のさまざまな提案との間で、多くのマッピング作業が行われてきました。いくつかの参考資料を整理して、皆さまに共有できるようにしたいと思います。 

MK: たとえそのような文書が存在していたとしても、将来、特定の法域における要件について完全な法的確実性が得られる時点はありません。常に動的です。私たちは常にある程度の不確実性を抱えながら運用することになり、それに慣れる必要があります。解決策の一部は、自社の文脈に即した独自の基準を作ることです。原点に立ち返り、政策立案者に任せるのではなく、自分たちの文脈で自ら考えるのです。自社独自の基準を定め、それに対する監査証跡を作成してください。その監査証跡は、ライフサイクルのあらゆる段階において、透明性や説明責任を示したいときに活用できます。

ただし、異なる法域の基準や要件を LLM や、文書を完全にマッピングするプラットフォームに入れさえすれば、組織はすべての項目にチェックを入れるだけでよい、という考え方には注意が必要です。それは現実的ではありません。なぜなら、これは動的な環境だからです。 

RD: まったくそのとおりです。私たちは間もなく、無料の AI ポリシーガイドを公開します。その中では、こうしたフレームワークの一部を自社向けに調整し、自社にとって何が重要かを理解する必要がある、まさにその点に触れています。単に既製品をそのまま当てはめればよい、という話ではありません。 

この分野における知的財産が、今後どのように展開していくのかという点について質問があります。 

Ryan: ここでもインセンティブは重要な考慮事項であり、しかもそのインセンティブは必ずしも皆さんが想像するものとは限りません。現在の動きを一例として挙げると、これらの大規模な基盤モデルの多くには深刻な知的財産上の懸念があります。なぜなら、データが文字どおりあらゆる場所から集められているからです。 より大きなプロバイダーの一部、特にすでに大規模データセットを保有している企業が行っているのは、知的財産補償を提示することです。つまり、「世界のどこであれ知的財産法に違反したという、誰かが将来どのような請求を持ち込んできても、私たちが補償します。なぜなら、このモデルが学習したすべてのデータは私たちの所有物であり、そのような事態は起こり得ないと確信しているからです。したがって、自信を持ってこの補償を提供できます」と述べるのです。これは、そうした種類の製品にかなりの信頼を生み出しています。

知的財産とこうした大規模モデルに関する具体的なルールを待つのではなく、組織はそこで自ら先手を打ち、顧客からそのリスクを完全に取り除くと宣言しています。私たちは、ツールを信頼できるものにすると言っているのです。これは非常に説得力があり、インセンティブが当初の予想とは少し異なることがあると示しています。同様に、サイバーセキュリティの分野を見ると、SaaS(Software as a Service)企業が満たすべき高水準の要件として、ISO/IEC 27001 や SOC 2 などがありますが、これらは規制当局が義務付けているわけではありません。 

しかし、組織が基準に準拠する市場インセンティブは存在します。なぜなら、データを保護する最高水準のサイバーセキュリティ基準を満たしていなければ、誰もあなたのソフトウェアを購入しないからです。その市場インセンティブは、時に見落とされています。

大統領令は大きな影響を及ぼすでしょうが、米国では州レベルの取り組みも非常に多いですよね。たとえばニューヨーク市のローカル法144号のように、州レベルで特定業界に焦点を当てたものがあります。こうした動きは、より広範な連邦レベルの施策とどのように連動していくのでしょうか。

CA: とても重要な論点です。来年は、特に連邦議会の行動がない中で、州レベルの動きが非常に多く見られるでしょう。上院多数党院内総務のチャック・シューマーが主導する AI Insight フォーラムには大きな注目が集まってきました。彼は、透明性や説明可能性、国家安全保障、バイアス、市民権といった個別テーマに関する議論に加え、約10の異なるフォーカス・ラウンドテーブルを招集しています。とはいえ、ワシントンの政治的現実は現実としてあります。来年は大きな選挙、非常に重要な選挙を控えています。たとえ上院で、Insight フォーラムや大統領令の実施を踏まえた法案について素晴らしい進展があったとしても、包括的な法案を最後まで成立させることや、私たちが懸念している多くの AI 被害に対処することは、極めて難しいでしょう。 

その空白を埋める形で、多くの州がすでに動き始めています。ニューヨーク市はローカル法144号を可決し、採用目的だけでなく雇用全般における AI 採用技術の使用に対して、バイアス監査を義務付けています。もし貴社が、AI 技術を用いた労働者モニタリング、面接、あるいはチェックインを行っているなら、バイアス監査を実施しなければなりません。実施方法はまだ整理されている最中です。今後は、州政府における AI 人材と効率性を高める法案に加え、分野別の法案も数多く出てくるでしょう。分野別の法案としては、コロラド州に、保険判断におけるデータソースの使われ方や AI によるデータ分析のあり方を扱う保険法があります。この法律はすでに施行されており、現在まさに実施が進んでいます。コネチカット州では、ジェームズ・マロニー州上院議員が州をまたぐ AI ワーキンググループを立ち上げ、バイアスや差別、選挙の健全性といった観点から、これらの問題に強い関心を持つ州レベルのさまざまな議員を集めています。

2024年の大統領選は、バイデン大統領の AI に関する大統領令の執行にどのような影響を与える可能性がありますか。 

CA: 選挙年に入るにあたり、バイデン政権がこの大統領令を可能な限り実施することに非常に注力していることは承知しています。特に、前回の AI に関する大統領令が実施面では十分に成果を上げられなかったという文脈もあります。来年何が起こるかは非常に興味深いです。実際、トランプ氏自身もすでに選挙戦で、就任初日にバイデン大統領の「ウォーク AI 大統領令」を撤廃して言論の自由を守ると発言しています。政治的立場にかかわらず、こうした論点や姿勢は非常に予測しやすいと思います。ここから得られる私の結論は、AI ガバナンスは米国では政治的な争点であり、特にこの選挙に向かう中で今後もそのままであり続けるということです。連邦レベルで注目すべき点は数多くあります。さらに重要なのは、州レベルで何が起きているかにも目を向けることです。なぜなら、こうした課題に本気で取り組みたいと考える新進の選出公職者が数多くいるからです。

来年は欧州でも選挙があります。これは、EU AI法のタイムライン、特に施行開始にどのような影響を与えるのでしょうか。

CD: まったく影響がないことを願っています。影響する可能性はわずかにあります。もしそうなる場合でも、選挙の影響を受けないよう、少なくとも3月までに文言の技術的起草を終える必要があります。したがって、作業は実質的に3月から始まることになります。現時点では、十分すぎるほど時間はあるように見えます。私は特段の支障は想定していません。もし大きな反発があれば、フランスが何らかの形で介入し、法案の阻止を試みる可能性はあります。そのような事態になれば、3月までに合意に至らないリスクがあります。実務上、それは作業が2025年まで延期されることを意味し、少なくとも言うまでもなく厄介です。なぜなら、その時点では新たに選出された議員がいるからです。同じ議会構成ではないかもしれず、異なる優先事項を持つ新しい人々が案件を引き継ぐことになります。

仮にこのまま進むとして、EU 官報への掲載後2年で適用開始となります。おそらく2024年初頭に文書が公表されるため、2026年が多くの AI アプリケーションの適合年になるでしょう。システミックリスクを伴う汎用 AI モデルについては、公表後1年で適用開始することを目指しています。

これで、AI システムの責任ある開発とガバナンスに関する非常に示唆に富んだ議論は締めくくりとなります。Connor、Martin、Chloe、そして Ryan の皆さまには、専門知識と視点を共有していただき、心より感謝申し上げます。 ご参加くださったすべての皆さまにも厚く御礼申し上げます。ぜひイベントページやソーシャルメディアチャンネルで、この対話を引き続きご覧ください。 

ウェビナー全編の録画は YouTube でご覧いただけます。

Enzai は、抽象的な方針から運用レベルの統制へと組織を移行させることを目的に設計された、業界をリードするエンタープライズ向け AI ガバナンスプラットフォームです。私たちのAI リスク管理プラットフォームは、エージェント型 AI のガバナンスを管理し、包括的なAI インベントリを維持し、EU AI法への準拠を確実にするために必要な専門インフラを提供します。複雑なワークフローを自動化することで、Enzai は、ISO 42001 NIST といったグローバル標準との整合性を維持しながら、企業が自信を持って AI 導入を拡大できるよう支援します。

さらに詳しく見る

さらに詳しく見る

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

設計に伴うコンプライアンス

設計に伴うコンプライアンス

ISO 27001

EnzaiISO 270012023NQAInstil

一般データ保護規則 (GDPR)

ISO 27001

EnzaiISO 270012023NQAInstil

一般データ保護規則 (GDPR)

AI

AI

インフラストラクチャ

インフラストラクチャ

信頼を構築するために設計されています。

信頼を構築するために設計されています。

組織がAIを採用し、管理し、監視する能力を、企業レベルの信頼性で強化します。規模で運営する規制対象の組織向けに構築されています。

既存のシステム、ポリシー、AIワークフローを、すべて1つの統合プラットフォームでシームレスに接続します。

既存のシステム、ポリシー、AIワークフローを、すべて1つの統合プラットフォームでシームレスに接続します。