EnzaiのAIガバナンス製品のフルスイートを探求し、企業がAIを自信を持って管理、監視、拡張するのを支援します。構造化されたインテークや中央集約されたAIインベントリから、自動評価やリアルタイムの監督まで、Enzaiは日常のAIワークフローにガバナンスを直接組み込むための基盤を提供します—イノベーションを遅らせることなく。

Enzai

AI 規制

AIガバナンスの未来:AI専門家からの洞察

AI 規制

AIガバナンスの未来:AI専門家からの洞察

AI 規制

AIガバナンスの未来:AI専門家からの洞察

当社のAIガバナンス専門家パネルは、規制と基準、責任、三重の防衛線などについて意見を述べています。

ベルファスト

ベルファスト

49 最小読了時間

フォーマット

フォーマット

ウェビナーのインサイト

ウェビナーのインサイト

トピック

トピック

専門家パネル

専門家パネル

トピック

NIST AI RMF、リスク管理、米国標準、ガバナンスフレームワーク

トピック

私たちは、最近のウェビナーでの専門家パネルの洞察を共有できることを非常に楽しみにしています。コナー・ダンロップ (CD)、エイダ・ラヴレス・インスティテュートのヨーロッパ公共政策リード、マーティン・コーダー (MK)、SWIFTの AI ガバナンスリード、クロエ・オーティオ (CA)、AI ポリシーおよびガバナンスアドバイザー、およびライアン・ドネルリー (RD)、AIガバナンスソリューションのEnzaiのCEOを特集しています。 

パネリストの回答は、長さと明確さのために編集されています。 

先週のEU AI法の議論の最新ラウンドの後、主な論争点として何を見ていますか? また、来年EUからどのような進展を期待していますか? 

CD: これは、ブリュッセルとEUにとって非常に大きな瞬間です。AI法に政治的合意があり、それは世界初のAIの水平規制を示すことになります。この瞬間は大きな出来事でした。多くの論争点はないことを望んでいますが、今後の技術的な起草でいくつか見ることになるでしょう。しかし、論争点や来年に向けた進展について話す前に、AI法が重要である理由と、政治的合意があることに我々が関心を持つべき理由を簡単に述べたいと思います。前述のように、これは世界初のAIの水平規制であり、いくつかのAIシステムの使用を実際に禁止することになるため、これは興味深いものです。例として、公共の場でのリアルタイムリモートバイオメトリック識別は完全に禁止されます。法執行機関による使用にはいくつかの例外がありますが、今週の焦点はその例外の範囲についてでした。 

欧州委員会によれば、高リスクなAIシステムはシステム全体の5〜15%を占める可能性があります。これには、法制度や法執行機関など、公共セクターの多くの使用事例が含まれるでしょう。教育、医療などの他の高影響部門も同様です。法律はリスク管理、データガバナンス、人間の監視を維持するための規則を定めます。  先週合意されたばかりの新しいカテゴリーがあるかもしれません。法律の草案は、システムを禁止システム、高リスクシステム、低リスクシステムに分類しており、現在、一般目的AIモデルのための「システムリスク」カテゴリーが導入されています。ここでの論争点となるかもしれないのは、AIシステムがシステムリスクをもたらすと評価される計算閾値です。現在、その閾値は私たちの研究所の意見では非常に高く、10^25 FLOPsの提案された閾値は、市場に出回っているのはGPT-4一つのみです。Google DeepmindのGeminiも含まれるかもしれませんが、まだ明確ではありません。

2024年に予定されているものに関しては、年初に法制の技術的な文章化に焦点があり続けるでしょう。利害関係者はそのプロセスに影響を与えようとするでしょう。AI法の前文や法律文の明確化が重要です。その作業は来年初めに見過ごされてはならないものです。興味深い進展の可能性としては、系統的に一般目的AIモデルのための実践規範の合意があります。最初は一般目的プロバイダーのための非拘束的ガイドラインの形式で登場します。これは市民社会が関与するための道を提供します。来年の第2四半期頃から、この実践規範に多くの焦点が当てられるでしょう。これがうまく機能すれば、標準設定プロセスの民主的赤字に対応できるかもしれません。最後に強調したいのは、EUのAI責任指令に対する取り組みです。ただし、来年のEU選挙のために中断されるでしょう。

ヨーロッパでのAI安全の話題を議論してきました。長い間、アメリカは規制でのリーダーシップを取っていませんでしたが、バイデン大統領のAIに関する大統領令により、それが変わりました。アメリカの雰囲気はどうですか?この大統領令が来年どのように実施されると見ていますか

CA: 簡単な概要として、EOはUK AIサミットの直前である10月30日に発表されました。この大統領命令は、バイデン政権におけるこれまでの最大かつ最も包括的なテクノロジーやデジタル政策に関連するEOであり、そのページ数は111ページにわたります。これは、政権がこの問題に対してどれほど意図的であり、積極的であろうとしているかを示しています。

EOは50の異なる組織を活性化し、多くの実施を主導しているのは商務省であり、特にNIST(国家標準技術研究所)で、AIリスク管理フレームワークに関する彼らの活動状況で知られているかもしれません。これは、AIガバナンスに関する主要な自主的な標準フレームワークです。また、150以上の新しい指令を作成しており、行動、報告、指導、およびルールや政策のあらゆる形態を含み、次の30〜365日以内に実行される予定であり、多くの作業が残っています。そして、この受け入れは非常に好意的です。

キャピトルヒルでの人々、政権、産業界との議論では、大統領の示した道筋に対する大きな興奮が見られ、その実施方法に対する関心も高いです。 

これは、信頼できるAIについてのトランプ政権の大統領命令とは異なります。大統領令には多くの指令がありましたが、それらは最終的に実行されませんでした。その中には、AI使用ケースのカタログ化、さまざまなリスク管理指導の開発、管理予算局によるAIの責任ある採用と実施に関するメモの作成などが含まれていました。これらは最終的にできませんでした。そのため、この大統領令によって、トーンとテンポがより実施に焦点を当てたものになると思います。全政府アプローチを見て、それを実現する方法を探るということです。 

EOが出る前に、アメリカ政府が実際にAIガバナンスに関する多くの作業を行っていたことを理解することが重要です。議会がEUで見られるような広範な包括または水平のAI法律を通過させていない一方で、政府間で、EEOC(米国平等雇用機会委員会)、NIST自体、消費者金融保護局(CFPB)などの多くの機関が、よく知られているAIの害を対処するためのさまざまな種類のガイドラインを公表しています。この大統領命令は、多くのこれらの機関が行っている優れた作業に基づいています。これらの作業が、この大統領令の方向性を決定するのに役立ちました。

EOは幅広い問題に取り組んでいます。モデルアクセスに関連する国家安全保障や将来のリスクへの保護に焦点を当てています。また、プライバシーや消費者保護、IPにも多くの焦点をあてています。 

この文脈での機関の要件は、データプロバイダーからのデータの調達源を特定し、そのプライバシーへの影響、つまりこれらのモデルのデータがどこから来るのかを本当に理解するために異なるデータソースをカタログ化することです。私自身、この点について多くの市民社会活動家や提唱者とともに、その展開を楽しみにしています。米国特許商標庁は、AI発明に関するIP規則と指導に関する新しいガイドラインを出す予定です。これも非常に興味深いことになるでしょう。 

EOはまた、平等と差別禁止の問題に多くの焦点を当てています。米国政府の主要規制機関、DOJ、EOC、DHSの他の機関に対し、AIの害に対する対策をどのように投資し、新しいガイドラインを作成するかを決定させるよう依頼しています。このようなことを行うための協調的な努力はまだ見られていませんが、EOはそれを正式化しています。住宅、ローンの可用性、など、私たちが長い間よく知られているAIの害として記録されている問題を取り上げています。政府がこれらの問題に対してどのような執行戦略を立てるのかを見守るのは本当に素晴らしいことです。

EOは労働者の権利にも関与しており、政府契約者が採用プロセスでどのようにAIシステムを利用しているか、または利用している可能性があるかについてのガイドラインを提供するよう、機関に依頼しています。英国のAI安全研究所については皆さんも聞いたことがあるでしょう。NIST自体もAI安全研究所を設立し、基盤モデル、AIモデルのセキュリティと堅牢性を調査する多くの作業を行い、既存のリスク管理プロセスを基にしてこれらのモデルのセキュリティを向上させる計画を立てています。

最終的には、この大統領命令は米国政府内でのAI人材の強化に非常に焦点を当てています。悲しい統計ですが、現実です。米国で卒業するコンピューターサイエンスとAIの博士課程修了者のわずか1%しか連邦政府に参加していません。多くの非常に才能のあるAI専門職が民間部門、アカデミア、大手研究所に進んでいますが、その一部しか公共部門で働き、公共サービスを向上させるために貢献していません。大統領命令は、米国、AIで訓練された外国生まれの人々が米国に留まって米国のエコシステムに貢献できるようにするために、移民政策に小さな変更を加えるという新しい規則と変更を作成します。これがこの大統領命令に振りかけられたキーテーマの非常にハイレベルな概要です。

英国で何が起こっていますか?あなたはダウニング街の政府とともに、シニアAIリーダーとの議論に深く関与してきました。AI安全サミット以来、進展はありましたか?

RD: 英国における進展を簡単に要約すると、政府は人工知能の規制に対してプロイノベーションアプローチから始まりました。英国を世界の人工知能のリーダーとして確立する考えです。これは、才能をプロモートし、組織が過度に負担されないようにするための多くの点を触れています。そして、これらの素晴らしい技術を中心に官民連携が本当に革新を促進できるインフラをどのように設定するかについてです。それに関する最初のホワイトペーパーは数年前に発表されました。我々は会社としてこれらの直接提案にフィードバックしました。初期の頃、それはガイダンスとして始まりましたが、時間が経つにつれて、彼らが受け入れたフィードバックの一部は、人工知能に対するプロイノベーションアプローチには「牙」がないというものでした。政府はこれを聞き入れて、AIを規制するか、AIを規制しないかの選択肢を与えられました。 

プロイノベーションアプローチの第2の草案はかなりクリエイティブでした。2つのオプションがあると言いましたが、3つ目のオプションがあったかもしれません。英国におけるAI規制の計画は、既存のセクター規制当局に規制の負担を押し付け、「貴方は金融行動監督機関や競争当局です。既にあなたの分野を規制していますね。あなたは既存の管轄内でAIの使用方法を検討するべきです。」とするというものです。これは、業界に対して義務を課すアプローチです。

AI法案をさらに進めて導入するという話もありましたし、確かに政府はこれを詳細に検討しました。安全サミットにおいては規制を導入しようとしないという決定がされました。自動運転車やオフビークルに関する追加の法案がありましたが、EU AI 法のようなものは特にありません。おそらくこれを現在の時点で考えていた人々もいるかもしれません。新年にはプロイノベーションアプローチの新しい草案が発表される予定で、私はDSITの人々とかなり近くで話てきました。ヨーロッパで見られるような水平な法律が英国で発表されることは非常に考えづらいです。

このアプローチはいくつかの点で異なります。 業界別規制に負担を押し付けることでレギュレーター間での調整機能がないという点です。背後で全体をまとめる中央機能がなく、 一部のレギュレーターは価値連鎖のある側面について異なる解釈をするかもしれません。市場には多くの不確実性があるため、政府はホワイトペーパーの最新バージョンでこのフィードバックに対処しています。同じように、特定のセクターやそれに付随する微妙な点を考慮する必要があるとされるEU AI法に対する批判も実行的には真逆です。 

私たちは今、米国、EU、英国の異なる規制アプローチについて議論しました。また、ブラジル、中国、世界中で同様の取り組みが行われていることも知っています。なぜ国際協調が非常に価値があると考えられ、世界基準の設定の利点は何ですか?

MK: 私は、いくつかの問題に取り組むためにSWIFTが取っているアプローチについて話すことが嬉しいです。SWIFTは国際間の金融通信のための会社、営利を目的としない組織であり、国際的な送金メッセージングのインフラを管理しています。SWIFTはガバナンスに関して非常に重視しています。 私たちが顧客、大手金融機関に話している方法は、既存の金融サービスプロバイダーに既に存在する非常に広範かつ成熟したリスク管理能力を指摘することです。3つの防衛ラインモデルの下で、ベンダー管理、プロダクトガバナンス、データガバナンス、セキュリティ管理、プライバシー評価など、数多くの委員会のプロセスやレジェンドがこれを見ています。これは法制策者が見たいと考えていることに関して70%整合しています。 

いくつかの分野で1、2カ所のギャップがあるかもしれません。しかし、これであればAIガバナンス規則のボキャブラリーを使用する問題かもしれません。判例がリスク責任を意味すること、非差別などの原則として公平性などです。 

これまでの多くのプロセス - リスク評価、識別、影響モニタリングなど - から、責任あるAIのために規制当局が探している指標に対して求められる経営情報を抽出するケースかもしれません。これらの指標は、公平性、監査可能性、説明責任、正確性などのさまざまな次元にわたります。そして、その情報を幹部レベル、取締役会、チーフリスクオフィサー、ジェネラルカウンセルといったデーター専門知識またはAI専門知識を持たない組織の上級意思決定者に標準化された方法で提供することで、繰り返し可能であるべきであり、リーダーシップがその上で意思決定し、誰にでも利用可能にすることができる保証と共に提供するべきです - それがレギュレーターでも、顧客でも、その他の利害関係者でも。

私は、お客様に言いたいことは、パニックになる必要はありません。もちろん、成熟した機関であれば、AIガバナンスに対処するための非常に多くのリスク管理能力を既に持っているからです。

グローバルな基準については、会社の文化、汎用的リスク管理プロセスを行う能力、そして持っているインフラが、保証出力を利用可能にします。自社の環境で独自の基準を設定することができます。その後、様々な戦略により、例えば顧客基盤の中の人々とのパートナーシップ、ベンダーグループとの間、学者との間、新しい分野での基準を理解し、地域の文脈を学ぶためにその保証を再パッケージして提供することができます。 

コナーはカテゴリーや閾値について話していました。これは単なる規制の作業方法であることを恐れています。レギュレーターは常にバケットを作成します。そして、物事が間違ったバケットにある、または閾値が誤ったレベルにあると人々は不満を言いますが、それは時間を掛けて変化します。機械学習に多くの専門知識を持たないポリシーオフィサーは世界中でかなり良い仕事をしていると思います。NISTは続けるべき主要な組織です。AIガバナンスのベストプラクティスについて何があるか、浮動する規制基準にどのように対応するかに関するノイズは非常に多いです。実際、昨年に比べてノイズに対するシグナルが大幅に悪化しました。本当に信頼できる組織を見極めるための透過性を得るのが非常に難しくなりました。最も効果的なことは、既に持っているもの、例として3つの防衛を活用することです。

ライアンのイギリスに関するポイントについて、私はイギリスが3つの側面でかなり巧妙だったと考えています。まず第一に、AI安全研究所を設立しました。イギリスはAI基盤モデルの最先端を見る準備をしているように感じます。イギリスは基準設定機関のメンバーであり、EU規制の基準を設定する権限のある標準設定機関の一員です。ある意味では、基準設定フェーズに関してEU法で席を保持しています。第三に、EU法の要件として、リスク管理システムがある会社がデモンストレーティングする必要があるため、ロンドンに拠点を置く多くのプロフェッショナルアドバイザリー企業にとってボーナスになるでしょう。だからかなり多くの企業がその法律からビジネスを得るかもしれません。

3つの防衛ラインを言及されています。これは、金融サービスや保険業で本当に馴染みのある概念ですが、他の業界ではそれほどではありません。AIリスクを管理する際に、3つの防衛ラインはどれほど適用可能であり、他の組織もこれを検討するべきだと考えますか?

MK: それはあなたがどのセクターにいるかに依存します。一般的には、AI安全サミットから出てきているメッセージは、世界の歴史の中で、利用が人々を緊張させるとされたが、もはやそうではないセクターが特定されたということです。航空、または一般的な輸送技術、医薬品のフェーズアプローチにしても、歴史としてこのセクターの標準にとてつもない近似を持っていることなら、ほとんどの人が心配せずに飛行機に乗れるのは厳重な安全チェックと規制があるからです。 そのため、多くの専門家によって検討され、現実に評価されているところでも、多くの人がそのセクターに対して期待していることは、基準の転送性を見てAIユニバースに適用することです。

3つの防衛ラインは金融サービスセクターにかなり特有です。ただ、その本質は他の業界にとっても依然として意味があります。最初のラインはビジネス、プロダクトオーナーです。彼らはリスクを所有し、リスクを識別し、コントロールを識別し、緩和策を導入し、アウトカムを監視する責任があります。事業が持つ責任です。 2番目のラインは、すべてのサポートパートナー、リスクマネージャー、弁護士、データガバナンスチーム、サイバーセキュリティチームなどです。これにより、ビジネスにはさまざまなプロジェクト定義されたリスクアペタイトに対して、すべてのリスクを定量的に評価し、すべてをモニタリングするための分野専門知識が提供されます。2番目のラインは監視を支援します。 そして3番目のラインは、定期的に入会し、行ったすべての作業のリスクを特定し、管理するために言った通りになっているかどうかを確認する監査人です。一般的に見て、そのセクターにすでにある安全対策を持ち、これからのセクターに対する転送性があるかどうかということになります。

測定は、自分がしていることに特有でなければなりません。ビジネス対ビジネス(B2B)の場合、タブラー型データバックオフィス、ロジスティック回帰検出プロセスである場合、AI利用による最大のリスクは本質的な権利の問題ではありません。 

リスクの所有についての面白いポイントを触れました。これは、かなりアカウンタビリティの問題、すべての価値連鎖に沿ってAIリスクを管理する上で、最終的なアカウンタビリティがどこにあるかという問題になります。あなたは、価値連鎖のどこにアカウンタビリティはあると考えますか?

CD: 我々アダラヴレスインスティテュートではこの質問について考えることが多くなってきました。マーティンが言ったことに加えて、これはAI約束連鎖に対する多くの防衛行程の概念と非常に一致しています。EU AI法律問題の課題の1つは、製品の安全レンズを使用したため、配備フェーズに焦点を当てることでした。我々の研究所での我々の研究では、それがはるかに複雑であることが絶えず見つかっています。リスクは価値連鎖のいずれの段階でも発生する可能性があるため、アカウンタビリティをどこに割り当てるかには一つの決まった答えはありません。 

明らかなのは、アカウンタビリティは価値連鎖に沿って配分されるべきだということです。例えば、デザインと開発段階での決定や、トレーニング中にモデルに追加するデータの選択は、実際には展開されるアプリケーション層に影響を与える可能性があります。リスクがどこから発生するのかを考えることは有用な概念です。リスクの発生源は非常に重要です。リスクの増殖も同様に規制当局が注目すべき重要なポイントです。例えば、クラウドホスティングサービスにアップロードしたとき、またはAPIアクセスを通じて提供された場合、害をもたらす可能性のある何かが広範にアクセスされることにより、リスクが増幅されることがあります。これが、規制当局が介入の可能性を見つけるためにリスクがどこから発生し、どう減らせるかを尋ねる際の有用なポイントになるかもしれません。

アカウンタビリティがどこにあるかを明確に言うことはできません。それは共有されるべきであり、リスクがどこから発生するのかに対して非常にターゲットされるべきです。他のセクターから学ぶという興味深いガバナンスモデルがいくつかあります。例えば、3つの防衛ラインですが、最近見ているのが生命科学の規制で、AIのためのFDAのようなものです。この件に関する研究をまもなく出版する予定です。 重要なのは、高い価値のある情報にアクセスし、開発者と規制当局の間で見られる情報の非対称性に対処することです。例えば、食品医薬品局(FDA)は医療機器を規制するための情報にアクセスできます。製品のライフサイクル全体を通じて、開発者と規制当局の間に進行中の関係があります。特定の基準に基づくターゲットサーチを持つオプションがあり、リスクの発生源が非常に明確でない価値連鎖に対処するための良い方法です。チェックポイントを見つけることで連続的な学びと倍増を図ることができます。

市場前段階での開発者や雇用主の中において多大なアカウンタビリティがあります。その後、市場後段階ではライフサイクル全体にわたってリスクを評価し、監督できる強力な規制当局が必要です。これは、マーティンの言う2番目と3番目の防衛ラインに至るまでのことであり、監査人や、マーティンが言及したように検証されたレッドチーミング担当者のアクセスで支えられ、検査エコシステムと呼ばれるものによって支えられるべきです。

主な課題はインセンティブの問題です。AI法は、独立した監査または検証されたレッドチーム担当者との逆試験を行う義務を設けられない可能性があります。ですから、そうしたタイプの調査をコミットしないプロバイダーに対する黎明期に何のインセンティブがあるのかということです。これが今後の焦点になるだろうと考えています。

NISTリスク管理フレームワークとEU AI法をマッピングするドキュメントを作成していますか?という観客からの質問があります。

CA: リスク管理フレームワーク(RMF)とEU AI法、他の提案とのさまざまなマッピングの取り組みが数多く行われてきましたし、それらを皆さんに共有できるいくつかのリソースを提供することができます。 

MK: そんなドキュメントが存在していたとしても、ある特定の管轄内の要件についての法的確実性を完全に獲得する時点はないでしょう。これは常に動的なものになるでしょう。常に不確実性を伴って運営され、慣れることが必要です。解決策の一部は、自分の文脈に合わせた独自の基準を開発することです。最初に戻り、政策担当者に任せるのではなく、コンテキストでそれを解明することです。独自の基準を定義し、それらに基づいた監査トレイルを作成することです。アカウンタビリティの透明性を提供したい場合に、その監査トレイルを使用することができます。ライフサイクルのすべての段階で使用できます。

しかし、異なる管轄区域の基準と要件を完璧に組み合わせ、組織がチェックボックスを塗りつぶすだけでそれらすべてがうまくいくと考えることは考慮しすぎです。これは動的な環境になるでしょう。 

RD: 同感です。近々無料のAIポリシーガイドを発表しますが、その点に触れることで、自分の組織に合わせてこれらのフレームワークをカスタマイズし、何が重要かを理解する必要があることを強調しています。オフシェルフで物事を展開することはないです。 

知的財産についての質問があります。この分野における知的財産はどのように展開されると思いますか? 

ライアン: すべてこれに関するインセンティブも重要な要素であり、インセンティブは必ずしも考えている通りではありません。現在の例を挙げると、これらの大規模なモデルが大量のデータを入手してAIの学習を行う際に、多くのデータを使用しているため、知的財産に関する深刻な懸念があります。 大きな基礎モデル所有者の中でも、非常に大きいデータセットを既に所有しているプロバイダーは、知的財産の保証を提供し、「世界中で知的財産法に違反したとして誰かが損害を言い立てた場合、私たちはあなたを免責します。私たちはこのモデルのトレーニングに使用されたすべてのデータを確実に所有していると考えているので、私たちは自信を持ってこれを保証できます。」と発表しています。これがそのような製品に対する信頼の一助とされています。

特定の知的財産やこれらの大規模モデルに関する規則を待つ代わりに、組織はそのリスクを顧客の手から完全に取り除く方針をとっています。私たちのツールを信頼できるものにしましょうというものです。これは実に強力で、インセンティブが最初に考えていたものとは異なることを示しています。たとえばサイバーセキュリティ分野での参照となるのは、SaaS(サービスとしてのソフトウェア)ビジネスのISO/IEC 27001やSOC 2などのすべてのセキュリティ基準です。そしてなそれは多くのサイバーセキュリティ基準の下で規制当局によって要求されていないものです。 

しかし、市場のインセンティブは、基準を遵守しないと誰もあなたのソフトウェアを購入しないため、組織に基準を遵守することを推奨しています。そういった市場インセンティブが時々見落とされています。

大統領令は非常に大きな影響を持ちますが、米国では州レベルでも多くのイニシアティブがあります。たとえば、ニューヨークの地方法144などがありますが、州レベルでそれぞれ特定の業界に焦点を当てています。これらの動きがより広範な連邦政府の動きとどのように相互作用すると思いますか?

CA: とても良い点です。来年は特に議会の動きが欠如している中で、多くの州が活動を開始することでしょう。多数派リーダーチャック・シューマー元議院議長が、透明性と説明可能性、国家安全保障、バイアスと市民権などの個別トピックについて主要AIアカデミックとの討論フォーラムを開催し、現在議論を行っています。 しかし、ワシントンの現実の政治状況は何であれ、非常に重要な選挙があります。来年、そのようないくつかの進展の進行状況に基づく法案、特にインサイトフォーラムと大統領令の施行に関するもの、で総合的な法案が完成し、多くのAIの害についての問題の多くに対応することは非常に難しいでしょう。

その中で多くの州が既に乗り出してきました。ニューヨーク市が地方法144を可決しました。これは、AI採用テクノロジーの偏見監査を要求します。採用はもちろん、雇用でも使用される技術に対して行われます。企業が労働者の監視、または面接、チェックインを行う技術によってAIを利用している場合、偏見監査を行う必要があります。実施はまだ整理されています。セクター別の法案や州政府のAI人材と効率を強化する法案が多数出てくるでしょう。具体的なセクター法案に関しては、コロラドでは、AIによるデータ分析がどのように行われるかの中にある保険法があり、現在のところは実行中です。コネチカットでは、州議会委員ジェームズ・マロニーがAIに関心を持つ異なる立法者たちを州レベルで集めてAI作業グループを導入しました。 

2024年の大統領選挙がバイデンのAIに関する大統領令の実行にどのような影響を与えると思いますか? 

CA: バイデン政権は、大統領令の実施をできるだけ進め、選挙年に進むことに非常に集中しています。前のAIに関する大統領令が実施時に明確に終わらなかったことを考えると、来年何が起こるかを本当に興味深く見守っています。トランプ自身、選挙キャンペーンで既にバイデン氏の「覚醒したAI大統領令」を廃止し、表現の自由を保護すると言及しています。 あなたの政治的な立場次第ではないかもしれませんが、これらは非常に予測可能な話のポイントであり、私のここでの教訓は、AIガバナンスがアメリカで政治的な問題であり続けるということです。連邦レベルで多くを見ることがあります。もっと重要なのは、州レベルで何が起こっているかに注意を向けることです。ほかにもこれらの問題に非常に関心を持って取り組みたいと思っている注目の新しい州議会議員が多数います。

来年にはヨーロッパでも選挙が予定されています。それがEU AI法が発効するまでのタイムラインにどのような影響を与えると思いますか?

CD: 私はそれがまったく影響を与えないことを期待しています。しかし、多少影響する可能性もあります。そうなった場合、選挙の影響を受けないためには、文章の技術的な起草を3月を遅くともまで行う必要があります。したがって、作業は実際には3月から始まります。現在、彼らは十分すぎるほどの時間を持っているように見受けられます。私は混乱しにくいと思っています。もし著しい反発があった場合、フランスなどが動き回って法案を阻止しようとする提出があった場合を除いて、協定は3月までに達成していない危険があるでしょう。事実上それは2025年まで延期されることを意味し、あまり私たちの期待ではなく、次の選ばれた議会メンバーとなり、この場面でファイルを選び出して異なる優先事項で新しい人々が関与することになるでしょう。

実際に法案が進めば、EUの公式ジャーナルに公開された後、適用まで2年間の準備期間があります。彼らは2024年初めに文書を公開する予定であるため、2026年はほとんどのAIアプリケーションが施行される年になります。システムリスクをもたらす一般目的AIモデルに関する場合は、公開されてから1年後に適用されることを目指しています。

AIシステムの責任ある開発とガバナンスについての非常に洞察に満ちた討論が終了しました。パネリストのコナー、マーティン、クロエ、ライアンに心から感謝し、専門知識と視点を共有していただきました。すべての参加者の皆さん、参加いただきありがとうございました。イベントページやソーシャルメディアでこの対話を続けてください。 

ウェビナーの完全な録{

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

設計に伴うコンプライアンス

設計に伴うコンプライアンス

ISO 42001

AI

一般データ保護規則 (GDPR)

ISO 42001

AI

一般データ保護規則 (GDPR)

AI

AI

インフラストラクチャ

インフラストラクチャ

信頼を構築するために設計されています。

信頼を構築するために設計されています。

組織がAIを採用し、管理し、監視する能力を、企業レベルの信頼性で強化します。規模で運営する規制対象の組織向けに構築されています。

既存のシステム、ポリシー、AIワークフローを、すべて1つの統合プラットフォームでシームレスに接続します。

既存のシステム、ポリシー、AIワークフローを、すべて1つの統合プラットフォームでシームレスに接続します。