
今週、パリでAIアクションサミットが開催されました。ライアンがこの集まりでの考えと注目点を共有します。
•
•
12 最小読了時間
トピック
米国のJDバンス副大統領がグランパレでのAIアクションサミットで講演を行っているとき、私はOECDでAIの安全性、ガバナンス、倫理についてのラウンドテーブルに参加していました。同じ都市で、ほんの数ブロック離れただけなのに、世界の隔たりを感じました。グランパレではAIの規制の概念がアメリカのイノベーションと活力が中心であるとして政治の象徴となっていました。一方、OECDではAIの規制の必要性がこれまでになく差し迫っていると考えられていました。
これまでに参加した他のAIサミットとは違っていました。ムードは異なり、分裂しており、これは主に現在の西洋の時代精神の反映であると思います。我々は現在、世界中で世論の大きな変化を経験しており、移民、国際貿易、国家の役割に関する議論が西洋民主主義の中で深い社会的分裂を(それがどのように見られるかに応じて)生み出しています。
規制の反発
この分裂はパリで非常に明確に示されました。そこでは政府関係者や業界専門家がAIの最新の発展について議論しました。英国の最初のサミットであるAIセーフティサミットとは対照的に、パリのテーマは急速なイノベーションと取り残されることへの恐れでした。ムードは明確です—それは『プラグイン、ベイビー、プラグイン』1そして先端技術の規制の考えは真っ直ぐに攻撃の的となっています。これは最高の機会主義なのか、それとももう少し危険なものなのでしょうか?
私はこの規制の反発の背後にある感情を理解しているだけでなく、共有しています。それがAIガバナンスのスタートアップの創業者から出てくると奇妙で逆効果に聞こえるかもしれませんが、私は本当にそれを信じています。AI技術が私たちの生活をより良く変革する可能性に非常に興奮しています。その実現には絶え間ないイノベーションが必要であり、設計が悪いルールの枠組みではそこに到達しません。そのようなルールは市場参加者に不必要かつしばしば非現実的な負担を課し、誰の助けにもならず、進歩とイノベーションに対する正当な脅威となります。
しかし、少し考えてみてください。上記の段落で形容詞の「設計が悪い」がすべてを担っているのですが、代わりに役立つルールを設計したとしたらどうでしょう?「良い法律は良くて、悪い法律は悪い」という古い格言はデジタル時代の今、これほどまでに当てはまったことはありません。AI規制が技術の特有の属性やそれが展開される社会的文脈に配慮した、特定の文脈に基づいた形で作成されるとしたらどうでしょうか?それは社会にとって純然たる利益でないでしょうか?良い規制とは、悪意のある者が管理され、違反に対して罰せられることを保証し、社会を前進させようとする組織が高い基準の強い枠組みの中でそれを実現できる方法です。適切な枠組みが整ったとき、イノベーションは参加者全員が同じルールで同じゲームをすることで繁栄することができるのです。
ルールがすべて悪いわけではない
この新しいフレーミングにまだ納得していませんか?では、文脈外のこれらの原則のいくつかを考えてみてください。ラグビーの試合は、それ自体がまさにそうなので、2つの対抗チームがそのルールの下で試合をしています。これらのルールのいくつかのメリットについて議論すべきであるし(私はゴールラインでのホールドアップのルールは攻撃チームに対して厳しすぎ、サスペンスを殺していると思います)、ルールを完全に廃止することを求める人はいません。タックルでの選手の頭部を保護するための最近のルールは、実施が混乱しているが、選手の福祉やゲームの長期生存にとって非常に重要です。実際、これらの新しいルールによりゲームは単に生き延びるだけでなく、繁栄することができるのです。
ソーシャルメディア時代は規制がないことのコストについての重大な教訓を提供します。10年以上にわたって、プラットフォームはそのデータの取り扱いやコンテンツアルゴリズム、若年層のメンタルヘルスへの影響についてほとんど監視されることなく数十億人のユーザーに拡大することが許されました。これはイノベーション第一のアプローチであり、そのマントラはまさに『速く動き、物を壊せ』というものでした。このアプローチの結果は痛ましいほど明らかになりました:Cambridge Analyticaのような未曾有のプライバシー侵害、圧力を受ける民主主義機関、そして青年メンタルヘルスへの記録された害です。規制当局が行動をとり始める頃には、これらの問題は深く根付いており、解決するのが非常に難しくなっていました。
この分析をAI規制に適用する
そして、このパターンがAIでも再び顕在化するかもしれないことがわかります。システムの説明責任よりも速度を優先するとき、私たちは進歩を可能にする基礎そのものを危うくするリスクを背負います。AI規制に対する最も一貫した批判の1つは、それがその重さを担うことができない肩に追加の複雑な規制の負担を課すという議論です。これは見たところでは妥当な批判のように思えますが、EU AI法の場合、そうではありません。リスク管理システム(Article 9)や品質管理システム(Article 17)などを非常にリスクの高いAI技術に適用するのは要求が高すぎることではありません。実際、質の高い企業はこれを商業的利益から当然行っています—これは顧客信頼を構築する助けになるからです。EU AI法が小企業に不当に偏見を持たせていると考えるなら、Article 99(6)での賢い中小企業の罰則に関する整理形態に注目してください。何よりも—AIが医療、法律、金融を変革するのに役立つのと同様に、規制遵守にも役立つのです。EnzaiのAIガバナンスプラットフォームは、組織が包括的なAI遵守プログラムを効率的に、大規模に実施することを可能にします。
AIの責任指令は今年のAIサミットの特に遺憾な被害者です。簡単に思い出すと、この指令はAIシステムに起因する損害を受けた請求者がAIシステムと原因となる損害との間深い因果関係を証明する必要がないように設計されていました。指令はまた、そのQMSとRMSを証明することができる被告に対する強力な反駁可能な推定を提供しました。しかし、結論から言うと、これはプロイノベーションの動きのように思えるかもしれませんが、実際にはまったく逆のものです。その結果は法的不確実性をもたらし、規制緩和の理由に利することなく、逆に不備を悪化させます。
未来への展望
AIアクションサミットの翌日、Anthropicはパリで初のAIビルダーズサミットを開催しました。AnthropicのCEOであるDario Amodeiがサミットの「失敗」を述べ、安全性、透明性、非常に強力なAIの経済的拡張を全員が共有することを再び強調する姿を聞くことができて安心しました。AIの未来は、壮麗な宮殿で一番声の大きい人によって決定されるのではありません。これらの強力なツールを信頼性があり責任ある形で確実に機能させる方法を静かに、着実に追求しようとする人々によって築かれるのです。
1 フランス大統領エマニュエル・マクロンがAIアクションサミットでのスピーチでこのフレーズを生み出しました
組織がAIを採用し、管理し、監視する能力を、企業レベルの信頼性で強化します。規模で運営する規制対象の組織向けに構築されています。