パリからの考察:イノベーションを促進するための規制の事例

グランパレで開催されたAIアクションサミットでJ・D・バンス米国副大統領が発言したのと同時に、私はOECDにいて、AIの安全性、ガバナンス、倫理について議論する円卓会議に出席しました。同じ街で、通りが2、3本しか離れていなかったが、まるで別世界のように感じた。グランパレでは、アメリカのイノベーションとダイナミズムが中心的な役割を果たす中、人工知能を規制するという概念は政治的なピニャータでした。一方、OECDでは、AI規制の必要性はかつてないほど差し迫っていると考えられていました。
これは私が行った他のAIサミットとは異なりました。雰囲気は違っていて分かれていたが、それは主に現在の西洋の時代精神を反映しているだけだと思う。現在、私たちは世界中で世論が大きく変化しています。移民、国際貿易、国家の役割に関する議論が、西側の民主主義国全体で深い社会的格差を生み出している(またはあなたの見方によっては悪化させている)のです。
規制上の反発
政府関係者や業界の専門家が集まってAIの最新動向について話し合ったパリでは、この破綻がはっきりと表れました。英国で初めて開催された「AI Safety Summit(人工知能安全サミット)」と題されたサミットとは対照的に、パリでのテーマは急速なイノベーションと取り残されることへの恐れでした。ムードははっきりしている。今こそ「プラグ、ベイビー、プラグ」する時だ。1 そしてフロンティアテクノロジーを規制するという考えは真っ向から向かい合っています。これは最高の日和見主義なのか、それとももう少し危険なことなのか。
私は、こうした規制の反発の背景にある感情を理解しているだけでなく、共有しています。あるAIガバナンスのスタートアップ企業の創設者からすれば、それは奇妙で逆効果に聞こえるかもしれませんが、私は本当にそう信じています。AIテクノロジーが私たちの生活をより良い方向に変える可能性に、私はものすごくワクワクしています。それを実現するためには絶え間ないイノベーションと、そのためのフレームワークが必要です。 設計が悪い ルールではそこにたどり着けない市場参加者に不必要でしばしば非現実的な負担をもたらすようなばかげたルールは、誰の助けにもならず、進歩とイノベーションに正当な脅威をもたらします。
しかし、少し考えてみてください。上の段落でうまく設計されていない形容詞が、ここで面倒な作業をすべて行っているからです。代わりに役に立つルールをデザインしたらどうなるでしょう?「良い法律は良い、悪い法律は悪い」という格言が、デジタル時代ほど真実になったことはありません。AI規制が、テクノロジーが持つ固有の属性と、それが導入される社会的状況を考慮したコンテクスト特有の方法で起草されたとしたら、これは社会にとって正味のプラスになるのではないだろうか。優れた規制とは、違反行為者を統制し、罰せられるようにするための手段であり、社会を積極的に前進させようとする組織が、高い基準という強固な枠組みの中でそれを実現できるようにするための手段です。適切な枠組みが整っていれば、すべての参加者が同じルールで同じゲームをプレイし、イノベーションを促進することができます。
ルールがすべて悪いわけではない
この新しいフレーミングにまだ納得していませんか?次に、これらの原則のいくつかを文脈から外して考えてみましょう。ラグビーの試合は、まさしく相手の2チームがプレーするルールがあるからこそ成り立っています。私たちはこれらのルールの利点について議論することができ、また議論すべきです(ホールド・オーバー・ザ・ライン・ルールは攻撃側のチームにとって厳しすぎて、サスペンスがなくなると思います)。しかし、ゲームのルールを完全に廃止することを求める人は誰もいません。タックルで選手の頭を保護することに関する最近のルールは、実施するのが面倒ですが、選手の福利と試合の長期的な存続の両方にとって重要です。実際、これらの新しいルールは、ゲームを生き残るだけでなく、成功させるためにも役立っています。
ソーシャルメディアの時代は、規制の不作為の代償について冷静な教訓をもたらしています。10年以上にわたり、データプラクティスやコンテンツアルゴリズム、若者のメンタルヘルスへの影響をほとんど監視することなく、プラットフォームを数十億人のユーザーにまで拡大することができました。これはイノベーションファーストのアプローチであり、文字通り「速く動いて物事を壊す」ことがモットーでした。このアプローチの結果は痛々しいほど明らかになった。ケンブリッジ・アナリティカのような前例のないプライバシー侵害、圧迫された民主的制度、十代のメンタルヘルスへの危害が文書化された。規制当局が行動を起こす頃には、これらの問題は深く根付いており、解決がはるかに困難になっていました。
この分析をAI規制に適用する
そして、このパターンがAIで再びどのように展開されるかがわかります。説明責任のシステムよりもスピードを優先すると、進歩を可能にする基盤そのものが損なわれるリスクがあります。AI 規制に対する最も一貫した批判の 1 つは、AI規制が負担できない人に、さらに複雑な規制上の負担を課しているという議論です。繰り返しになりますが、これは額面通りにはまともな批判のように思えますが、EU AI 法の場合は、まったくそうではありません。リスク管理システム (第9条) (「RMS」) や品質管理システム (第17条) (「QMS」) など、明らかにリスクが非常に高いものの導入は、それほど大きな課題ではありません。実際、質の高い企業は、いずれにせよこれを実行するのです。なぜなら、そうすることが商業的利益になるからであり、顧客の信頼を築くのに役立つからです。また、EU AI法が中小企業を不当に偏見させていると思われる場合は、罰則に関する第99条 (6) のスマート中小企業の定式化に細心の注意を払ってください。とりわけ、AIは医療、法律、金融の変革に役立つように、規制遵守にも役立ちます。EnzaiのAIガバナンスプラットフォームにより、組織は包括的なAIコンプライアンスプログラムを効率的かつ大規模に実装できます。
今年の AI サミットでは、AI 賠償責任指令が特に嘆かわしいものです。念のために言っておきますが、賠償責任指令は、請求者がAIシステムの結果として損害を被った場合に、AIシステムと引き起こされた損害との間に深い因果関係を証明する必要がないようにするためのものです。また、この指令は、QMSとRMSを証明できるすべての被告に有利な、強く反論の余地のある推定値も示しました。それについてはさらに詳しく ここにしかし、肝心なのは、これはイノベーションを促進する動きのように思えるかもしれませんが、実際にはまったく逆だということです。その結果、法的な不確実性が生じ、規制緩和の助けにはならず、規制緩和の穴を悪化させることになる。
未来への展望
AIアクションサミットの翌日、Anthropicはパリで最初のAIビルダーサミットを主催しました。AnthropicのCEO、ダリオ・アモデイがサミットの「逃した機会」について説明し、安全性、透明性、そして非常に強力なAIの経済的高揚を誰もが共有できるようにすることに再び焦点を当てた議論を聞いて心強かったです。AIの未来は、大宮殿で誰が一番大きな声で叫ぶかで決まるわけではない。これらの強力なツールを確実かつ責任を持って動作させる方法を考え出すという、静かで系統的な作業を進んで行う人々によって構築されるでしょう。
1 フランスのエマニュエル・マクロン大統領は、AIアクションサミットでのスピーチでこのフレーズを作り出しました