組織内でエージェンティックAIが普及し、ワシントンDCでは新政権が誕生し、EUのAI法に関する明確な指針が示される中、2025年は非常に興奮する年になることが期待されます。
•
•
19 最小読了時間
トピック
パネル参加者:
Jamaur Bronner、共同創設者、The Foregrounds
Monika Viktorova、Responsible Tech Product Manager、物流業界
Jason Green-Lowe、エグゼクティブ・ディレクター、Center for AI Policy
モデレーター:Var Shankar、Chief AI and Privacy Officer、Enzai
VSによる導入:
パネリストを紹介します。
本討論ではAI政策と技術に焦点を当て、変化の大きい2025年を見据えています。
第1部:2025年、AIはどこへ向かうのか?
MV:
悪い面: 生成AIの悪用は、利用しやすさと低コスト化により増加しています。例として、詐欺目的の音声クローン、CSAMの作成、大規模な偽情報拡散が挙げられます。悪意ある行為者は、この技術を効果的に悪用しています。 正規の組織においても、チャットボットが誤情報を提示したり、社内方針の範囲外の解決策を提案したりするなど、注目度の高い失敗が発生しています(例:Air Canadaの事例)。 GenAIは幻覚を起こしやすく、利用者の望みに合わせて応答を調整する傾向があるため、リスクが生じます。 具体例としてはCharacter.AIがあり、拒食症を助長するチャットボットが脆弱な10代に影響を与えており、ガードレールの不十分さを浮き彫りにしています。
良い面: GenAIは科学的発見、とりわけ科学および医療において大きな進歩を牽引しています。 タンパク質折りたたみ予測(AlphaFold 2)がその代表例であり、創薬設計および開発を加速しています。
組織において: GenAIは業界横断で広く導入されています。 営業・マーケティング部門は、コンテンツ作成や個別化されたアプローチに活用しています。金融などの分野におけるCRUDアプリケーションでは、(ガードレールと人間の監督のもとで)報告書の自動作成にGenAIを用いることで、生産性が大幅に向上しています。 検索拡張生成は、膨大な文書リポジトリとの対話を可能にし、情報管理を支援します。 ただし、幻覚に関する利用者教育と情報源の検証は不可欠です。
重要な示唆: 生産性を拡張できる可能性は非常に大きい一方で、強固なガードレール、利用者教育、そして幻覚への対処が不可欠です。大企業向けのROIと価格モデルは、なお重要な論点です。
JGL:
基盤モデルにさらなる改良がなくても、技術革新には依然として大きな未開拓の可能性があります。組織は、現在のモデルを活用し、新たな市場ニッチを探索し、対話手法の「足かせ」を外すことに注力する必要があります。 現在の対話は限定的です(テキストベース、短いプロンプト、即時応答)。しかし将来的には、より大きなコンテキストウィンドウ、AIの「思考時間」、自己プロンプト、多様なメディアでの対話(音声、動画、音楽、車両制御)、さらにはロボティクスとの統合による現実世界へのインパクトが想定されます。
モデルのスケーリングが一時的に減速しても、進歩が無期限に止まるわけではありません。電力、データ、資金調達といったボトルネックは指数的成長に影響を及ぼす可能性がありますが、線形的な成長は引き続き見込まれます。 2025年のモデルは2024年のモデルより大幅に高性能になる可能性が高いでしょう。 性能が頭打ちになっているという報告は、各社が投資や真の進捗について戦略的に口を閉ざしているため、誤解を招いている可能性があります。
第2部:2025年、政策はどこへ向かうのか?
JGL:
米国の政策不確実性: 選挙期間中、AIについての議論はほとんどありませんでした。共和党綱領では、Biden氏のAI大統領令を「自由な言論」と「人間の繁栄」に基づくAIに置き換えるという謎めいた言及があるのみです。
「自由な言論」の側面: 偽情報への懸念(検閲と受け止められる)や、政治的正しさへの反発が想定されます。
「人間の繁栄」の側面: 意味は不明確ですが、AIに関するバチカンの見解、家族福祉と適切な職務に関するシカゴ学派経済学の研究との関連が考えられます。
多様な助言者: トランプ政権のAIアプローチは、現時点では多様な助言者がいるため不透明です。
期待: 超党派のAI Safety Instituteのような取り組み、テストと安全基準で革新的企業と協働すること、セキュリティ・ガードレールの実装を通じて、米国が引き続き主導的立場を維持することです。
MV:
米国とEU: 米国の大統領令は任意遵守に焦点を当てていますが、EU AI Actには厳しい罰則(数百万ユーロ規模の罰金)があります。EUのアプローチは、将来の米国政策における同様の罰則の参考になる可能性があります。
グローバルな規制環境: 断片的な環境であり、中国、ブラジル、オーストラリアなどで規制が生まれているため、プロダクトチームや経営層に摩擦と課題をもたらしています。 多国籍企業は、さまざまな法域に対応するため、製品ロードマップ、機能セット、基盤アーキテクチャ、モデルを適応させる必要があります。
EUの執行: EUがGDPRに基づく高い注目を集める執行事例と多額の罰金に重点を置いてきたことは、AI Actの執行のモデルとなり得ます。これにより、特に多国籍企業が製品開発および展開にどう取り組むかに影響を及ぼすでしょう。
第3部:これは組織と実務者にとって何を意味するのか?
JB:
スキル向上と適応: AIへの適応は一貫性を欠き、不十分であり、懸念を生んでいます。多くの企業はGenAIを戦略的に重視している一方で、スキル向上計画が不足しています。組織はAI教育と標準化に注力する必要があります。
ROIの測定: CursorやGitHub Copilotのようなツールによる生産性向上は、個々の開発者だけでなく、組織全体で追跡し、拡大していく必要があります。
リスク軽減: 標準化されていないGenAIの利用は、組織を重大なリスクにさらします。逆向きテスト、人間による監督、慎重な分析が不可欠です。
スキルセットの変化: GenAIツールにアクセスできる若手開発者は「AI対応開発者」となり、創造的な問題解決とソリューション設計に注力するようになります。これにより、職務記述書、人事慣行、業績評価の見直しが必要になります。
雇用代替への懸念への対応: 一部の職務機能は再配分される可能性がありますが、焦点はAIを推進役として活用することに置くべきです。責任ある組織は、職場、ワークフロー、職務記述書を再構想し、新たな機会を創出すると同時に、人間の監督を効果的に活用すべきです。
組織への影響/ベストプラクティス: 多くのベストプラクティスは、伝統的なコンサルティング会社やビジネススクールではなく、十分なリソースを持つ組織やケーススタディから、まさにリアルタイムで生まれています。
JB 続き: ベストプラクティスの出典
基盤モデル提供企業: LLM University(Cohere)などの教育イニシアチブや、OpenAIによる同様の取り組みは、貴重なリソースを提供しています。
AI教育パートナー: The Foregroundsのような組織は、ケーススタディをまとめ、成功と失敗を評価し、専門家へのインタビューを通じてベストプラクティスを理解し普及させています。
社内のAI倫理/ガバナンスチーム: これらのチームは、組織内でのコンプライアンス、責任ある導入、部門横断の整合を推進します。
政府および政府向け機関: シンガポールのNational AI StrategyやCenter for AI Policyの活動のような取り組みは、関係者の整合を通じて世界的なベストプラクティスに影響を与えています。
JB 続き: 起業促進
次期政権が起業促進を重視し、従来保守系政権が優先してきた分野(防衛、先進製造)への投資拡大の可能性や、Elon Muskのような人物の影響が相まって、起業環境に変化が生じる可能性があります。
防衛: AndurilやPalantirのような企業には、機会が増えると見込まれます。
先進製造とロボティクス: 製造能力の国内回帰に注力し、AIはブルーカラー職を置き換えるのではなく支援する方向で活用されます。FigureやElon Muskのヒューマノイド・ロボティクス分野での取り組みがその例です。これは産業製造の観点からも興味深い機会をもたらします。
クリエイティブ産業: 音楽生成、動画制作、画像作成などにAIツールを活用する新しい起業家・クリエイターが増えています。こうした人々は、SaaS製品における専門知識の高まりと同様に、これらのツールのエキスパートになりつつあり、参入障壁を下げ、新たな起業を促進しています。これは製品開発ライフサイクルの効率化によって実現され、より迅速な反復と展開を可能にしています。
医療と教育: これらの分野には魅力的な可能性がありますが、過去の保守的なアプローチを踏まえると、新政権がこれらの分野におけるAIの大規模な拡大を支援するかどうかは不透明です。
MV続き:小規模組織
大規模組織におけるGenAIの優位性: 多国籍展開を持つ大規模組織は、より多くのデータとリソースを保有していることが多く、生成AI開発で優位に立ちます。一方で、大統領令、AI Act、中国・ブラジル・オーストラリアの規制など、さまざまかつ時に相反する規制上の懸念に直面します。この断片化した規制環境を乗り切ることは、製品開発と展開をより複雑にします。
小規模企業と起業家向けの戦略:
GenAIの能力を理解する: GenAIが何を得意とし、それが自社にどう具体的に役立つのかを見極めることに注力してください。
自社開発か購入か: AIソリューションを内製するか、市販製品を活用するかについて、十分な情報に基づいて判断してください。後者は小規模組織にとって費用対効果が高い場合が多くあります。
調達およびベンダー管理: AIベンダーを徹底的に審査し、技術的能力だけでなく、下流リスク、規制遵守、サイバーセキュリティ、法務上の考慮事項にも注目してください。これにより、社内専門知識への依存を減らし、小規模企業でも専門ベンダーの利点を享受できます。
大規模組織から学ぶ: 大規模組織で確認された調達およびベンダー管理のベストプラクティスを取り入れてください。これにより、小規模企業は適切なソリューションを選定し、リスクを効果的に管理できます。
政府政策の役割: NGOへの助成金は、より広範な社会的利益のためにGenAIツールへのアクセスを促進し、公平な競争条件を確保できます。これは、研究、開発、そして多様な分野における責任あるAI導入を支援し、いわゆる「勝者総取り」効果を緩和する可能性があります。これにより、イノベーションと競争が促進され、少数の大手企業による支配を防ぐことができます。
JGL続き:人間とAIの協働
人間の影響力を維持する: 難しい課題です。AIは客観的で信頼できるものと見なされがちで、その提案に過度に依存しやすくなります。 人間の関与による確認では不十分かもしれません。
人間の役割を組み込む: 最終承認の段階に置くだけでなく、人間の役割を意思決定プロセスの根幹に組み込む必要があります。
Oracle AI: 最終的な行動について提案するのではなく、AIを用いて状況の説明と関連情報の強調を行います。これにより、人間はAIが生成した洞察をもとに、十分な情報に基づく意思決定を行えます。
タスクと職務: AIは特定のタスクの自動化に優れていますが、それは職務全体とは一致しない場合があります。人間が行うのが最適なタスクと、AIが行うのが最適なタスクを分離するよう、職務を再設計してください。 これにより、双方の強みを最大化する相互利益型の協働が実現します。長期的には、AIの進化に伴い人間のタスクが減少する懸念が残ります。
VSの結論:
トランプ政権のアプローチは、まだ明確ではありません。
EU AI Actはグローバル組織に影響を及ぼします。
組織は、教育、人材採用・育成、そして適切な人間の監督に注力する必要があります。
Enzaiは、組織が抽象的なポリシーから運用上の監督へ移行するのを支援するために特化して設計された、業界をリードするエンタープライズAIガバナンスプラットフォームです。当社のAIリスク管理プラットフォームは、エージェント型AIガバナンスの管理、包括的なAI台帳の維持、そしてEU AI Actへの準拠を実現するために必要な専門的インフラを提供します。複雑なワークフローを自動化することで、Enzaiは、グローバル基準であるISO 42001 とNISTとの整合性を維持しながら、企業が自信を持ってAI導入を拡大できるよう支援します。
組織がAIを採用し、管理し、監視する能力を、企業レベルの信頼性で強化します。規模で運営する規制対象の組織向けに構築されています。

