企業全体にわたるシャドーAIを発見し、統制する方法――発見手法、許容可能な利用ポリシー、そしてイノベーションを阻害することなくガバナンスを構築する方法。
•
•
28 最小読了時間
トピック
シャドーAIは、すでにあらゆる大規模組織の内部に存在しています。まさに今この瞬間にも、皆様の組織のどこかで、従業員が機密性の高い契約文言をChatGPTに貼り付けています。プロダクトマネージャーは顧客データをAI要約ツールに投入しています。財務アナリストは、IT部門の誰一人として承認も学習も、さらには存在すら把握していないCopilotプラグインを使用しています。これらはいずれも仮説ではありません。Salesforceによる2024年の調査では、職場で生成AIを利用するユーザーの半数超が、雇用主に承認されていないツールを使用していたことが示されました[1]。さらに、未承認利用はその性質上、測定自体に抵抗するため、実際の数値はこれより大幅に高いとの推計もあります。
この現象――従業員がIT、セキュリティ、コンプライアンス部門の可視範囲外でAIツールを導入すること――は、先行する問題から借用した名称として「シャドーAI」と呼ばれるようになりました。しかし、このラベルは馴染みのあるシャドーITの概念を想起させる一方で、もたらすリスクは本質的に異なり、規制上の重要性はより高く、適切なガバナンスを整備するための猶予は急速に縮小しています。
実務におけるシャドーAIの実態
シャドーAIを統治するうえで最初の課題は、その浸透度と多様性を正しく認識することです。最も目に見えやすい形態は、一般消費者向けAIサービスの直接利用です。ChatGPT、Google Gemini、AnthropicのClaude、Perplexity、そして多数の小規模ツールが該当します。従業員は個人メールアドレスで登録し、無料プランを利用して、数分で業務データの処理を開始します。調達プロセスは発動されず、セキュリティレビューも実施されません。
しかし、直接利用は一層にすぎません。現在では、AI機能は組織がすでに利用料を支払っているツールにも組み込まれています。Notion、Canva、Grammarly、Slack、Zoom、Microsoft 365、Google Workspaceはいずれも、AI機能を自動またはワンクリックで有効化できる形で提供しています。マーケティング担当者がCanvaのAI画像生成機能を使うとき、あるいは営業担当者がZoom通話録画で「AI Summary」をクリックするとき、彼らは企業データを用いてAIモデルを呼び出しています――しかも多くの場合、それがAI利用に該当すること自体を認識していません。
第三の層は、ブラウザ拡張機能とプラグインです。Chrome Web Storeや類似のマーケットプレイスには、文章作成支援、メール下書き、データ抽出、コード生成のためのAI搭載拡張機能が数千単位で存在します。これらの拡張機能はページ内容を読み取り、フォームデータを傍受し、外部サーバーへ情報を送信できます。ほとんどの組織は、従業員がどの拡張機能をインストールしているかの棚卸しを行えていません。
その累積効果として、組織はガバナンス、リスク、コンプライアンス機能から見えず、評価できず、制御できないAIシステムを数十から数百単位で稼働させている状態になります。
シャドーAIが単なる別名のシャドーITではない理由
シャドーAIを、セキュリティチームが長年対処してきたシャドーIT問題の下位分類として扱いたくなるかもしれません。たしかに、従業員による技術導入がガバナンスより速く進むという構図は似ています。しかし、リスクプロファイルは複数の重要な点で分岐します。
データ永続性とモデル学習
従業員が未承認のファイル共有サービスに文書をアップロードする場合、データリスクは「封じ込め」です。すなわち、誰が当該ファイルにアクセスできるか、削除可能かという問題です。ところが多くのAIサービスでは、リスクはさらに先に及びます。プロバイダーの利用規約および従業員が使用するプランの内容によっては、入力データがモデルの学習またはファインチューニングに利用される可能性があります[2]。いったんデータが学習パイプラインに入ると、取り戻す仕組みはありません。情報はモデルのパラメトリック知識の一部となり、数十億の重みに拡散されます。従来の情報漏えい防止アプローチは、データを特定して除去できることを前提としますが、AI学習への取り込みではその前提が成り立ちません。
出力リスク
通常のシャドーITは、データを保存・移動・表示するツールに関わることが一般的です。一方、AIツールは新しいコンテンツを生成し、その内容が誤っている可能性があります。従業員が未承認AIツールを使って規制当局向け提出書類を下書きしたり、法務契約を要約したり、財務予測を生成したりする場合、幻覚的出力が正式な経営判断に波及し得ます。組織は、AI生成であることを認識していなかった出力、かつ利用されていること自体を把握していなかったツールによる出力についても責任を負います。
バイアスおよび差別に関するエクスポージャー
AIシステムは、保護対象特性に基づく差別的な出力を生む可能性があります。人事部門が未承認AIツールで履歴書選考や求人票作成を行っている場合、監査証跡のないまま雇用判断にバイアスを持ち込んでいる可能性があります。ツール利用を誰が承認したかにかかわらず、法的責任は組織に帰属します。
導入速度
従来のシャドーITは、ソフトウェアのダウンロードとアカウント作成の速度で拡大しました。シャドーAIはブラウザタブの速度で拡大します。多くのAIツールはインストールもアカウント登録も支払いも不要です。従業員は好奇心から60秒未満で機微データ処理へ移行できます。
シャドーAIは、単にシャドーIT問題を延長するものではありません。独自のガバナンス対応を要する、質的に異なるリスクカテゴリを導入します。
可視化に関する規制上の要請
ある程度の未管理技術リスクを許容してきた組織であっても、現在では規制により、AI可視性に対してより高い水準が求められています。
2024年から段階適用が開始されたEU AI Actは、AIシステムの提供者と利用者(deployer)の双方に義務を課しています[3]。提供者はリスク階層ごとにシステムを分類し、高リスクシステムについて第9条〜第15条への適合を確保しなければなりません。高リスクAIシステムの利用者は、第26条に基づく独自の義務――提供者指示に沿った利用、人間による監督の割当て、ログ保持、インシデント報告など――を負います。低リスクシステムの利用者にも、第50条に基づく透明性義務があります。これらの義務は、組織の認識外に存在するシステムには適用しようがありません。
AIマネジメントシステムに関する国際規格ISO/IEC 42001は、AIインベントリを基礎要件と位置づけています[4]。組織が識別・評価・文書化していないAIシステムを運用しながら、同規格への適合を主張することはできません。
米国では、NIST AI Risk Management Frameworkも同様に、AIシステムのリスク管理の前提として「マッピング(把握)」の必要性を強調しています[5]。さらに、大統領令や、金融サービス、医療、政府調達における規制当局の業界別ガイダンスも、同じ期待へ収斂しています。すなわち、組織は自らが利用しているAIを把握していなければなりません。
規制の論理は明快です。発見なきリスク分類は無意味です。不可視のシステムにコンプライアンス義務を適用することはできません。AI利用のインベントリを提示できない組織は、単に未統治なだけでなく、統治不能です。Enzaiのようなプラットフォームは、まさにこのギャップを埋めるために存在し、規制が求める継続的な発見と分類機能を提供します。
未知を発見する
シャドーAIにガバナンスが必要であると受け入れることは比較的容易です。難しいのは、それを見つけることです。効果的な発見には複数の補完的手法が必要です。単一の手法で完全な可視性を得ることはできません。
ネットワークトラフィックおよびDNS分析
AIサービスは特徴的なネットワークトラフィックパターンを生みます。既知のAIサービスドメイン(api.openai.com、generativelanguage.googleapis.com、api.anthropic.com など)への接続についてDNSクエリとHTTP/HTTPSトラフィックを監視すると、従業員がどのサービスへ到達しているかの基礎的な可視化が可能です。この手法は一般向けAIの直接利用には有効ですが、承認済みSaaSに組み込まれたAIには有効性が下がります。後者ではAPIコールがサーバー側で行われる場合があるためです。
SSOおよび認証ログ分析
多くのAIサービスはシングルサインオンをサポートしています。従業員が個人アカウントを使用している場合でも、IDプロバイダーの認証ログから、AIサービスに対するOAuth同意付与を把握できることがあります。Google WorkspaceやMicrosoft Entra ID経由で付与されたOAuthアプリ権限を確認すると、従業員が企業アカウントに接続したAIツールが浮上することが多くあります。
調達および経費監査
一部のシャドーAI利用は財務上の痕跡を残します。従業員や部門予算責任者がAIツールのサブスクリプションを経費計上したり、法人クレジットカードで上位プランを購入したり、AIサービスの請求書を提出したりする場合です。既知のAIベンダー名を重点的に検索する形で経費報告と調達記録をレビューすれば、正式調達を迂回した有償利用を特定できます。
従業員開示プログラム
技術的な発見手法には必ず盲点があります。従業員が不利益を恐れずに利用中のAIツールを申告できる任意開示プログラムは、監視で届かない領域を補完します。設計は重要です。懲戒を恐れる環境では開示率はほぼゼロになります。取り組みを取締りではなくインベントリ整備として位置づけることで、より良い結果が得られます。
ブラウザ拡張機能監査
管理端末またはエンドポイント管理プラットフォームを利用する組織では、インストール済みブラウザ拡張機能の監査によりAI搭載プラグインの可視化が可能です。多くのEDRツールは拡張機能を列挙できます。インストール済み拡張機能を既知のAI搭載ツールデータベースと照合すれば、AI関連ドメインへの明示的ネットワーク通信を伴わないシャドー利用も特定できます。
APIトラフィックおよびデータフロー分析
より成熟した組織では、APIゲートウェイや情報漏えい防止ツールを計測対象化し、AIサービス利用と整合するパターンを検出できます。たとえば、外部エンドポイントへ送信される大規模テキストペイロード、生成コンテンツを示すマーカーを含む応答、主要AIプロバイダーに関連するIPレンジへの通信などです。このアプローチには投資が必要ですが、単純な手法で見落とされる利用を捕捉できます。
いかなる発見プログラムも単一手法に依存すべきではありません。最も効果的なアプローチは複数手法を重ね合わせ、発見を一度限りの監査ではなく継続的プロセスとして扱います。EnzaiのようなAIガバナンスプラットフォームは、この多層的発見を自動化し、ネットワーク、ID、調達、エンドポイントのデータ横断でシグナルを相関させ、生きたインベントリを維持します。
禁止に頼らないシャドーAIガバナンス
発見は必要条件ですが十分条件ではありません。次に問うべきは、見つけたものをどう扱うかです。ここで多くの組織は戦略的誤りを犯します。未承認AI利用の規模を前に、本能的に禁止へ向かうのです。ドメイン遮断、アクセス剥奪、包括的禁止。このアプローチは3つの理由で失敗します。
第一に、禁止は利用をさらに地下化させます。AIツールに実益を見いだした従業員は、個人端末、モバイルホットスポット、自宅ネットワークなどの回避策を見つけます。結果は利用減少ではなく可視性低下です。
第二に、包括的禁止は競争上のコストを伴います。従業員のAI利用を止める組織は、競合が獲得している生産性向上を放棄します。McKinseyは2023年、生成AIが業界横断で世界の企業利益に年間2.6兆〜4.4兆ドルを寄与し得ると推計しました[6]。この価値を捨てること自体がリスクです。
第三に、禁止は組織がAIを能力ではなく脅威として捉えているというシグナルを従業員に与え、長期的に責任あるAI導入に必要な文化的土壌を損ないます。
代替策は、AI利用を遮断するのではなく、方向づける構造化ガバナンスです。
アムネスティとベースライン
効果的な出発点は、期間限定のアムネスティ期間です。この期間中、従業員に現在使用中のすべてのAIツールの開示を求め、懲戒上の不利益がないことを明示的に保証します。これにより、技術的発見だけでは到達できない包括的ベースラインを確立できます。あわせて、アムネスティ終了後の未開示利用はポリシー違反として扱う旨を明確に伝達する必要があります。
許容利用ポリシー
成熟した組織は、承認/禁止の二分法ではなく、利用分類に基づく許容利用ポリシーを整備します。具体的には、AIツールで処理可能なデータ分類、利用前に人間レビューを要する出力種別、正式成果物にAI生成コンテンツを用いる際の開示義務などを定義します。
承認ツールリストと「舗装された道」
プラットフォームエンジニアリング由来の「舗装された道(paved road)」という概念は、シャドーAIガバナンスにおいて特に有効です。障壁を築く代わりに、代替手段よりも使いやすい、明るく整備された経路を組織が提供します。つまり、セキュリティとコンプライアンス要件を満たした承認済みAIツールを、適切なデータ取扱い設定を事前構成したうえで、企業IDと統合し、トレーニングと文書を備えて提供することです。正式な選択肢が実際に優れていれば、未承認代替を探す動機は弱まります。
サンドボックス環境
承認リストにない新規AIツールや機能の実験については、組織はサンドボックス環境を提供し、合成データまたは非機微データで検証できるようにします。これにより、探索によるイノベーション効果を維持しつつ、データリスクを封じ込められます。
継続的レビューとフィードバック
固定化したガバナンス枠組みは障害物になります。承認ツールリストの定期見直し・更新、従業員フィードバックの反映、新規ツール評価を一定の頻度で実施することで、ガバナンス枠組みをAI開発速度により近いペースで進化させられます。
目標は、AI利用からあらゆるリスクを排除することではなく、統治された経路を明確に優位にし、未統治利用を不要にすることです。
持続可能な発見プロセスの構築
一度限りの発見施策が生むのはスナップショットです。シャドーAIは継続的現象です――新ツールは毎週登場し、既存ツールにはAI機能が追加され、従業員は役割変更に伴って新たなワークフローを採用します。持続可能な発見プロセスは、継続的であり、かつ組織の広範な業務プロセスに統合されていなければなりません。
調達との統合
AI発見は調達ワークフローに組み込むべきです。新規SaaS評価ごとに、組み込みAI機能、AI機能におけるデータ取扱い、モデル学習ポリシーの評価を含める必要があります。ベンダーは営業資料でAI機能を前面に出さない場合があるため、調達チームには適切な質問を行うためのトレーニングとチェックリストが必要です。
オンボーディングおよび役割変更との統合
新入社員は前職でのAI利用習慣を持ち込みます。オンボーディングにはAI利用開示ステップと、組織のAIガバナンス枠組みおよび承認ツールの説明を含めるべきです。同様に、従業員が役割変更によって新たなデータ分類へアクセスする際には、AIツールの利用権限を見直す必要があります。
コンプライアンスだけでなくチェンジマネジメント
持続可能なシャドーAIガバナンスには、単なるポリシー執行ではなく文化変革が必要です。従業員は、AIガバナンスが官僚的な負荷ではなく、組織・顧客・自分自身を守るために存在することを理解する必要があります。研修プログラムは実践的でシナリオベースとし、ツール環境の変化を反映して定期更新すべきです。
指標とレポーティング
測定されるものは管理されます。組織は、シャドーAI発見率の推移、新規発見ツールのガバナンス適用までの時間、承認済みAIツールに対する従業員満足度、ポリシー例外申請件数を追跡すべきです。これらの指標は、導入速度に対してガバナンスが遅れている局面や、承認ツールが従業員ニーズを満たしていない局面を早期に警告します。
経営層の説明責任
シャドーAIガバナンスはITや情報セキュリティだけで完結できません。経営層の支援が必要であり、理想的にはChief AI Officerまたは同等職が、AIインベントリの完全性維持とガバナンス適用範囲に対する明確な責任を担うべきです。AIガバナンス態勢に関する取締役会レベルの報告は、リスクを真剣に扱う組織では標準実務になりつつあります。
継続的で、統合され、測定され、支援を受けた発見プロセスは、一度限りの監査が見落とす事象を捉え、次四半期のAI環境変化にも適応できます。
実務的示唆
シャドーAIは自然に解消する問題ではありません。放置すれば複利的に悪化します。ツールは増え、データ露出は拡大し、規制リスクは高まり、未検証AI出力に基づく意思決定が増加します。これを適切に管理できる組織は、発見をプロジェクトではなく継続的な運用能力として扱い、禁止ではなくイネーブルメントで統治し、その双方を持続させる文化的・手続的基盤に投資する組織です。
実行すべき道筋は明確です。多層的発見により可視性を確立する。従業員が従いたくなるガバナンスを構築する。調達、オンボーディング、チェンジマネジメントのリズムにAI監督を統合する。進捗を測定し、リーダーシップに説明責任を持たせる。
場当たり的な対応から構造化されたシャドーAIガバナンスへ移行する準備が整った組織に対し、Enzaiは未承認AI利用を統制下に置くためのプラットフォームを提供します。継続的な発見とインベントリから、ポリシー管理とコンプライアンス報告までを一気通貫で実現します。実運用での仕組みを確認するには、デモを予約するをご覧ください。
参考文献
[1] Salesforce, 「The Promises and Pitfalls of AI at Work」, Salesforce Research, 2024年。
[2] OpenAI, 「How your data is used to improve model performance」, OpenAI Help Centre, 2025年更新。
[3] 欧州議会および理事会, 人工知能に関する整合的規則を定める規則(EU)2024/1689(EU AI Act), 2024年。
[4] 国際標準化機構, ISO/IEC 42001:2023 Information technology - Artificial intelligence - Management system, 2023年。
[5] 米国国立標準技術研究所, 「AI Risk Management Framework (AI RMF 1.0)」, NIST AI 100-1, 2023年1月。
[6] McKinsey Global Institute, 「The economic potential of generative AI: The next productivity frontier」, McKinsey & Company, 2023年6月。
組織がAIを採用し、管理し、監視する能力を、企業レベルの信頼性で強化します。規模で運営する規制対象の組織向けに構築されています。
