企業全体にわたるシャドーAIを発見し、統制する方法――発見手法、許容可能な利用ポリシー、そしてイノベーションを阻害することなくガバナンスを構築する方法。
•
•
30 最小読了時間
トピック
シャドーAIは、すでにあらゆる大規模組織の内部に入り込んでいます。今この瞬間にも、貴社のどこかで、社員が機密性の高い契約文言をChatGPTに貼り付けているかもしれません。プロダクトマネージャーは顧客データをAI要約ツールに入力し、財務アナリストは、IT部門の誰も承認しておらず、教育もしていないうえ、存在すら把握していないCopilotプラグインを使っています。これはいずれも仮説ではありません。Salesforceの2024年の調査では、職場で生成AIを利用している人の半数超が、雇用主が承認していないツールを使用していたことが示されました[1]。未承認利用は本質的に測定が難しいため、実際の割合はこれよりかなり高いとする推計もあります。
この現象、すなわちIT、セキュリティ、コンプライアンスの各チームの視界の外で社員がAIツールを採用する動きは、前身である問題から借用した名称、シャドーAIとして知られるようになりました。しかし、この名称はおなじみのシャドーITを連想させるものの、そこで生じるリスクは実質的に異なり、規制上の重要性はより高く、ガバナンスを正しく整えるための猶予は急速に短くなっています。
実務におけるシャドーAIの実態
シャドーAIを統制するうえで最初の課題は、シャドーAI がいかに広範かつ多様になっているかを認識することです。最も目に見えやすい形は、一般ユーザー向けAIサービスの直接利用です。ChatGPT、Google Gemini、AnthropicのClaude、Perplexity、そして多数の小規模ツールが該当します。社員は個人のメールアドレスで登録し、無料プランを使い始め、数分以内に業務データの処理を開始します。調達プロセスは発動せず、セキュリティレビューも行われません。
しかし、直接利用は一層にすぎません。AI機能は今や、組織がすでに費用を支払っているツールの内部にも組み込まれています。Notion、Canva、Grammarly、Slack、Zoom、Microsoft 365、Google Workspaceはすべて、自動的、またはワンクリックで有効化されるAI機能を提供しています。マーケティング担当者がCanvaのAI画像生成機能を使ったり、営業担当者がZoomの録画に対して「AI Summary」をクリックしたりするとき、彼らはエンタープライズデータを用いてAIモデルを利用しているのであり、しかもそれ自体がAI利用にあたることを認識していない場合が少なくありません。
第三の層は、ブラウザ拡張機能やプラグインです。Chrome Web Storeや類似のマーケットプレイスには、文章作成支援、メール下書き、データ抽出、コード生成向けのAI搭載拡張機能が何千件も公開されています。これらの拡張機能は、ページ内容の読み取り、フォームデータの傍受、情報の外部サーバーへの送信を行うことができます。多くの組織では、社員がどの拡張機能をインストールしているかの台帳すらありません。
その累積的な結果として、組織は、ガバナンス、リスク、コンプライアンスの各機能からは可視化も評価も制御もできない、数十から数百ものAIシステムを稼働させていることになります。
シャドーAIが単なる別名のシャドーITではない理由
シャドーAIを、セキュリティチームが長年対応してきたシャドーIT問題の一部として扱うのは、つい簡単に思えてしまいます。確かに、パターンは似ています。社員は、ガバナンスが追いつくより速いペースでテクノロジーを採用します。しかし、リスクプロファイルは重要な点で分岐します。
データ保持とモデル学習
社員が未承認のファイル共有サービスに文書をアップロードする場合、データリスクの焦点は封じ込めです。誰がそのファイルにアクセスできるのか、削除できるのか、という点です。しかし、多くのAIサービスでは、リスクはさらに広がります。プロバイダーの利用規約や社員が利用している具体的なプランによっては、入力データがモデルの学習やファインチューニングに使用される場合があります[2]。一度データが学習パイプラインに入ると、取り戻す仕組みはありません。その情報はモデルのパラメトリック知識の一部となり、数十億の重みに分散されます。従来のデータ損失防止策は、データを特定して削除できることを前提にしています。AIの学習取り込みでは、その前提が成り立ちません。
出力リスク
シャドーITは通常、データを保存・移動・表示するツールを伴います。一方、AIツールは新しいコンテンツを生成し、その内容が誤っていることもあります。社員が未承認のAIツールを使って規制当局向け提出書類を起草したり、契約書を要約したり、財務予測を作成したりすると、ハルシネーションを含む出力が正式な業務判断にまで入り込む可能性があります。組織は、AIが生成したと知らないまま、しかも使用されていたことすら把握していないツールによって作成された出力に対して責任を負うことになります。
バイアスと差別リスク
AIシステムは、保護対象特性に基づいて差別的な出力を生み出すことがあります。人事部門が未承認のAIツールで履歴書をスクリーニングしたり、職務記述書を作成したりしている場合、監査証跡が一切ないまま、雇用判断にバイアスを持ち込んでしまうおそれがあります。そのツールの使用を誰が承認したかにかかわらず、責任は組織に帰属します。
導入スピード
従来のシャドーITは、ソフトウェアのダウンロードやアカウント作成の速度で広がりました。シャドーAIは、ブラウザのタブを開く速さで広がります。多くのAIツールは、インストールもアカウントも支払いも不要です。社員は、好奇心から機密データの処理に至るまで、60秒とかかりません。
シャドーAIは、シャドーITの問題を単に拡張するものではありません。シャドーAIは、それ自体に固有のガバナンス対応を要する、質的に異なるリスクカテゴリをもたらします。
可視化を求める規制上の必然性
一定程度の未管理テクノロジーリスクを受け入れる組織であっても、規制は今やAIの可視性に対して、より高い水準を求めています。
2024年から段階的に適用が始まったEU AI Actは、AIシステムの提供者と導入者の双方に義務を課しています[3]。提供者は、システムをリスク階層ごとに分類し、高リスクシステムについては第9条から第15条までの順守を確保しなければなりません。高リスクAIシステムの導入者にも、第26条に基づく独自の義務があります。これには、提供者の指示に従ってシステムを使用すること、人による監督を割り当てること、ログを保持すること、インシデントを報告することが含まれます。比較的低リスクのシステムの導入者であっても、第50条に基づく透明性義務を負います。これらの義務は、組織の把握外に存在するシステムには適用できません。
AI管理システムの国際標準であるISO/IEC 42001は、AIインベントリを基礎要件としています[4]。未特定、未評価、未文書化のAIシステムを運用しながら、その標準への適合を主張することはできません。
米国では、NISTのAIリスク管理フレームワークも同様に、AIシステムのリスク管理に先立つ前提として、そのシステムを「マッピング」する必要性を強調しています[5]。行政命令や、金融サービス、医療、政府契約といった各分野の規制当局によるガイダンスも、同じ期待へと収れんしつつあります。すなわち、組織は、自社がどのAIを使用しているかを把握していなければならないということです。
規制上の論理は明快です。発見がなければ、リスク分類は意味を持ちません。可視化されていないシステムに、コンプライアンス義務は適用できません。自社のAI利用に関するインベントリを提示できない組織は、単にガバナンスされていないだけではなく、ガバナンス不能なのです。Enzaiのようなプラットフォームは、まさにこのギャップを埋めるために存在し、規制が今求める継続的な発見と分類の機能を提供します。
把握できていないものを見つけ出す
シャドーAIにはガバナンスが必要だと受け入れることは、比較的容易です。より難しいのは、それを見つけ出すことです。効果的な発見には、相互に補完し合う複数の手法が必要です。どの手法も、単独では完全な可視性を提供しないためです。
ネットワークトラフィックとDNS分析
AIサービスは特徴的なネットワークトラフィックパターンを生成します。DNSクエリとHTTP/HTTPSトラフィックを監視し、既知のAIサービスドメイン(api.openai.com、generativelanguage.googleapis.com、api.anthropic.com など)への接続を追跡することで、社員がどのサービスにアクセスしているかの基礎的な把握が可能です。この方法は、一般ユーザー向けのAIを直接利用するケースには有効ですが、承認済みSaaSツール内に組み込まれたAIにはやや不向きです。そうした場合、API呼び出しはサーバー側で行われることがあるためです。
SSOおよび認証ログの分析
多くのAIサービスはシングルサインオンをサポートしています。たとえ社員が個人アカウントを使っている場合でも、IDプロバイダーからの認証ログにより、AIサービスへのOAuth同意付与が明らかになることがあります。Google WorkspaceやMicrosoft Entra ID経由で付与されたOAuthアプリケーション権限を確認すると、社員が企業アカウントに接続したAIツールがしばしば見つかります。
調達・経費監査
一部のシャドーAI利用には、金銭的な痕跡が残ります。社員や部門の予算責任者が、AIツールのサブスクリプション費用を経費精算したり、法人クレジットカードで上位プランを購入したり、AIサービスの請求書を提出したりすることがあります。経費報告書や調達記録を対象に、既知のAIベンダー名を検索する集中的なレビューによって、正式な調達を回避した有償利用を特定できます。
従業員申告プログラム
技術的な発見手法には、必ず盲点があります。従業員が、ペナルティを恐れることなく利用中のAIツールを申告できる任意申告プログラムは、監視では拾えないギャップを埋めます。このプログラムの設計は重要です。懲戒処分を恐れる環境では、申告率は極めて低くなります。執行措置ではなく、インベントリ整備の取り組みとして位置づけることで、より良い結果が得られます。
ブラウザ拡張機能監査
管理対象デバイスやエンドポイント管理プラットフォームを利用している組織では、インストール済みのブラウザ拡張機能を監査することで、AI搭載プラグインの可視化が可能です。多くのエンドポイント検知・対応ツールは、拡張機能を列挙できます。インストール済み拡張機能を既知のAI搭載ツールのデータベースと突き合わせることで、明らかにAI関連ドメインへのネットワークトラフィックを発生させないシャドー利用を特定できます。
APIトラフィックとデータフロー分析
より成熟した組織では、APIゲートウェイやデータ損失防止ツールを計測し、AIサービス利用に整合するパターンを検出できます。たとえば、外部エンドポイントに送信される大きなテキストペイロード、生成コンテンツのマーカーを含む応答、または主要AIプロバイダーに関連付けられたIPレンジへのトラフィックなどです。このアプローチは投資を要しますが、より簡易な手法では見逃される利用も捉えられます。
発見プログラムは、単一の手法に依存すべきではありません。最も効果的なのは、複数の技術を階層的に組み合わせ、発見を一度限りの監査ではなく継続的なプロセスとして扱う方法です。EnzaiのようなAIガバナンスプラットフォームは、この階層的な発見を自動化し、ネットワーク、ID、調達、エンドポイントの各データを横断してシグナルを相関させ、生きたインベントリを維持します。
禁止に頼らないシャドーAIガバナンス
発見は必要ですが、それだけでは十分ではありません。次に問われるのは、見つかったものをどう扱うかです。ここで多くの組織は戦略的な誤りを犯します。未承認のAI利用が大きく広がっている状況に直面すると、禁止することが本能的な反応になります。ドメインをブロックし、アクセスを取り消し、一律禁止を発令するのです。しかし、このアプローチは3つの理由で失敗します。
第一に、禁止は利用をさらに地下化させます。AIツールが本当に役立つと感じる社員は、私物端末、モバイルホットスポット、家庭内ネットワークなど、回避策を見つけます。その結果、利用は減るのではなく、可視性が下がります。
第二に、一律禁止には競争上のコストがあります。社員によるAIツールの利用を妨げる組織は、競合が獲得している生産性向上を手放すことになります。McKinseyは2023年、生成AIが業界を横断して世界の企業利益に年間2.6兆ドルから4.4兆ドルの寄与をもたらしうると推計しました[6]。その価値を取り逃すこと自体がリスクです。
第三に、禁止は、組織がAIを能力ではなく脅威として見ていることを社員に示してしまい、長期的に責任あるAI導入に必要な文化的土壌を損ないます。
代わりに求められるのは、AI利用を遮断するのではなく、適切な方向へ導く構造化されたガバナンスです。
申告猶予とベースライン
効果的な出発点は、期限付きの申告猶予期間を設け、その間に社員が現在使用しているすべてのAIツールを申告できるようにし、懲戒上の不利益はないと明確に保証することです。これにより、技術的な発見だけでは実現できない包括的なベースラインが確立されます。猶予期間終了後は、未申告の利用はポリシー違反として扱われる旨を明確に周知する必要があります。
許容利用ポリシー
成熟した組織は、承認済み/禁止の二分法ではなく、許容利用ポリシーを策定し、AI利用のカテゴリを定義します。たとえば、どのデータ分類をAIツールで処理できるか、どの種類の出力は使用前に人によるレビューが必要か、AI生成コンテンツを正式な成果物に用いる際にどのような開示義務が生じるか、といった点です。
承認済みツール一覧と舗装された道
プラットフォームエンジニアリングから借用した「舗装された道」の概念は、シャドーAIガバナンスに特に有効です。障壁を設けるのではなく、代替手段よりも明るく整備された、進みやすい道を組織が用意するのです。これは、セキュリティとコンプライアンスの要件を満たした承認済みAIツールを提供し、適切なデータ取り扱い設定を事前構成し、企業IDと統合し、研修とドキュメントで支援することを意味します。承認済みの選択肢が本当に優れていれば、未承認の代替手段を探す動機は減少します。
サンドボックス環境
まだ承認リストに載っていない新しいAIツールや機能を試すために、組織は、社員が合成データまたは非機密データを使ってツールを検証できるサンドボックス環境を提供できます。これにより、探索のもたらすイノベーションの価値を維持しながら、データリスクを封じ込められます。
継続的な見直しとフィードバック
静的なままのガバナンスフレームワークは、障害になります。承認済みツール一覧を定期的に見直し・更新し、社員からのフィードバックを取り込み、新しいツールを評価するサイクルを確立することで、ガバナンスフレームワークをAI開発の速度に近い水準で進化させられます。
目標は、AI利用からすべてのリスクを排除することではありません。管理された経路が明確に優れていると感じられるようにし、管理外の利用を不要にすることです。
持続可能な発見プロセスの構築
一度きりの発見作業では、あくまでスナップショットしか得られません。シャドーAIは継続的な現象です。新しいツールは毎週のように登場し、既存ツールにはAI機能が追加され、社員は役割の変更に伴って新しい業務フローを採用します。持続可能な発見プロセスは、継続的かつ、より広い組織プロセスに統合されていなければなりません。
調達プロセスへの統合
AIの発見は、調達ワークフローに組み込むべきです。新しいSaaSツールの評価には、組み込みAI機能の有無、AI機能におけるデータ取り扱い、モデル学習ポリシーの評価を含める必要があります。ベンダーは販売資料でAI機能を前面に出さないこともあるため、調達チームには適切な質問をするための研修とチェックリストが必要です。
オンボーディングと職務変更への統合
新入社員は、前職で身につけたAIの使い方を持ち込んできます。オンボーディングには、AI利用の申告ステップと、組織のAIガバナンスフレームワークおよび承認済みツールの紹介を含めるべきです。同様に、社員が新しいデータ分類へのアクセスを得る職務変更の際には、AIツールの利用許可を見直す必要があります。
コンプライアンスだけでなくチェンジマネジメントを
持続可能なシャドーAIガバナンスには、単なるポリシー執行ではなく、文化変革が必要です。AIガバナンスがなぜ存在するのかを、社員が理解しなければなりません。それは官僚的な負担ではなく、組織、顧客、そして社員自身を守るためのものです。研修プログラムは実践的で、シナリオベースで、進化するツール環境を反映するよう定期的に更新されるべきです。
指標とレポーティング
測定できるものは管理できます。組織は、シャドーAIの発見率の推移、新たに発見したツールのガバナンス適用までの時間、承認済みAIツールに対する従業員満足度、ポリシー例外申請件数を追跡すべきです。これらの指標は、ガバナンスが導入に遅れ始めている時や、承認済みツールが従業員のニーズを満たせていない時の早期警告となります。
経営層の責任
シャドーAIガバナンスは、IT部門や情報セキュリティ部門だけに閉じていては成立しません。理想的にはChief AI Officer、または同等の役割が担う経営層の支援が必要であり、AIインベントリの完全性とガバナンス範囲の維持に対する明確な責任が求められます。AIガバナンスの体制について取締役会レベルで報告することは、このリスクを真剣に捉える組織では、標準的な実務になりつつあります。
継続的で、統合され、測定され、後ろ盾のある発見プロセスは、一度きりの監査では見逃すものを捉え、次の四半期に訪れるAI環境の変化にも適応できます。
実務上の示唆
シャドーAIは、自然に解決する問題ではありません。放置すれば、ツールは増え、データ露出は拡大し、規制リスクは高まり、未検証のAI出力に基づく意思決定も増えていきます。これをうまく管理できる組織は、発見をプロジェクトではなく継続的な運用能力として捉え、禁止ではなく活用支援を通じて統制し、その両方を持続させるための文化的・手続き的インフラに投資する組織です。
実務上の前進策は明確です。階層的な発見によって可視性を確立すること。社員が従いたくなるガバナンスを構築すること。AIの監督を、調達、オンボーディング、チェンジマネジメントの日常的な流れに組み込むこと。進捗を測定し、経営陣に責任を持たせることです。
場当たり的対応から構造化されたシャドーAIガバナンスへ移行したい組織向けに、Enzaiは、未承認のAI利用を制御下に置くためのプラットフォームを提供します。継続的な発見とインベントリ管理から、ポリシー管理、コンプライアンス報告に至るまでをカバーします。デモを予約して、実務でどのように機能するかをご確認ください。
Enzaiは、企業向けAIガバナンスのリーディングプラットフォームです。抽象的なポリシーから運用レベルの監督へ移行するために特化して設計されています。当社のAIリスク管理プラットフォームは、エージェント型AIガバナンスを管理し、包括的なAIインベントリを維持し、EU AI Act対応を確実にするために必要な専用インフラを提供します。複雑なワークフローを自動化することで、Enzaiは、エンタープライズAIガバナンスを備えた企業が、世界的な標準である ISO 42001 やNISTとの整合性を維持しながら、自信を持ってAI導入を拡大できるよう支援します。
参考文献
[1] Salesforce, 「職場におけるAIの期待と落とし穴」, Salesforce Research, 2024。
[2] OpenAI, 「モデル性能向上のためにお客様のデータがどのように使用されるか」, OpenAI Help Centre, 2025年更新。
[3] European Parliament and Council, 人工知能に関する調和規則を定める規則(EU AI Act), 2024。
[4] International Organization for Standardization, ISO/IEC 42001:2023 情報技術 - 人工知能 - マネジメントシステム, 2023。
[5] National Institute of Standards and Technology, 「AIリスク管理フレームワーク(AI RMF 1.0)」, NIST AI 100-1, 2023年1月。
[6] McKinsey Global Institute, 「生成AIの経済的可能性:次なる生産性フロンティア」, McKinsey & Company, 2023年6月。
組織がAIを採用し、管理し、監視する能力を、企業レベルの信頼性で強化します。規模で運営する規制対象の組織向けに構築されています。

