企業チーム向けのISO 42001導入に関するステップバイステップガイド—ギャップ分析、附属書A管理策、認証監査、そしてEU AI法との整合までを網羅。
•
•
31 最小読了時間
トピック
2026年4月時点で、ISO/IEC 42001 の認証を取得した組織の一覧は、エンタープライズAIの名だたる企業が並ぶ顔ぶれです。IBM は Granite モデル、Anthropic は Claude、Microsoft は 365 Copilot、KPMG Australia はアドバイザリー業務全体、そしてシンガポールのチャンギ空港は運用AIシステムにおいて認証を取得しています。[1] 2023年12月に公布されたこの標準は、公開からエンタープライズ導入までの移行が、多くの観測筋の予測を上回る速さで進みました。そして、その勢いは加速しており、その主因は、EU AI Act における高リスクシステムの義務が2026年8月に迫っていることにあります。
しかし、ISO 42001 の実装に関するガイダンスの多くは、「それは何か」「なぜ重要なのか」で終わっています。ISO 42001 コンプライアンスの達成を担うエンタープライズチームが直面するのは、より実務的な問い、すなわち「どのように実装するのか」です。ギャップ分析はどのような形になるのか。どのような文書化が必要なのか。38の Annex A 管理策は、実運用へどのように落とし込まれるのか。そして認証は、EU AI Act コンプライアンスを置き換えるのではなく、どのように支援するのか。
本ガイドでは、そうした疑問にお答えします。コンプライアンス担当者、AIガバナンス責任者、そして ISO 42001 の実装を任され、その実務内容を把握する必要があるエンジニアリングチーム向けに執筆しています。
ISO 42001 が求めるもの
ISO/IEC 42001 は、人工知能マネジメントシステム(AIMS)に関する初の国際規格です。情報セキュリティに関する ISO 27001 や、品質マネジメントに関する ISO 9001 で採用されている、同じ調和構造(旧 Annex SL)に従っているため、すでにこれらの規格で認証を取得している組織にとっては、マネジメントシステムの基本骨格がなじみやすいものとなっています。[2]
この規格の10の条項は、以下の7領域にわたる必須要件を定めています。
文脈(Clause 4): 組織のAIにおける役割(提供者、製造者、顧客、またはパートナー)を定義し、利害関係者を特定し、AIMS の適用範囲を決定する
リーダーシップ(Clause 5): AI ポリシーを確立し、役割と責任を割り当て、経営層のコミットメントを確保する
計画(Clause 6): AI リスク評価を実施し、AI システムの影響評価を行い、目標を定義する
支援(Clause 7): 必要な資源を配分し、力量を構築し、文書化された情報を維持する
運用(Clause 8): 管理策を実施し、リスク対応計画を遂行し、運用プロセスを管理する
パフォーマンス評価(Clause 9): AIMS の有効性を監視・測定し、内部監査を実施し、マネジメントレビューを行う
改善(Clause 10): 不適合に対処し、是正処置を講じ、継続的改善を推進する
ISO 27001 との違い
ISO 27001 に慣れた組織であれば、その構成はすぐに認識できるはずです。違いは、その上に重ねられた AI 特有の実質部分にあります。
Clause 4.1 では、AIエコシステムにおける自組織の役割を定義することが求められます。これは ISO 27001 に相当概念のない要件です。大企業は同時に、AI提供者(AI搭載製品を顧客に提供する)、AI顧客(第三者のAIツールを社内利用する)、AIパートナー(別組織のAIシステムにデータを供給する)になり得ます。AIMS の適用範囲は、組織が担うすべての役割を反映しなければなりません。
Clause 6.1.4 では、AI システム影響評価が導入されます。これは、AI の導入が個人、集団、社会に及ぼし得る結果を、正式かつ文書化して評価するものです。これは、ISO 27001 の実務者にはなじみのある組織リスク評価を超え、外部への害を考慮する点に特徴があります。たとえば、採用判断に影響するアルゴリズムバイアス、金融サービスを拒否する自動化システム、市民的自由を侵害する監視技術などです。方法論に関する規定は比較的少ないものの、その発想は従来のリスク登録簿よりも GDPR のデータ保護影響評価に近いものです。
また、Annex A は完全に新しい内容です。ISO 27001 の Annex A が93の情報セキュリティ管理策を含むのに対し、ISO 42001 の Annex A は、AI ガバナンスに特化した9つの領域にわたる38の管理策で構成されています。[3]
38の管理策:Annex A が実際に求めるもの
Annex A は、この規格の運用上の中核です。38の管理策は9つの領域に整理されており、それぞれが責任あるAIマネジメントの異なる側面を対象としています。
領域 | 焦点 | 主要な管理策 |
|---|---|---|
A.2 - AI ポリシー | AI ポリシーの存在と妥当性 | 組織目的に整合した AI ポリシー、定期的な見直しと更新 |
A.3 - 組織体制 | 説明責任とガバナンス構造 | AI ガバナンスのための定義された役割、部門横断的な連携メカニズム |
A.4 - AI システムのための資源 | データ、ツール、計算資源、人間の力量の十分性 | データ品質評価、インフラの十分性、スキルおよび力量要件 |
A.5 - 影響評価 | AI の結果を評価するための方法論 | 文書化された影響評価プロセス、個人および社会への影響評価 |
A.6 - AI システムのライフサイクル | 設計、開発、テスト、展開、廃止までの各段階における管理策 | 開発標準、テストと妥当性確認、変更管理、モデルの廃止 |
A.7 - データ管理 | データ品質、来歴、保護 | データ系譜の文書化、データ品質管理、データ保護措置 |
A.8 - 透明性 | 説明可能性と利害関係者への開示 | AI の機能と制約に関する文書化、利害関係者に適した説明 |
A.9 - AI システムの利用 | 人間による監督と許容される利用 | 人間介入のための明確な発動条件、許容使用ポリシー、運用中のAI監視 |
38の管理策が、すべての組織に対して一律に必須というわけではありません。この規格では、適用宣言書(Statement of Applicability: SoA)が求められます。これは、Annex A の各管理策を一覧化し、AIMS に含めるか除外するかを示し、除外する場合はその理由を記載する文書です。SoA は監査人が最初に確認を求める文書の一つであり、その品質が監査全体の印象を左右することも少なくありません。大規模なAIポートフォリオを持つ組織では、SoA により階層的なガバナンスも可能になります。すなわち、高リスクシステムには Annex A の管理策を完全に適用し、低リスクの展開にはより軽量なアプローチを採る一方で、そのリスクベースの根拠を文書化しておくことです。
Annex B は、各管理策の実装ガイダンスを提供します。Annex C は AI リスク源をマッピングし、Annex D は分野別標準を相互参照します。これら4つの Annex により、包括的な実装リファレンスが形成されます。
ISO 42001 の実装:認証取得までの7ステップ
ステップ1:適用範囲を確定し、AI インベントリを構築する
まず最初に、AIMS の境界に含まれる範囲を定義します。これは、組織が構築、購入、展開、または関与しているあらゆるAIシステムを棚卸しすることを意味します。これには、第三者ツール、ソフトウェア製品に組み込まれたAI、API 経由で利用されるAIサービスも含まれます。
この作業は、見た目以上に困難です。シャドーAI、すなわち IT から可視化されないまま ChatGPT、Copilot、その他のAIツールを利用する従業員の存在は、この段階でほぼ確実に発見されます。インベントリには少なくとも、システム名と目的、AI の役割(提供者、顧客、パートナー)、データの入力と出力、展開状況、リスク分類、システム所有者を含めるべきです。
適用範囲の決定は、実装規模も左右します。最初は単一の事業部門または製品ラインに AIMS を限定し、その後に拡張する組織もあれば、当初から全社的な適用範囲を目指す組織もあります。最適解は組織の複雑性によりますが、一般的には、初回から全面的なカバーを試みるよりも、範囲を絞って開始し、段階的に拡大する方が実務的です。
ステップ2:ギャップ分析を実施する
適用範囲を定義したら、現行の実務と、各条項要件(Clause 4〜10)および該当する各 Annex A 管理策との間で、体系的な比較を実施します。コンプライアンス、法務、データサイエンス、エンジニアリング、プロダクト、リスク管理をまたぐ部門横断チームを編成してください。
各ギャップについて、何が不足しているのかを記録し、重大度を評価し(高リスクAIシステムや中核的ガバナンス要件に影響するギャップを優先)、是正に必要な工数を見積もります。すでに ISO 27001 の認証を取得している組織では、Clause 4〜10 の多くのギャップは軽微であることが分かるでしょう。マネジメントシステムの基盤はそのまま引き継げます。大きな新規対応は、Clause 6.1.4(AI 影響評価)、Annex A の管理策、そして AI 特有の証跡要件に集中します。
ステップ3:AIMS を設計する
マネジメントシステムの各要素を構築、または既存のものを適合させます。
AI ポリシーおよびサブポリシー: 全体方針となる AI ポリシー(Clause 5.2)は、責任あるAIの価値観、すなわち公平性、透明性、説明責任、安全性、プライバシーを扱う必要があります。適用範囲によっては、許容される使用、データガバナンス、第三者AIに関するサブポリシーが必要になる場合があります
リスク評価方法論: 既存のリスク評価プロセスを、アルゴリズムバイアス、モデルドリフト、誤用、説明不能な出力、セキュリティ脆弱性といった AI 特有のリスクに適応させます。この方法論は、一貫性があり比較可能な結果を生み出さなければなりません
AI システム影響評価の方法論: 個人、集団、社会への影響を評価するためのテンプレートとプロセスを整備します。再評価が必要となるトリガーも定義します。たとえば、大規模なシステム変更、新しいデータソース、新しいユースケース、規制変更、重大インシデントなどです
役割と責任のマトリクス: AIMS の責任者、個々のAIシステムの責任者、リスク評価と影響評価を実施する担当者、各 Annex A 管理策領域の責任者を定義します
教育・力量プログラム: 各役割に必要な力量を特定し、それに応じた教育計画を策定します
ステップ4:管理策を実装し、証拠を収集する
管理策を運用に落とし込みます。ここで多くの実装が失速するのは、規格が求めているのが、単なる文書上のポリシーではなく、検証可能な証拠だからです。
証拠となる資料には、システムの機能と制約を記載したモデルカード、テストおよび妥当性確認のログ、バイアス評価記録、データ系譜の文書、インシデント対応記録、変更管理ログ、人間による監督介入記録などが含まれます。エンタープライズ実装を支援してきた Enzai の経験は、初期導入企業が一貫して報告していることを裏付けています。すなわち、証拠の収集と文書化の徹底こそが最大の運用上の課題であるということです。これは証拠が存在しないからではなく、各種ツール、チーム、システムに散在しており、一元的に収集する仕組みがないためです。
ステップ5:内部監査
認証申請の前に、適用範囲に含まれるすべての条項および Annex A 管理策に対して、少なくとも1回の完全な内部監査を実施します。内部監査員は、監査対象の管理策から独立していなければなりません(これは、別部門の社内担当者でも、資格を有する第三者でも構いません)。監査では指摘事項を出し、不適合があれば、次に進む前に是正処置プロセスを通じて対応しなければなりません。
ステップ6:マネジメントレビュー
AIMS のパフォーマンスデータ、内部監査結果、リスクおよび影響評価の結果、不適合と是正処置、利害関係者からのフィードバック、AIMS に影響するあらゆる変更を含む正式なマネジメントレビュー(Clause 9.3)を実施します。アウトプットは、継続的改善のための文書化された決定事項とアクションです。このレビューには経営層の参加が必須であり、ガバナンスチームだけに全面委任することはできません。
ステップ7:認証監査
外部監査は2段階モデルで進行します。Stage 1 は文書レビュー(通常1〜2日)で、監査人は AIMS の文書が十分であるか、組織が本格的な審査を受ける準備が整っているかを評価します。Stage 2 は実装監査(適用範囲と複雑性に応じて3〜9日以上)で、監査人が担当者へのヒアリング、証拠レビュー、運用中の Annex A 管理策の確認を行います。
証明書の有効期間は3年で、毎年のサーベイランス監査と、サイクル終了時の再認証が行われます。
認証機関に関する重要な注意点: 認識された認定機関(ANAB、UKAS、DAkkS など)から、ISO 42001 を対象範囲に含む認定を取得している CB を選定してください。ISO/IEC 42006 は、42001 に対する監査を行う認証機関向けの規格ですが、まだ最終化途上にあり、監査員の力量にもばらつきがあります。AI ドメインで明確な専門性を有する CB による認定付き認証は、認定のない認証よりも実質的に大きな重みを持ちます。見た目は似ていても、その意味合いは大きく異なります。[4]
ISO 42001 と EU AI Act: 代替ではなく補完関係
ISO 42001 と EU AI Act の関係は、しばしば誤解されています。最も重要なのは、ISO 42001 の認証は EU AI Act コンプライアンスを意味しない、という点です。2026年4月時点で、この規格は EU 官報において調和規格として掲載されておらず、そのため法的な「適合推定」メカニズムは適用されません。[5]
とはいえ、重なりは非常に大きいものがあります。CEN-CENELEC の合同技術委員会21は、ISO 42001 を欧州規格へ適合させる作業を進めており、草案である prEN ISO/IEC 42001 は2025年11月から2026年2月にかけてパブリックエンquiryに付されました。別途、EU AI Act の規制目的に向けて設計された調和規格 prEN 18286 も、2025年10月にパブリックエンquiryに入りました。[6] これらの規格が最終化され、官報に掲載されれば、ISO 42001 の認証は「有用な準備」から「直接的なコンプライアンス経路」へと変わります。
当面の実務上の重なりは、以下のとおりです。
リスク管理: EU AI Act 第9条では、高リスクAIに対するリスク管理システムが求められます。ISO 42001 の Clause 6 は、その方法論と証拠枠組みを提供します
人間による監督: 第14条は監督措置を要求します。Annex A の A.9 領域が、人間介入の管理策を定義します
透明性と文書化: 第11条および第13条は、技術文書と透明性を求めます。Annex A の A.7 および A.8 領域は、データ管理、説明可能性、利害関係者への開示を扱います
データガバナンス: 第10条は、データ品質とガバナンスを要求します。Annex A の A.7 領域が管理フレームワークを提供します
市場投入後の監視: 第72条は継続的な監視を求めます。ISO 42001 の Clause 9 と 10 は、パフォーマンス評価と改善のサイクルを確立します
実務上の指針は明確です。ISO 42001 は、EU AI Act コンプライアンスに必要なガバナンス基盤、証拠基盤、そしてマネジメント規律を構築します。今この規格を実装する組織は、2026年8月に高リスク義務が本格施行される際、正式な調和がその日までに完了しているかどうかにかかわらず、はるかに優位な準備状態にあるでしょう。
ISO 42001 実装におけるよくある落とし穴
初期導入企業の経験を振り返ると、いくつかの傾向が一貫して見られます。
AI インベントリを過小評価すること。 組織はスコーピング段階で、自社のAIシステム数を恒常的に少なく見積もります。シャドーAIの利用、第三者ソフトウェアに組み込まれたAI、ベンダープラットフォームに埋め込まれたAIコンポーネントの発見により、当初の見積もりは通常30〜50%拡大します。徹底した探索プロセスのための時間を、プロジェクト計画に組み込んでください。
文書作成作業として扱うこと。 ISO 42001 はマネジメントシステムの規格であり、文書規格ではありません。監査人は、ポリシーの先にある運用証跡を確認するよう訓練されています。美しく書かれた AI ポリシーがあっても、リスク評価の実施、モデルテストの実施、人間による監督の実行を示す証拠がなければ、Stage 2 監査には合格できません。
AI 影響評価を軽視すること。 Clause 6.1.4 は多くの組織にとって新しい要件であり、実装時に本来よりも注目が少なくなりがちです。AI システム影響評価では、組織リスクだけでなく、社会的・人口レベルの結果まで考慮する必要があります。ISO 42001 の作業を始める前に、このための方法論を確立している組織はほとんどなく、策定には想定以上の時間がかかります。
サイロ化された実装。 ISO 42001 は、法務、プロダクト、エンジニアリング、データサイエンス、セキュリティ、コンプライアンスを横断します。実装を1つの部門だけが所有している場合、通常はコンプライアンスまたは IT ですが、組織の他部門が利用しないガバナンスフレームワークが出来上がりがちです。経営層の支援を受けた部門横断の推進グループは任意ではありません。成功の前提条件です。
認証とコンプライアンスを混同すること。 認証は、ある時点でマネジメントシステムが規格要件を満たしていることを確認するものです。組織が運用するすべてのAIシステムがバイアスのない完全に透明な状態であり、かつ適用されるすべての規制に準拠していることを保証するものではありません。AIMS は、一度きりの認証作業ではなく、継続的改善を推進する生きたシステムでなければなりません。
導入期間と投資
ISO 42001 実装の現実的な期間は、組織の複雑性によって異なります。
組織プロファイル | 一般的な期間 | 主要な変数 |
|---|---|---|
小規模組織(AIシステム1〜10件)、ISO 27001 は導入済み | 4〜6か月 | 適用範囲の複雑性、証跡準備状況 |
中堅企業(AIシステム10〜50件)、一定のマネジメントシステム成熟度あり | 9〜12か月 | 部門横断の連携、AI インベントリの完全性 |
大企業(AIシステム50件超)、複数事業部門にまたがる適用範囲 | 12〜18か月以上 | 組織の複雑性、シャドーAIの発見、グローバルな調整 |
すでに ISO 27001 の認証を取得している組織は、大きな先行優位を持っています。調和構造により、リスク管理フレームワーク、内部監査プロセス、文書化された情報の管理、継続的改善のサイクルをそのまま引き継げます。複数の認証機関は、証跡を共有し監査日数を削減できる、ISO 27001 + ISO 42001 の統合監査プログラムを提供しています。
投資は時間だけではありません。予算面では、CB の監査費用(適用範囲と複雑性により変動)、部門横断チームにわたる社内リソースの配分、証跡収集および AI インベントリ管理のためのツール導入、そして AI ガバナンスに新たに必要となる役割のための教育が考慮事項となります。多くの実装において最大のコスト要因は、証跡収集と文書化に要する人的工数です。特に、AI システムのメタデータ、テスト記録、リスク評価を追跡する集中管理システムを持たない組織では顕著です。
大規模な AI ポートフォリオ全体で ISO 42001 を実装することは、ガバナンスの課題であると同時に、インフラの課題でもあります。モデルカード、テストログ、バイアス評価、データ系譜記録、影響評価、そして数十の AI システムにまたがる変更管理の証跡など、必要とされる証拠の量は、スプレッドシートや共有ドライブでは到底さばききれません。Enzai では、この課題のために専用設計されたプラットフォームを提供しています。すなわち、集中管理された AI インベントリ、構造化された Annex A 管理策マッピング、自動化された証跡収集、そして ISO 42001 のマネジメントサイクルに整合した継続監視です。認証準備を進める組織は、デモを予約することで、実際の動作をご確認いただけます。
Enzai は、抽象的なポリシーから運用監督への移行を支援するために設計された、主要なエンタープライズ AI ガバナンスプラットフォームです。AI リスク管理プラットフォームは、エージェント型 AI ガバナンスの管理、包括的なAI インベントリの維持、EU AI Act コンプライアンスの確保に必要な専用インフラを提供します。複雑なワークフローを自動化することで、Enzai は、ISO 42001やNISTのようなグローバル標準との整合性を維持しながら、企業が自信を持ってAI導入を拡大できるよう支援します。
参考文献
[1] IBM、「IBM が ISO 42001 認証を取得した最初の主要オープンソースAIモデル開発企業に」、2024年9月; Anthropic、「Anthropic が ISO 42001 認証を取得」、2025年1月; Microsoft Learn、「ISO/IEC 42001:2023 コンプライアンス」; KPMG Australia、BSI により認証; Changi Airport Group、SGS により認証、2025年2月。
[2] ISO/IEC 42001:2023、情報技術 - 人工知能 - マネジメントシステム。International Organization for Standardization、2023年12月。
[3] ISO/IEC 42001:2023、Annex A(参照管理目的および管理策)。実装ガイダンスについては Annex B を参照。
[4] ANAB は、ISO 42001 に認定された認証機関の登録簿を anab.ansi.org で管理しています。ISO/IEC 42006(AIMS の監査および認証を提供する機関の要求事項)は開発中です。
[5] 2026年4月時点では、EU AI Act に対する適合推定の статусを持つ AI 特有の調和規格は、EU 官報に掲載されていません。ISMS.online「適合推定:なぜ ISO 42001 はまだ AI Act の法的シールドではないのか」、2025年を参照。
[6] CEN-CENELEC、「AI 標準化に関する最新情報」、2025年10月。prEN ISO/IEC 42001 のパブリックエンquiryは2025年11月〜2026年2月、prEN 18286 のパブリックエンquiryは2025年10月30日より開始。
組織がAIを採用し、管理し、監視する能力を、企業レベルの信頼性で強化します。規模で運営する規制対象の組織向けに構築されています。

