EnzaiのAIガバナンス製品のフルスイートを探求し、企業がAIを自信を持って管理、監視、拡張するのを支援します。構造化されたインテークや中央集約されたAIインベントリから、自動評価やリアルタイムの監督まで、Enzaiは日常のAIワークフローにガバナンスを直接組み込むための基盤を提供します—イノベーションを遅らせることなく。

Enzai

AI 規制

なぜ組織はAI標準を採用する必要があるのか

AI 規制

なぜ組織はAI標準を採用する必要があるのか

AI 規制

なぜ組織はAI標準を採用する必要があるのか

組織は、AI規制および違反に明確な結果を伴う執行可能な法律を遵守しなければなりません。しかし、なぜ組織はAIガバナンス基準を採用するべきなのでしょうか?

ベルファスト

ベルファスト

23 最小読了時間

提供元

提供元

Enzai

Enzai

信頼の基盤を築く

信頼の基盤を築く

かつて、歴史的な標準が電力やインターネットを安全に大規模普及へと導いたように、ISO 42001やNIST AI RMFのようなフレームワークは、アルゴリズムのバイアスを軽減し、複雑なAIリスクを管理するために不可欠な基盤を提供します。

かつて、歴史的な標準が電力やインターネットを安全に大規模普及へと導いたように、ISO 42001やNIST AI RMFのようなフレームワークは、アルゴリズムのバイアスを軽減し、複雑なAIリスクを管理するために不可欠な基盤を提供します。

規制遵守の証明

規制遵守の証明

認知された標準を採用し、第三者による AI管理システム(AIMS)認証を取得することで、組織は強固なガバナンスを企業プロセスに組み込み、EU AI法をはじめとする新たな法規制への監査可能なコンプライアンスを確保できます。

認知された標準を採用し、第三者による AI管理システム(AIMS)認証を取得することで、組織は強固なガバナンスを企業プロセスに組み込み、EU AI法をはじめとする新たな法規制への監査可能なコンプライアンスを確保できます。

トピック

AIコンプライアンス提唱、メディア報道、ガバナンスの認知、業界教育

トピック

AI革命

AI自体は決して新しいものではありませんが(アラン・チューリングの画期的な論文「Computing Machinery and Intelligence」は1950年に初めて発表されました)、ここ数年で、AIの能力と導入の両方が飛躍的に成長してきました。その理由は明白です。革新的なAI技術は、基本的にあらゆる業界を変革してきました。医療から金融サービスクリエイティブ産業に至るまで、その影響は広がっています。 

最新の生成AIの進展は、Open AIのGPT-4、GoogleのGemini、MetaのLlamaといったモデルの登場により、この傾向をさらに加速させています。これらの技術がより広く利用可能になるにつれ、その動きは一段と強まっています。しかし、アクセスの拡大にはリスクの増大も伴います。ディープフェイクや誤情報、アルゴリズムの偏りと差別、セキュリティおよびデータプライバシーに関する懸念などが、その例です。    

標準の重要性

私たちの生活を変える可能性を持つ新しい技術形態には、多くのリスクも伴います。歴史を振り返り、さまざまな技術がいかにして現代生活に深く組み込まれていったのかを分析すると、ひとつの共通パターンが見えてきます。これらの新しいシステムに真の信頼を確立するためには、規制または市場慣行を通じて標準が整備されてきました。

たとえば、1880年代に商用電気システムが発明されたことで社会は完全に変革され、生産性、効率性、経済成長の向上が実現しました。しかし、電気は感電や火災といった危険にも人々をさらし、負傷や死亡を引き起こしました。20世紀初頭には、この新技術のリスクを管理し事故を防ぐため、英国における最初の電気安全ガイドラインが導入されました。これに続き、設備が適切に構築・維持され、火災リスクを回避できるよう、数多くの電気規格が策定されました。電力供給および設置の標準化により、電気の普及が可能になりました。1930年代末までに、英国の家庭の3分の2が電気を利用しており、1919年の6%から大きく増加しました。

より最近の例としては、情報セキュリティが挙げられます。過去30年にわたるインターネットの拡大は、活況を呈するテクノロジー産業を生み出し、企業の運営方法やサービス提供のあり方を大きく変えました。しかし同時に、インターネットはサイバー犯罪をはじめとするさまざまなリスクの急増も招きました。脅威はフィッシング攻撃から深刻なデータ侵害、さらにはサイバーテロにまで及び、新しい種類のサイバー犯罪が定期的にニュースの見出しを飾っています。 

こうしたリスクに対応するため、情報セキュリティ標準が策定されました。ISO/IEC 27001標準は、組織に対して「情報セキュリティマネジメントシステムを確立、実装、維持、継続的に改善するための指針」を提供します。ISO/IEC 27001は規制ではなく標準ですが、情報システムに依存する、あるいはデジタル記録を保有する業界全体で広く受け入れられ、求められるようになっています。 

他にも、車や飛行機から食品安全、医療機器に至るまで、数え切れないほどの事例があります。時代を通じて、標準は革新的な技術を安全に導入するための枠組みを提供し、それらが発展する一方でリスクの軽減と管理を可能にしてきました。AIの開発がこれと異なる理由があるでしょうか。

AI分野における標準の利点とは?

したがって、標準は、他の変革的技術がそうであったように、AIが世界に対して同様に前向きな影響をもたらすことを可能にする潜在力を持っています。しかし、これらの標準を効果的に機能させるためには、まず、それらが軽減を目指すべきリスクの種類を見極める必要があります。以下に、主要な考慮事項を示します。

1. バイアス、差別、または個人への害の軽減

AIシステムは大量のデータを用いて、採用から融資、さらには刑事判決、移民審査、福祉給付の提供に至るまで、さまざまな業務において人々に影響を与える判断を行います。アルゴリズムはデータセットを学習し、そこから正しい出力が何であるべきかを学びます。AIを活用することで意思決定を迅速化でき、たとえば政府は同じ時間内により多くの亡命申請や給付申請を処理できるようになり、滞留の削減やサービス満足度の向上につながります。 

しかし、証拠は、アルゴリズムが人間の偏見を再現、あるいは増幅する場合があることを示しており、特に少数派に対してその傾向が見られます。2023年のGuardianによる調査では、英国政府の一部ツールが差別的な結果を生み出していた証拠が見つかり、数十人が理由なく給付を停止されました。バイアスと差別は、組織に深刻な風評リスクをもたらすだけでなく、高額な訴訟の原因にもなります。 

標準は、潜在的なアルゴリズムのバイアスを早期に検出し、警告を発することを可能にし、被害が発生する前に是正できるようにします。たとえば、NIST AI Risk Management FrameworkおよびISO 42001(それぞれについては後ほど詳しく説明します)には、バイアスのリスクを評価し、使用されるデータセットの品質を検証するための要件があります。一般的な要件としては初期リスク評価があり、AIシステムの文脈に内在するバイアスの可能性、すなわち、アルゴリズムが再現し得る、特定の人口統計学的グループが歴史的・構造的に受けてきた不利益に焦点を当てます。 

2. 透明性と説明責任の向上

人々は、AIシステムがどのように、いつ、そしてどの目的で使用されているのかを理解できるべきです。これは、幅広いステークホルダーにとって理解しやすい言葉で説明される必要があります。残念ながら、ユーザーは、特定の判断(たとえば信用申請の承認)の背後にAIシステムがあることを必ずしも認識していません。AIが使われていることを認識していても、そのシステムがどのようにその判断に至ったのかについての情報は、通常十分ではありません。




AIシステムは高い自律性を持って動作するため、開発者が意図していなかった、あるいは予見していなかった方法で判断に至ることがあります。説明責任は極めて重要です。たとえば、インパクト評価のような保証手法を通じて、リスクを早期に特定する助けとなるからです。標準は、個人および組織がAIシステムの行動や判断に対する責任を持ち、常に人間が介在する体制を確保することを求めます。




標準では、データソース、ユースケース、意思決定プロセス、パフォーマンス指標、潜在的な制約など、AIシステムに関する情報の文書化を組織に求めることが一般的です。これらの情報は、アルゴリズムがどのように機能し、どのような成果を上げているかを理解し、伝達するうえで不可欠です。多くの標準は、ユーザーがAIシステムとやり取りしていることを認識できるようにする製品ラベリングを推進することで、透明性を高めています。EnzaiのAIポリシーガイドは、AIシステムのライフサイクル全体を通じて透明性と説明責任の施策を実装する方法について、価値ある助言を提供します。

3. 高度なリスク管理

AIには大きな機会がある一方で、多くのリスクも伴います。これらには、ハルシネーションのリスク(大規模言語モデルが誤った情報を生成する場合)、知的財産権侵害、データプライバシー侵害などが含まれます。効果的なリスク管理は、望ましくない結果の発生可能性を低減し、組織がステークホルダーとの信頼を築き、良好な評判を維持する助けとなります。




AIガバナンス標準で一般的なリスク台帳とリスク評価は、組織がAI技術に関連するリスクを特定、評価、軽減することを可能にします。  

4. 安全性と信頼性の向上

AIシステムは、医療、国家安全保障、インフラストラクチャなど、数多くの重要領域で使用されているため、高い信頼性と安全性が強く求められます。AIシステムは技術的に安全で、意図どおりに機能し、サイバー攻撃のようなセキュリティ脅威に対して耐性を備えていなければなりません。米国国立標準技術研究所(NIST)によれば、「敵対者は、AIシステムを意図的に混乱させたり、さらには『汚染』したりして、誤作動を起こさせることができる」とされています。

性能、正確性、拡張性、耐障害性について基準を設けることで、組織は攻撃への耐性が高く、万一攻撃が発生した場合にも早期に検知できる、堅牢で信頼性の高いAIシステムを開発できます。 

5. 法律・規制の遵守

組織は、AI技術の利用を規定する関連法令および規制を遵守する必要があります。EU AI ActのようにAIリスクに特化した新法が導入されつつありますが、製品/サービスにAI要素が含まれているからといって、既存法を無視することはできません。データ保護法、消費者保護規制、差別禁止法、業界特有の規制は、すでに存在しています。非遵守は、法的紛争、罰金、制裁、そして風評被害につながる可能性があります。 

標準は規制のように義務ではありませんが、関連分野におけるベストプラクティスの採用を促しつつ、既存規制の遵守を可能にします。AI特有の標準は、性能指標、リスク評価、ユースケース分析など、効果的なリスク管理を確保し、意思決定の監査可能な記録を作成するための多様な施策をカバーできます。




6. 社会的信頼の向上

社会的信頼が高まることで、AI技術の受容率や導入率が向上し、ステークホルダーとの関係強化や市場での競争優位性にもつながります。というのも、社会は倫理的配慮と信頼性を重視するからです。AIが、私たち皆が望むような世界における善の力として十分な規模に達するためには、社会的信頼を獲得しなければなりません。そのためには、技術の構築、展開、利用のあり方に高い基準を設けることが有効です。

標準とAIガバナンスフレームワーク 

幸いなことに、現在ではAI分野で利用できるさまざまな標準が存在し、上記のリスクに対処するうえで組織を支援しています。NIST、Institute of Electrical and Electronics Engineers(IEEE)、そして国際標準化機構(ISO)といった世界有数の標準策定機関は、最近、組織がAIプログラム全体で高い基準を採用するために利用できるフレームワークを公表しました。 

以下に、その一部を簡潔にご紹介します。

ISO/IEC JTC 1/SC 42

ISOは国際電気標準会議(IEC)とともに、AIに関する標準を策定するための合同技術作業部会を設置し、その成果としてISO 42001の公表に至りました。これらの標準は、組織が効果的なAI管理システム(AIMS)を導入することを可能にし、用語、倫理的配慮、評価方法など、AIのさまざまな側面をカバーしています。 

現在、チームは新たな標準であるISO 42006の策定に取り組んでいます。これは、監査人が個々の組織がISO 42001の要件にどの程度準拠しているかを効果的に測定するための指針を示すものであり、この監査プロセスにより、組織は定期的にコンプライアンス認証を取得できるようになります(これは、前述のISO 27001における情報セキュリティのプロセスに類似しています)。

注記:Enzaiは、ISO 42001の要件に完全準拠した包括的なAI管理システムを提供した、世界でも最初の組織のひとつです。

NISTのAI Risk Management Framework

米国の国立標準技術研究所(NIST)は、AIシステム専用のリスク管理フレームワークを開発しました。このフレームワークは、AI技術に関連するリスクの特定、評価、軽減に関する指針を提供し、AIガバナンスの中核機能である(1)統治(Govern);(2)把握(Map);(3)測定(Measure);(4)管理(Manage)の4つのセクションに分かれています。北米の多くの組織は、このNIST AI Risk Management Frameworkを羅針盤として採用しています。

NIST AI RMFの要件を整理したブログを作成しています。こちらをご覧ください。EnzaiのAIガバナンスソリューションは、組織がこれらの要件に完全準拠して運用できるようにします。

OECDのAI原則

AI分野における高い基準の基礎を築く初期の取り組みとして特に著名なのが、経済協力開発機構(OECD)によるものです。OECDは2019年5月、AIの責任ある開発と利用のための実践的かつ柔軟な原則群を採択しました(そのAIの定義は、現在ではEU AI Actの最終文面にも広く採用されています)。OECDのAI原則には、透明性、公平性、説明責任といった価値ベースの原則に加え、政策立案者向けの提言が含まれています。

原則にとどまらず、OECDのAI Policy Observatoryには、組織が信頼できるAIを開発・活用できるよう設計されたツールと指標のカタログがあり、その中にはEnzaiのAIガバナンスプラットフォームも含まれています。 

World Ethical Data Foundation(WEDF)の「Me-We-It」:オープンスタンダード

WEDFのオープンスタンダードは、3つの目的を持つ、無料のオンライン公開フォーラムです。(1)業界が健全な基盤の上で再出発できるよう、より倫理的なAIを構築するための助言を提供すること、(2)AIシステムを構築するプロセスを一般の人々に理解してもらうこと、(3)AIおよびデータサイエンスのコミュニティに対して、誰もが自由に質問できる場を作ること、です。 

このフレームワークは、「Me」「We」「It」の3つのセクションに分かれています。WEDFはそれらを次のように説明しています。「Me」とは、AIに取り組む各個人が、開始前および作業を進める過程で自らに問いかけるべき質問です。「We」とは、グループ自らに問いかけるべき質問であり、特に、可能な限り人間のバイアスを低減するために必要な多様性を定義することを目的としています。「It」とは、作成中のモデルおよびそれが私たちの世界に与え得る影響に関連して、個人およびグループに問いかけるべき質問です。

AIガバナンス標準の導入

AIガバナンス標準の導入、または既存の取り組みの改善を検討している組織にとって、何から始めればよいかを判断するのは容易ではありません。EnzaiのStart Fastメソッドには、必要なものが3つのシンプルなステップにすべて揃っています。(1)ポリシーとアセスメントを作成または選択する、(2)AI台帳を構築する、(3)アセスメントを開始する、です。Enzaiプラットフォームには、すぐに使えるポリシーとアセスメントフレームワークが標準搭載されており、同業他社と差別化できる業界最高水準の標準を採用できます。 

Enzaiが貴社のAIガバナンス標準の導入や、今後予定されている規制への対応をどのように支援できるか、さらに詳しく知りたい方は、今すぐお問い合わせください

さらに詳しく見る

さらに詳しく見る

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

設計に伴うコンプライアンス

設計に伴うコンプライアンス

ISO 27001

EnzaiISO 270012023NQAInstil

一般データ保護規則 (GDPR)

ISO 27001

EnzaiISO 270012023NQAInstil

一般データ保護規則 (GDPR)

AI

AI

インフラストラクチャ

インフラストラクチャ

信頼を構築するために設計されています。

信頼を構築するために設計されています。

組織がAIを採用し、管理し、監視する能力を、企業レベルの信頼性で強化します。規模で運営する規制対象の組織向けに構築されています。

既存のシステム、ポリシー、AIワークフローを、すべて1つの統合プラットフォームでシームレスに接続します。

既存のシステム、ポリシー、AIワークフローを、すべて1つの統合プラットフォームでシームレスに接続します。