
組織は、AI規制および違反に明確な結果を伴う執行可能な法律を遵守しなければなりません。しかし、なぜ組織はAIガバナンス基準を採用するべきなのでしょうか?
•
•
22 最小読了時間
トピック
AI革命
AIは新しいものではありませんが(アラン・チューリングの画期的な論文が1950年に初めて発表されて以来)、ここ数年でAIの能力と採用率の両方において指数関数的成長を遂げてきました。なぜか疑問はありません: 革新的なAI技術は、ヘルスケアや金融サービス、クリエイティブ産業を始めとするほぼすべての産業を根本から変革しました。
Open AIのGPT-4やGoogleのGemini、MetaのLlamaといったモデルのリリースにより、一層この傾向は加速し、これらの技術がより広くアクセス可能となっています。しかし、アクセスが増えるとリスクも増えます:ディープフェイクや誤情報、アルゴリズムバイアスと差別、セキュリティやデータプライバシーの懸念など様々です。
基準の重要性
私たちの生活を変える可能性を持つ新しい技術は多くのリスクも伴います。歴史を振り返り、どのようにして様々な技術が現代の生活に深く統合されたかを分析しようとすると、あるパターンが浮かび上がります。これらの新しいシステムに真に信頼を確立するためには、規制や市場慣行を通じて基準が確立されました。
例えば、1880年代の商用電気システムの発明は社会を完全に変え、生産性、効率、経済成長を促進しました。しかし、電気は感電や火災などの危険をも存在させ、怪我や死亡者を引き起こしました。20世紀初頭には、イギリスで最初の電気安全ガイドラインが導入され、この新しい技術のリスクを管理し事故を防ぐために次々と電気の基準が導入され、インストールが正しく構築され維持されることで火災のリスクを避けることが保証されました。電気供給とインストールの標準化によって、電気の広範な導入が実現しました。1930年代までに、イギリスの住宅の3分の2が電気を保有していたのに対し、1919年には6%でした。
より最近の例としては、情報セキュリティを挙げることができます。過去30年間にわたるインターネットの拡大は、テクノロジー産業を繁栄させ、ビジネスの運営方法やサービスの提供方法を成功裏に変革させました。しかし、インターネットは同時にサイバー犯罪の爆発を引き起こし、他の多くのリスクも発生させました。脅威はフィッシング攻撃から深刻なデータ漏洩やサイバーテロまで多岐にわたり、定期的に新しいサイバー犯罪の種類が見出されています。
これらのリスクへの対応として、情報セキュリティ標準が開発されました。ISO/IEC 27001は組織に対して、「情報セキュリティ管理システムを確立、実施、維持、継続的に改善するための指針」を提供しています。ISO/IEC 27001は標準であり規制ではありませんが、情報システムに依存する業種やデジタル記録を保持する業界で広く受け入れられ、必要とされています。
他にも無数の例があります-自動車や飛行機から食品安全、医療機器まで。時代を通じて、基準は革新的な技術の安全な採用のための枠組みを提供し、これらが繁栄することを可能にしながらそのリスクを軽減し管理するために働いてきました。AIの開発がこれと異なるべき理由はありません。
AI分野における基準の利点とは?
したがって、基準は他の変革的技術がもたらしたのと同様のポジティブな影響をAIがもたらす可能性を保証することができます。しかし、これらの基準が効果的であることを保証するためには、まず彼らが減少させるべきリスクの種類を理解する必要があります。以下にいくつかの主要な考慮事項を示します。
1. バイアス、差別、個人への危害の軽減
AIシステムは大量のデータを使用して、採用から融資、さらには刑事判決、移民、福祉給付の提供に至るまですべてを含む多様なタスクで人々に影響を与える決定を下します。アルゴリズムはデータセットで訓練され、その中から正しい出力が何であるかを学びます。AIを使用することで意思決定を迅速化でき、例えば政府は同じ時間でより多くの亡命または福祉給付の請求を処理し、バックログを削減しサービスへの満足度を向上させることができます。
しかし、アルゴリズムが時として人間のバイアスを再現または悪化させることが証明されています。2023年のガーディアンの調査では、一部の英国政府のツールが差別的な結果を生み出し、理由もなく何十人もの人々の給付を削減することを発見しました。バイアスと差別は、組織を巨大な評判のリスクと高額な訴訟にさらします。
基準は、組織にアルゴリズムのバイアスの可能性を早期に検知しフラグを立てることを可能にし、それにより害が生じる前に修正することができます。たとえば、NIST AIリスク管理フレームワークやISO 42001(下記で詳細に説明します)には、バイアスのリスクを評価し、使用されるデータセットの質を検査する要件があります。一般的な要件は、AIシステムの文脈において先天的なバイアスの可能性に焦点を当てた初期リスク評価であり、アルゴリズムが再現する可能性のある特定の人口グループが直面する歴史的または構造的な不利な条件を考慮します。
2. 増加する透明性と説明責任
人々はAIシステムがどのように、いつ、どの目的で使用されているのか理解すべきです。これは、幅広いステークホルダーがアクセス可能な言葉で説明する必要があります。残念ながら、ユーザーは必ずしも特定の決定がAIシステムによるものであることを知らない(たとえば、クレジット申請の承認)場合があります。AIが使用されていることに気づいている場合でも、そのシステムがどのようにしてその決定に至ったのかについての情報が不十分です。
AIシステムは高い自律性をもって動作するため、開発者が意図したり予測していなかった方法で決定に至ることができます。説明責任は重要であり、早期のリスク特定に役立ちます-たとえば、インパクトアセスメントのような保証技術を通じて。基準は、個人と組織がAIシステムの行動と決定に所有権を持ち、人間が常に関与していることを保証します。
基準はしばしば、AIシステムに関する情報を文書化するために組織に要求します。これには、データソース、ユースケース、意思決定プロセス、パフォーマンスベンチマーク、潜在的な限界が含まれます。この情報は、アルゴリズムがどのように機能し、それがどのようにパフォーマンスを示しているかを理解し、伝達するために重要です。多くの基準は、AIシステムとやり取りしていることをユーザーに知らせる製品表示を促進することで、透明性を向上させます。EnzaiのAIポリシーガイドは、AIシステムライフサイクルを通じて透明性と説明責任の対策を実装する方法について貴重なアドバイスを提供しています。
3. リスク管理の強化
AIは大きな機会を提供しますが、多くのリスクも伴います。これらのリスクには、大規模な言語モデルが誤った情報を生成する「幻覚」のリスク、知的財産侵害、データプライバシーの侵害などが含まれます。効果的なリスク管理は、ネガティブな結果の可能性を減らし、組織がステークホルダーとの信頼を構築し、良好な評判を維持するのに役立ちます。
AIガバナンス標準で一般的なリスク登録簿とリスク評価は、AI技術に関連するリスクを特定し、評価し、軽減することを組織に可能にします。
4. 改善された安全性と信頼性
AIシステムは、ヘルスケア、国家安全保障、インフラストラクチャーなど、多くの重要な領域で使用されるため、信頼性と安全性の強いニーズがあります。AIシステムは技術的に安全で、意図通りに動作し、サイバー攻撃のようなセキュリティ脅威に対して弾力性を持つべきです。国立標準技術研究所(NIST)によれば、「敵対者は意図的にAIシステムを混乱させたり、"毒殺"する可能性があり」、それによってシステムを誤作動させることができます。
パフォーマンス、精度、スケーラビリティ、弾力性の基準を設定することで、組織はより攻撃に対抗でき、攻撃が発生した場合には早期に検知できるような堅牢で信頼性のあるAIシステムを開発することができます。
5. 法律および規制の遵守
組織は、AI技術の使用を管理する関連する法律および規制に従う必要があります。EU AI法のように、AIリスクに特に対応する新しい法律が導入されていますが、製品やサービスにAI要素が含まれているからといって既存の法律を無視することはできません。データ保護法、消費者保護規制、差別禁止法、業界固有の規制がすでに存在します。不遵守は法律的な挑戦、罰金、ペナルティ、評判の損傷を引き起こす可能性があります。
基準は規制と同じく義務ではありませんが、既存の規制を遵守しながら、組織が関連フィールドでのベストプラクティスを採用することを可能にします。AI特有の基準は、パフォーマンス指標、リスク評価、ユースケース分析、効果的なリスク管理を確保し、意思決定の監査可能な記録を作成するために、多岐にわたる措置をカバーすることができます。
6. 強化された市民の信頼
強化された市民の信頼は、AI技術の受容率と採用率を改善し、ステークホルダーとの強力な関係を築き、市場で競争優位性を確保します。市民は倫理的な考慮事項と信頼性を重視します。AIが世界で望まれるような良い力となるためには、市民の信頼を得なければなりません。技術がどのように構築され、展開され、使用されるかについて高い基準を設定することがそれを可能にします。
基準とAIガバナンスフレームワーク
幸運なことに、AI分野には、上記リスクを乗り越えるのに役立つさまざまな基準が現在利用可能です。世界をリードする基準設定団体、たとえば、米国の国立標準技術研究所(NIST)、電気電子技術者協会(IEEE)、国際標準化機構(ISO)などが、AIプログラムに対して高い基準の採用を可能にするフレームワークを最近発表しました。
以下にそれらのいくつかの概要を示します。
ISO/IEC JTC 1/SC 42
ISOは国際電気標準会議(IEC)と協力し、AIにおける基準を開発する共同技術作業グループを設立し、それがISO 42001の発行に結びつきました。これらの基準は、AI管理システム(AIMS)を効果的に採用することを可能にし、AIの各種側面、用語、倫理的考慮、評価方法をカバーしています。
チームは現在、新しい基準ISO 42006の開発に取り組んでおり、ISO 42001の要件にどれだけ組織が準拠しているかを効果的に測定するためのガイドラインを監査者に提供します。この監査プロセスは組織が定期的な認証を取得し、準拠していることを確認するためです(先に詳しく説明したISO 27001における情報セキュリティのプロセスに類似しています)。
注、EnzaiはISO 42001の要件に完全に準拠した包括的なAI管理システムを提供する世界初の組織の一つでした。
NISTのAIリスク管理フレームワーク
米国の国立標準技術研究所(NIST)はAIシステムのためのリスク管理フレームワークを開発しました。このフレームワークは、AI技術に関連するリスクを特定、評価、軽減するための指針を提供し、AIガバナンスの基本機能として分かれています:(1)ガバナンス;(2)マッピング;(3)測定;(4)管理。北米の多くの組織は、NISTのAIリスク管理フレームワークを彼らの指針として採用しています。
NIST AI RMFの要件を説明するブログを準備しました-こちらをご覧ください。我々のAIガバナンスソリューションは、これらの要件に完全に準拠できるようにします。
OECDのAI原則
AI分野における高基準の基盤を確立するための最も顕著な初期の取り組みの一つは、経済協力開発機構(OECD)から始まりました。OECDは、2019年5月にAIの責任ある開発と使用のための実用的で柔軟な原則を採択しました(彼らのAIの定義は、それ以降EU AI法の最終テキストに主に取り入れられています)。OECDのAI原則には、透明性、公平性、説明責任といった価値基準に基づく原則と政策立案者への推奨が含まれています。
原則を超えて、OECDのAIポリシー観測所は、信頼できるAIを開発し使用するためのツールやメトリクスのカタログを提供しています。EnzaiのAIガバナンスプラットフォームも含まれています。
世界倫理データ財団(WEDF)の「Me-We-It」:オープンスタンダード
WEDFのオープンスタンダードは、3つの目標を持つ無償のオンラインフォーラムです:(1)より倫理的なAIの構築のための助言を提供し、産業が健全な基盤で再出発できるよう支援する;(2)AIシステムの構築プロセスを公衆に理解させる;(3)AIおよびデータサイエンスコミュニティに自由に質問できるスペースを提供する。
フレームワークは、「Me」、「We」、「It」の3つに分かれ、WEDFは次のように説明しています:「Me」は「AIに取り組む各個人が自身に尋ねるべき質問」を指します。「We」は、「グループが自身に尋ねるべき質問」を指し、特に人間のバイアスを可能な限り減らすための多様性を定義するためです。「It」は「作成中のモデルおよびそれが世界に与える影響に関連する質問を個人およびグループに尋ねるべき質問」を指します。
AIガバナンス基準の採用
あなたの組織がAIガバナンス基準を導入したり、既存の実践を改善しようとする場合、どこから始めるべきかを知るのは困難です。我々のStart Fastメソッドには、3つの簡単なステップで必要なすべてがあります:(1)ポリシーと評価を作成または選択する;(2)AIレジストリを構築する;(3)評価を開始する。Enzaiプラットフォームは、最高の基準を採用し、競合他社よりも優位に立つことができる即時対応ポリシーと評価フレームワークを提供しています。
Enzaiがあなたの組織がAIガバナンス基準を採用し、今後の規制に準拠する手助けをする方法に興味がある場合は、今すぐお問い合わせください。
組織がAIを採用し、管理し、監視する能力を、企業レベルの信頼性で強化します。規模で運営する規制対象の組織向けに構築されています。