AI ガバナンス用語集。

AIガバナンスの主要な用語と概念をわかりやすい定義で理解し、Enzaiプラットフォームを使いこなすのに役立ちます。

ありがとう!提出物が受理されました!
おっと!フォームの送信中に問題が発生しました。
AI による説明のしやすさ

AI システムの内部メカニズムを人間がどの程度理解し、解釈できるか。

AI の透明性

AI システムは、その運用、意思決定、データ使用についてオープンで明確でなければならないという原則。

AI アカウンタビリティ

AIシステムの開発者と運用者は、自社のシステムが倫理基準と法的要件に従って責任を持って設計され、使用されることを保証する義務があります。

AI アライメント

AIシステムの目標と行動が人間の価値観と意図と一致していることを確認するプロセス。

AI コンプライアンス

ライフサイクル全体にわたって、AIシステムが適用される法律、規制、倫理ガイドラインを遵守すること。

AI バイアス

偏見のあるトレーニングデータや欠陥のあるアルゴリズムに起因するAI出力の系統的エラーは、不公平な結果につながります。

AI モニタリング

信頼性、安全性、コンプライアンスを確保するために、AIシステムのパフォーマンスを継続的に観察および分析します。

AI リスク

AIシステムが、倫理的、法的、運用上のリスクを含む、危害や意図しない結果を引き起こす可能性。

AI リスク管理

AI システムに関連するリスクを特定、評価、軽減するプロセス。

AI リテラシー

AI の概念、機能、制限を理解することで、AI テクノロジーとの情報に基づく対話が可能になります。

AIガバナンス

AIシステムの倫理的かつ効果的な開発と利用を導くポリシー、プロセス、統制の枠組み。

GDPR

個人データの収集、処理、および個人の権利に関する厳しい要件を定めたEUの一般データ保護規則。

GPU

大規模AIモデルの効率的なトレーニングと実行に広く使用されている、並列計算専用のハードウェアアクセラレーター。

NIST AI リスク管理フレームワーク

米国国立標準技術研究所による自主的なガイダンスで、AI システムのライフサイクル全体にわたってリスクを軽減するためのベストプラクティスを概説しています。

XAI (説明可能な人工知能)

AIモデルの意思決定プロセスを人間にとって透明で理解しやすいものにし、説明責任とコンプライアンスをサポートする手法と方法。

XAI フレームワーク

組織が AI システム全体にわたる説明可能性のプラクティスを実装、測定、管理するために使用する構造化されたアプローチまたは一連のガイドライン。

XAI メトリックス

AIによる説明の質と信頼性を評価するために使用される量的または質的な指標(特徴重要度スコア、説明の忠実度など)。

XAI 監査

AIによる説明可能性のアウトプットが社内の方針や規制要件を満たしているかどうかを評価し、十分な透明性を確保するレビュープロセス。

Xバリデーション

データを分割してモデルの汎化を厳密に評価し、過適合を検出するモデル検証手法 (「X-Val」と略されることが多い)。

きめ細かな同意

データプライバシーアプローチにより、個人が各タイプのデータ使用について特定の権限を付与または拒否できるため、透明性と管理が強化されます。

しきい値設定

偽陽性と偽陰性などのリスクのバランスをとるために、AIの意思決定ルールに境界値またはカットオフ値(信頼スコアなど)を定義します。

アイソ/アイスキャンディック 1/SC 24

ガバナンス、リスク、相互運用性に関する国際AI標準を開発する人工知能標準化に関するISO/IEC合同委員会。

アルゴリズム

AI システムが自力で学習できるように、AI システムに与えられる一連のルールまたは指示。

アルゴリズムガバナンス

アルゴリズムを使用して社会的機能を管理および規制し、意思決定プロセスに影響を与える可能性があります。

アルゴリズムバイアス

機械学習プロセスにおける誤った仮定が原因で、アルゴリズムがシステム的に偏った結果を生成した場合に発生するバイアス。

アンケートフレームワーク

AIシステムがポリシー要件に合致していることを確認するために、設計、調達、または導入時に使用される、ガバナンスに焦点を当てた構造化された一連の質問。

アンサンブル学習

複数のモデルをトレーニングして組み合わせて同じ問題を解決し、全体的なパフォーマンスを向上させる機械学習パラダイム。

アンダーフィッティング

AIシステムが単純すぎて基礎となるデータパターンをキャプチャできないため、トレーニングと新しいデータの両方でパフォーマンスが低下するモデリングの問題。

イミュータブル・レッジャー

改ざんされやすい記録管理メカニズム(ブロックチェーンなど)により、一度書き込まれたデータは検出されない限り変更されないようにします。これは、AIの監査証跡に役立ちます。

インセンティブ調整

AIシステムの目標が人間の価値観や組織の優先事項と一致し続けるように、報酬体系と目標を設計します。

ウォッチドッグモニタリング

独立したランタイムチェックにより、AI の決定を観察し、ポリシーや閾値に違反した場合にアラートや介入をトリガーします。

エシカル人工知能

倫理的原則と価値観に沿った方法でAIシステムを設計、開発、導入し、公平性、説明責任、透明性を確保すること。

エッジ AI

エッジデバイスに AI アルゴリズムを導入することで、データ生成のソースでのデータ処理と意思決定が可能になります。

エッジ分析

データ生成元に近いネットワークのエッジでデータを分析し、遅延と帯域幅の使用量を削減します。

エンティティ解決

異なるデータセットにわたって、同じ現実世界のエンティティを参照するレコードを識別してリンクするプロセス。

オブザーバビリティ

ログ、指標、出力の収集と分析を通じてAIシステムの内部状態と動作を推測し、効果的な監視とトラブルシューティングを行う機能。

オペレーショナル・レジリエンス

混乱や有害事象を予測し、耐え、回復し、適応するAIシステムとその支援インフラの能力。

オーケストレーション

AIワークフローとサービス(データの取り込み、モデルトレーニング、導入)の自動調整により、ポリシーとリソースガバナンスの遵守が保証されます。

オーバーフィッティング

AIシステムがトレーニングデータ内のノイズや特異性を学習し、目に見えない新しいデータに一般化する能力を低下させるモデリングの問題。

ガイドライン (倫理的AI)

責任あるAIの開発と展開を形作るために組織(IEEE、EUなど)が発行する拘束力のない勧告またはベストプラクティス文書。

ガバナンススコアカード

主要な指標(バイアスインシデント、コンプライアンス監査など)を追跡して、AIガバナンスの有効性を経時的に測定するダッシュボードまたはレポートカード。

ガバナンスフレームワーク

AIガバナンスの構成要素 (リスク管理、説明責任、監視) がどのように組み合わされて、コンプライアンスと倫理的利用が保証されるかを示す構造化されたモデルです。

ガバナンスポリシー

組織内の AI の開発と監視に関する規則、役割、手順を体系化した正式な文書。

ガバナンス委員会の定足数

AI のリスク、ポリシーの承認、または監査結果に関する正式な決定を行うために出席する必要のあるガバナンス委員会メンバーの最低人数。

ガバナンス成熟度モデル

組織の AI ガバナンス慣行がどれほど進んでいるかをアドホックなものから最適化されたものまで評価する段階的なフレームワークです。

ガバナンス機関

組織内でのAIガバナンスポリシーとその実施を監督する任務を担う部門横断的なグループ(法律、倫理、技術など)。

ガードレール

実行時の危険な動作やコンプライアンス違反の動作を防ぐために、AI システムに事前定義された制約またはチェック(技術的およびポリシー的)が組み込まれています。

ギャップ分析

現在のAIガバナンスの実践を望ましい基準や規制と比較して、改善が必要な分野を特定するプロセス。

クエリープライバシー

ユーザークエリ内の機密情報を保護し、記録された入力が個人情報や専有データを危険にさらさないようにするための手法とポリシー。

クエリー・ロギング

AI システムからの入力やユーザークエリを記録して、監査証跡を作成したり、悪用を検出したり、説明責任を果たしたりする手法です。

クォータ管理

ガバナンスポリシーを実施し、コストの暴走や悪用を防ぐために、AIリソースの使用量(APIコール、コンピューティング時間など)に課せられた制御と制限。

クラス分け

機械学習における教師あり学習手法の 1 つで、モデルはトレーニングデータに基づいて新しい観測値のカテゴリまたはクラスラベルを予測します。

クロスバリデーション

統計分析の結果がどのように独立したデータセットに一般化されるかを評価するためのモデル検証手法。

グラウンド・トゥルース

AI モデルのパフォーマンスをトレーニングおよび評価するためのベンチマークとして使用される、正確で現実世界のデータまたはラベル。

グラデーションディセント

損失関数を最小限に抑える方向にモデルパラメーターを繰り返し調整する最適化アルゴリズム。

グリーン AI

エネルギー効率の高いアルゴリズムと持続可能なコンピューティング手法を通じて、AIの環境への影響を軽減する実践。

グレーボックスモデル

内部ロジックが部分的に透明で (一部のコンポーネントは解釈可能で、他のコンポーネントは不透明)、パフォーマンスと説明のしやすさのバランスが取れているモデル。

グローバルモデル

ローカライズされたモデルやパーソナライズされたモデルとは対照的に、複数のソースからの集計データに基づいてトレーニングされた統合AIモデル。

コンセプトドリフト

モデルが予測しようとしているターゲット変数の統計的特性の経時的な変化は、モデルの劣化につながります。

コンピュータービジョン

画像や動画など、世界からの視覚情報を解釈して処理するようにコンピューターを訓練するAIの分野。

コンプライアンスフレームワーク

組織が AI システムが規制および倫理基準を満たしていることを確認するために従う、体系化された一連のガイドラインとベストプラクティスです。

コンプライアンスリスク

法律、規制、または規定の慣行に従わなかった場合に、組織が直面する法的または規制上の制裁、経済的損失、または評判の低下の可能性。

コードとしてのインフラストラクチャ (IaC)

機械で読み取り可能な設定ファイルを使用して AI インフラストラクチャ (コンピューティング、ストレージ、ネットワーク) を管理およびプロビジョニングし、再現性と監査性を向上させます。

サイバーセキュリティ

デジタル攻撃からシステム、ネットワーク、プログラムを保護する慣行。AI システムを脅威から守る上で不可欠です。

サードパーティのリスク

コンプライアンスまたはセキュリティの脆弱性をもたらす可能性のある外部のデータプロバイダー、モデルベンダー、またはサービスプラットフォームへの依存から生じるリスク。

サーベイランスリスク

AIシステムが個人やグループの侵入的な監視に悪用され、プライバシーや市民的自由を侵害する可能性があるという脅威。

ジェネラライゼーション

トレーニング例を暗記するのではなく、基礎となるパターンをキャプチャすることで、目に見えない新しいデータに対して優れたパフォーマンスを発揮するAIモデルの能力。

ジェネレーティブAI

新しいコンテンツ(テキスト、画像、その他のメディア)を作成するAI技術(GAN、トランスフォーマーなど)は、しばしば新しいガバナンスや知的財産に関する懸念を引き起こします。

ジャスティス・メトリクス

AIの意思決定における公平性と無差別の評価に使用される定量的指標(異なる影響、機会均等など)。

ジョイントモデリング

複数のタスク(音声認識+翻訳など)を共同で学習するAIシステムを構築し、複雑さと監査可能性に対応するガバナンスが必要です。

ステークホルダー・エンゲージメント

影響を受ける当事者(ユーザー、規制当局、影響を受けるコミュニティなど)をAIの開発と監視に参加させて、多様な視点と賛同を得られるようにするプロセス。

セキュリティ・バイ・デザイン

脆弱性やデータ漏えいを防ぐために、設計の初期段階からセキュリティ管理とベストプラクティスをAIシステムに統合します。

ゼロショット学習

一般化された知識表現を活用して、タスクを正しく処理したり、明示的にトレーニングされたことのないデータを分類したりするモデル機能。

ゼロデイ脆弱性

パッチや緩和策が利用可能になる前に悪用される可能性のある、これまで知られていなかった AI ソフトウェアまたはインフラストラクチャのセキュリティ上の欠陥。

ゼロ・ディフェクト・トレランス

厳格なテスト、監視、継続的な改善サイクルに支えられた、AIアウトプットにエラーやポリシー違反がないことを目指すガバナンス原則。

ソフトウェア開発ライフサイクル

各段階でガバナンスとコンプライアンスチェックを組み込んだ、AIアプリケーションのエンドツーエンドプロセス(要件、設計、構築、テスト、デプロイ、監視)。

ゾーンベースのアクセス制御

リソースを個別のポリシーを持つゾーンに分割し、データの機密性に応じてAIシステムへのアクセスを制限するネットワークまたはデータガバナンスのアプローチ。

ダイナミック・リスク・アセスメント

リスクをリアルタイムで特定および評価する継続的なプロセスにより、AIシステムにおける新たな脅威へのタイムリーな対応が可能になります。

チャットボット

人間の会話をシミュレートするように設計されたAI搭載のソフトウェアアプリケーションで、顧客サービスや情報収集によく使用されます。

テストと検証

ベンチマーク、エッジケース、ストレス条件に照らしてAIモデルを評価し、パフォーマンス、安全性、コンプライアンス基準を満たしていることを確認する体系的なプロセス。

テールリスク

AIの行動や意思決定において、通常の予想外であり、特別な緩和計画が必要な、まれで極端な結果が生じる可能性があります。

ディープフェイク

ディープラーニング技術を使用して作成された、既存の画像またはビデオに写っている人物を他人の肖像に置き換える合成メディア。

ディープラーニング

データ内の複雑なパターンのモデリングを可能にする、複数の層を持つニューラルネットワークを含む機械学習のサブセット。

データガバナンス

企業におけるデータの可用性、使いやすさ、完全性、およびセキュリティを総合的に管理し、データがライフサイクルを通じて適切に処理されるようにします。

データドリフト

時間の経過に伴うモデル入力データの変化。監視して対処しないと、モデルのパフォーマンスが低下する可能性があります。

データプライバシー

どのデータを誰と共有するかを制御し、個人データが適切に取り扱われるようにするための情報技術の側面。

データライフサイクル管理

データフローのライフサイクル全体にわたるポリシーベースの管理 (作成から初期保存から、データが古くなって削除されるまで)。

データレジデンシー

組織のデータの物理的または地理的な場所。データ保護法の遵守に影響を与える可能性があります。

データ主権

データは、収集、保存、または処理される国内の法律およびガバナンス構造の対象となるという概念。

データ保護

重要な情報を破損、侵害、または損失から保護し、データ保護法および規制を確実に遵守するプロセス。

データ倫理

個人を特定できる情報の収集、保護、使用の道徳的義務に関するデータ慣行を評価する倫理の一分野。

データ品質

正確さ、完全性、信頼性、関連性などの要素に基づくデータの状態は、効果的な AI モデルのパフォーマンスに不可欠です。

データ最小化

特定の目的に必要なデータのみを収集し、悪用や侵害のリスクを軽減するという原則。

トレーサビリティ

データ収集からモデル開発、導入まで、AIライフサイクルの各ステップを追跡して文書化し、監査とフォレンジックをサポートします。

トレーニングデータセット

AIモデルにタスクを実行するために学習する必要のある関係とパターンを教えるために使用される、ラベル付きまたはラベルなしデータの精選されたコレクション。

ドメイン適応

あるドメインでトレーニングされたモデルを、別の関連ドメインでも動作するように調整する機械学習の手法。

ナレッジグラフ

エンティティとその関係を構造化して表現することで、AIによる説明のしやすさ、監査のしやすさ、ドメイン・オントロジーとの整合性が向上します。

ナレッジマネジメント

組織の知識(モデル文書、監査ログなど)を取得、整理、共有して、再現性と監視を確保するためのプラクティスとツール。

ナレッジ・ディスティレーション

大規模な「教師」モデルからより小さな「学生」モデルに洞察を移し、パフォーマンスとリソースおよびガバナンスの制約とのバランスをとる方法。

ニューラルアーキテクチャ検索

ニューラルネットワーク構造の設計と最適化を自動化して、複雑さとリソースの制約のバランスを取りながらモデルのパフォーマンスを向上させます。