AI ガバナンス用語集。

AIガバナンスの主要な用語と概念をわかりやすい定義で理解し、Enzaiプラットフォームを使いこなすのに役立ちます。

ありがとう!提出物が受理されました!
おっと!フォームの送信中に問題が発生しました。
ネットワークセキュリティ

AIインフラストラクチャとデータパイプラインを不正アクセスや改ざんから保護するための対策と制御(セグメンテーション、ファイアウォール、侵入検知など)。

ノイズインジェクション

学習データまたはモデルパラメータにランダムな摂動を意図的に導入して、堅牢性を高め、敵対的な操作を防ぎます。

ノベルティ検出

トレーニングデータと大幅に異なる入力またはシナリオを特定し、レビューまたはセーフモード操作をトリガーして予期しない障害を防止する技法。

ハイステークス AI

障害が重大な損害を引き起こすおそれのあるAIアプリケーション(医療診断、自動運転車など)。ガバナンスと監視の強化が必要です。

ハイパーパラメータチューニング

モデルのパフォーマンスを最大化するために最適なハイパーパラメータ値を検索するプロセス (グリッド検索、ベイズ最適化など)。

ハイパーパラメーター

モデルトレーニングの前に設定される構成変数 (学習率、ツリーの深さなど) は、学習行動とパフォーマンスに影響します。

ハイブリッドモデル

説明可能性とパフォーマンスのバランスをとるために、複数の学習パラダイム(シンボリックとニューラルなど)を組み合わせたAIシステム。

ハッシング

データを固定サイズの文字列に変換するプロセス。データの整合性チェックとプライバシー保護レコードのリンクに使用されます。

ハードウェアアクセラレーター

AI計算を高速化するように設計された特殊チップ(GPU、TPUなど)は、エネルギー使用とサプライチェーンのリスクに影響します。

ハーモナイゼーション

管轄区域全体でAIに関するポリシー、基準、規制を調整して、対立を減らし、相互運用性を実現します。

バイアス

偏見のあるトレーニングデータや欠陥のあるアルゴリズムに起因するAI出力の系統的エラーは、不公平な結果につながります。

バイアス増幅

AIシステムがトレーニングデータに存在する既存のバイアスを悪化させ、結果にますます偏りが生じる現象。

バイアス検知

AIモデルのアウトプットと意思決定プロセスを分析することにより、AIモデルのバイアスを特定するプロセス。

バイアス監査

AIシステムの偏りを検出して軽減し、公平性と倫理基準の遵守を確保するための評価プロセス。

バイアス緩和

モデルやデータセットのバイアスを軽減または排除するためにAI開発中に適用される手法。

バックプロパゲーション

ニューラルネットワークで使用されるトレーニングアルゴリズムで、誤差を出力層から逆方向に伝播して損失を最小限に抑えることで重みを調整します。

バッチ学習

インクリメンタル学習とは対照的に、データセット全体でモデルを一度にトレーニングする機械学習アプローチです。

バージョンコントロール

再現性と監査可能性を確保するために、AI コード、モデル、データセットへの変更を長期にわたって管理および追跡する慣行。

パイロットテスト

統制された環境で AI システムを対象範囲を限定して試験し、本格的に導入する前に、パフォーマンス、リスク、ガバナンス統制を評価します。

パーミッション

AIデータおよび機能へのユーザーとシステムのアクセス権を管理し、権限を最小限に抑え、不正使用を防止します。

ヒューマンオーバーサイト

指定された個人がAIシステムの決定を監視、介入、または無効にして、倫理的および法的遵守を確保できるようにするメカニズム。

ヒューマン・イン・ザ・ループ

正確性と説明責任を向上させるために、AIプロセス(トレーニング、検証、意思決定レビュー)に人間の判断を取り入れます。

ヒューリスティック

AIプロセスをスピードアップするために用いられる、経験則または簡略化された意思決定戦略。多くの場合、最適化と効率が優先されます。

ヒューリスティック評価

専門家が確立されたユーザビリティ原則に照らしてAIシステムを判断し、潜在的な問題を特定するユーザビリティ検査方法です。

ビジョン AI 監視

コンピュータビジョンシステム固有のガバナンスプロセスにより、画像/動画ベースの意思決定におけるデータ品質、バイアスチェック、透明性を確保します。

ファジーロジック

2進数の真/偽値ではなく、近似値を使用して推論を処理する論理システム。制御システムや不確実性の処理に役立ちます。

フィードバックループ

AI 出力が入力としてフィードバックされるプロセスです。これにより、モデルの動作が改善されるか (強化学習)、悪くなるか (バイアス強化) に増幅されます。

フェデレーテッド・ラーニング

未加工データを一元的に共有することなく、ローカルデータを保持する複数のデバイスまたはサーバーでモデルをトレーニングする分散型MLアプローチ。

フォールスポジティブ

AI モデルが、実際にはネガティブであるインスタンスに対してポジティブクラスを誤って予測した場合(タイプ I エラー)。

フォールトトレランス

一部のコンポーネントに障害が発生したりエラーが発生したりした場合でも、AI システムが正常に動作し続ける能力。

フレームワーク

AI システムのガバナンス、開発、導入、監視の指針となる、構造化されたポリシー、プロセス、ツールのセットです。

ブラックボックスモデル

内部の仕組みが透明でも解釈可能でもなく、意思決定がどのように行われるかを理解するのが難しいAIシステム。

プライバシー・バイ・デザイン

データ保護とユーザーのプライバシーに関する考慮事項を最初からAIシステムのアーキテクチャとプロセスに組み込むアプローチ。

プライバシー影響評価

データの収集、使用、共有、保持を対象とした、AIシステムに関連するプライバシーリスクを特定して軽減するための構造化された分析。

プロセスオートメーション

AIとワークフローツールを使用して、ガバナンス、コンプライアンスチェック、リスク軽減活動を合理化し、手作業とミスを削減します。

ベンダーリスク管理

潜在的なコンプライアンス、セキュリティ、または倫理的リスクを特定して軽減するために、AIコンポーネントまたはサービスの第三者サプライヤーを評価および監視する。

ベンチマーキング

AIシステムのパフォーマンスを標準指標や他のシステムと比較して有効性を評価するプロセス。

ホワイトボックステスト

内部動作(コード、パラメーター、アーキテクチャ)に関する十分な知識に基づいてAIシステムを評価し、正確性、セキュリティ、およびコンプライアンスを検証します。

ホワイトリスト

検証されていない要素や悪意のある要素によるリスクを軽減するために、AI パイプラインでは事前に承認されたデータソース、ライブラリ、またはモデルコンポーネントのみを許可します。

ホワイトリスト/ブラックリストポリシー

コンプライアンスを実施し、悪用を防止するために、許可(ホワイトリスト)および禁止(ブラックリスト)の入力、機能、または操作を定義するガバナンスルール。

ボット

自動化されたタスクを実行するソフトウェアアプリケーションで、AI ではカスタマーサービスやデータ収集などのタスクによく使用されます。

ポリシー施行

AI運用が組織のポリシー、規制規則、倫理ガイドラインに準拠していることを保証する自動または手動のメカニズム。

マルチステークホルダー・エンゲージメント

さまざまなグループ(法律、倫理、運用、エンドユーザーなど)をAIガバナンスプロセスに参加させ、バランスの取れたリスク監視とビジネス目標との整合性を確保します。

メタデータ管理

トレーサビリティと監査をサポートするために、記述データ(データの出所、機能の定義、モデルパラメータなど)を収集して維持する手法。

モデルの説明性

AIモデルの意思決定ロジックを利害関係者や監査人が理解できるようにするための手法と文書。

モデルガバナンス

AI モデルが組織の基準や規制要件に沿って開発、承認、使用されることを保証するポリシー、役割、統制です。

モデルモニタリング

AI モデルのパフォーマンス、データドリフト、運用指標を継続的に追跡して、劣化や新たなリスクを検出します。

モデルリスク管理

ライフサイクル全体を通じてAI/MLモデルから生じるリスクを特定、評価、軽減するための構造化されたプロセス。

モデル再トレーニング

データ配信の進化に合わせてパフォーマンスとコンプライアンスを維持するために、新しいデータまたは更新されたデータで AI モデルを更新するプロセス。

モデル検証

AIモデルがその意図された目的とパフォーマンス基準を満たしていることを確認する評価活動(ホールドアウトデータに対するテスト、ストレスシナリオなど)。

ヤコビアンマトリックス

AIによる説明可能性では、モデルのすべての出力とその入力値の一次偏導関数の行列を、感度と特徴量の重要性を評価するために使用されます。

ヤラ・ルール

AIパイプラインやアーティファクトをスキャンして、既知の悪質なコードや改ざんがないか調べるために使用されるシグネチャベースの検出パターンのセットです。

ユニフォーミティ

ガバナンスのギャップや不均一なリスク管理を回避するために、すべてのAIシステムにポリシー、統制、標準を一貫して適用するようにします。

ユーザー同意

AIシステムで個人データを収集、処理、または使用する前に、個人から明示的な許可を得て記録するプロセス。

ユースケースガバナンス

特定のAIユースケースを定義、承認、監視して、それぞれが組織のポリシー、倫理基準、リスクアペタイトに沿っていることを確認する手法。

ユーティリティ

意図した目標を達成するうえで AI システムがどれほど価値があるか、または効果的であるかを示す指標で、関連するリスクやリソースコストとのバランスを考慮したもの。

ライフサイクル管理

継続的なコンプライアンスとリスク管理を確実にするために、AIシステムの開発、導入、監視、保守、廃止のための調整されたプロセス。

ライブネス検出

入力(生体認証など)がなりすましや再生ではなく、実際の被写体からのものであることを検証するために使用される手法により、システムのセキュリティと整合性が強化されます。

ラベル漏れ

意図せず出力情報をトレーニングデータラベルに含めてしまうと、パフォーマンスメトリクスが膨らみ、モデルの一般化に関する真の問題が隠されてしまう可能性があります。

リスクアセスメント

適切な緩和戦略を決定するために、AIシステムにおける潜在的な危害や障害を特定、分析、優先順位付けするプロセス。

リスク管理フレームワーク

設計から廃棄までのシステムライフサイクル全体にわたって AI リスクに体系的に対処するための体系的なガイドラインとプロセスのセットです。

リーガルコンプライアンス

AIシステムがライフサイクル全体を通じて適用法、規制、業界標準に準拠することを保証する慣行。

レッド・チーミング

社内外の専門家が攻撃や悪用のシナリオをシミュレートしてAIシステムの脆弱性を明らかにするプロアクティブなテストアプローチです。

ログ管理

監査、インシデント対応、モデルパフォーマンスの追跡をサポートするために、AIワークフローからシステムログとアプリケーションログを収集、保存、分析します。

ロバストネス

さまざまな困難または敵対的な状況下でも信頼できるパフォーマンスを維持するAIシステムの能力。

ローカリゼーション

さまざまな法域における現地の言語、規制、文化的規範、データレジデンシー要件にAIシステムを適応させます。

ワークフローオーケストレーション

AIライフサイクルタスク(データの取り込み、トレーニング、検証、導入)を自動化および順序付けして、ガバナンスポリシーを実施し、一貫性を確保します。

ワークロード分離

AI コンピューティング環境 (開発、テスト、運用など) とデータドメインを分離して、障害やセキュリティ侵害の被害範囲を制限します。

ワーストケース分析

AIシステムの最も深刻な潜在的な障害や悪用を評価して、強固なリスク軽減策と緊急時対応計画に役立てる。

不均衡なデータ

あるクラスまたはカテゴリが他のクラスまたはカテゴリを大幅に上回っているデータセットは、緩和されない限り、AI モデルがマジョリティクラスに偏る可能性があります。

不透明度

AIモデルがどのように意思決定や予測にたどり着くのかが透明性に欠けていると、信頼と規制遵守に課題が生じます。

主体

(GDPRなど)539537第六集・第一、持、または個個人。

主要リスク指標

新たなAIリスクが顕在化する前にそれを知らせる主要な指標(範囲外の予測の頻度、説明のつかない決定の割合など)。

主要業績評価指標

AIガバナンスとコンプライアンス目標の監視と報告に使用される定量化可能な指標(モデルの精度ドリフト、バイアス修正時間など)。

予知保全

AI主導の監視と分析により、コンポーネントまたはシステムの障害を予測し、重要な環境における運用の回復力とリスク軽減を保証します。

人工知能

学習、推論、自己修正を含む、機械、特にコンピューターシステムによる人間の知能プロセスのシミュレーション。

人工知能倫理

AI技術の開発と展開に関連する道徳的含意と責任に関係する分野。

人工知能監査

倫理基準、規制、およびパフォーマンス指標への準拠を評価するためのAIシステムの体系的な評価。

人権影響評価

AIシステムが基本的権利(プライバシー、表現、無差別)にどのように影響するかを評価し、緩和策を特定するプロセス。

体重監査

モデルの重みや構造を調べて、改ざんや意図しない動作を示す可能性のある異常、バックドア、偏りがないかを調べます。

侵入検知

AIインフラストラクチャとアプリケーションに悪意のあるアクティビティやポリシー違反がないか監視し、アラートや自動応答をトリガーします。

信頼できる AI

AIシステムは、倫理的で信頼性が高く、安全で、人間の価値観や社会規範に沿った方法で設計および運用されています。

信頼できる AI のための倫理ガイドライン

欧州委員会のAIに関するハイレベル専門家グループが信頼できるAIを促進するために策定した一連のガイドラインで、ヒューマンエージェンシー、技術的堅牢性、プライバシー、透明性、多様性、社会的福祉、説明責任に焦点を当てています。

信頼区間

サンプル統計から導き出された、未知の母集団パラメーターの値を含む可能性が高い値の範囲で、AI では不確実性を表現するために使用されます。

倫理的な AI ガバナンス

AIシステムが責任を持って倫理的に開発され、使用されることを保証するポリシー、手順、および慣行の枠組み。

倫理的な AI 監査

AIシステムを体系的に評価して、倫理基準に準拠し、害を及ぼさないことを確認するプロセス。

倫理的な AI 認定

AI システムが確立された倫理基準とガイドラインに準拠していることを正式に認めること。

倫理的リスク

偏見、差別、プライバシーの侵害など、非倫理的な行動により AI システムが害を及ぼす可能性。

倫理的影響評価

導入前にAIシステムの倫理的影響と潜在的な社会的影響を特定して対処するための体系的な評価プロセス。

倫理的枠組み

AI システムの倫理的な開発と導入を導くように設計された、構造化された一連の原則とガイドライン。

偽陰性

AI モデルが、実際にはポジティブであるインスタンスに対してネガティブクラスを誤って予測した場合(タイプ II エラー)。

公平性

AIシステムがさまざまな個人やグループにわたって偏りのない公平な結果を生み出すことを保証し、差別的な影響を軽減します。

公平性指標

AIモデルの予測がグループ全体でどの程度公平であるかを評価するために使用される定量的指標(人口統計学的同等性、均等化オッズなど)。

共同責任

契約やガバナンス構造に影響を与えるAI関連の損害について、複数の当事者(開発者、導入者など)が責任を分担する法的原則

再現性

同じデータ、コード、構成を使用してAIモデルの結果を一貫して再生できるため、透明性と監査可能性が確保されます。

分散型学習

トレーニングデータを複数のデバイスまたは場所に分散させ、生データを共有せずにモデルを共同でトレーニングする機械学習アプローチです。

判断バイアス

人間やAIの意思決定プロセスにおけるシステムエラーは、コグニティブ・ショートカットや欠陥のあるデータによって引き起こされ、バイアスの監査と軽減が必要である。

制御性

人間がAIシステムの意思決定や行動をどの程度指示、影響、または無効にできるか。

危害評価

AIシステムの潜在的な悪影響(物理的、心理的、社会的)を評価し、緩和戦略を定義します。

司法審査

裁判所がAIによって下された、または支援された決定の合法性を評価し、説明責任と適正手続きを確保するための法的手続き。