AI ガバナンス用語集。

AIガバナンスの主要な用語と概念をわかりやすい定義で理解し、Enzaiプラットフォームを使いこなすのに役立ちます。

ありがとう!提出物が受理されました!
おっと!フォームの送信中に問題が発生しました。
合成データ

実際のデータ分布を模倣した人工的に生成されたデータセット。プライバシーを保護しながらトレーニングセットを拡張するために使用されます。

品質保証

AIモデルとデータパイプラインが精度、信頼性、倫理的コンプライアンスに関して定義された基準を満たしていることを確認するための体系的なプロセスとチェックを行います。

品質管理

AIのアウトプットとプロセスをベンチマークやテストケースと照らし合わせて継続的に検証し、欠陥、バイアスインシデント、またはポリシー違反を見つけます。

因果推論

因果関係を判断するために使用されるAIと統計学の手法で、介入や変数の変化による影響を理解するのに役立ちます。

外れ値検出

予想されるパターンから大幅に逸脱するデータポイントを特定したり、予測をモデル化したりして、レビューや緩和措置を誘発する手法。

大規模言語モデル

テキスト生成、翻訳、要約などのタスクを実行できる膨大なテキストコーパスでトレーニングされたディープラーニングモデル。多くの場合、偏見や誤用に対するガバナンスが必要です。

定量的リスク評価

潜在的なAIの脅威をデータ主導で評価し、発生可能性と影響を数値的に推定して緩和策の優先順位を決めます。

審査員オートメーション

AIを活用して陪審員選定や事件分析を支援し、公平性、透明性、法的監督に関する倫理的懸念を提起すること。

導入後の監視

リリース後のAIシステムの動作と環境を継続的に観察して、劣化、ドリフト、コンプライアンス違反を検出します。

差分プライバシー

データセット内のグループのパターンを記述し、個人に関する情報は差し控えることにより、データセットに関する情報を公開するためのシステム。

差別

AIでは、データやアルゴリズムの偏りに基づいて個人やグループを不当に扱い、不平等な結果をもたらすことを指します。

差異モニタリング

AI モデルの出力やパフォーマンスメトリクスの経時的な変動を追跡して、ドリフトを検出し、潜在的な劣化やリスクを推測します。

年次コンプライアンスレビュー

規制や内部標準との継続的な整合性を確保するために、AIガバナンスのプロセス、ポリシー、システムを毎年評価します。

幻覚

ジェネレーティブAIが誤った情報や偽造した情報を生成し、その情報にもっともらしいように見えても、トレーニングデータには根拠がない場合。

影響評価

導入前にAIシステムの潜在的な倫理的、法的、社会的影響を特定、分析、軽減するための体系的な評価です。

微調整

新しいデータでトレーニングを続けることで、事前にトレーニングされた AI モデルを特定のタスクまたはデータセットに適応させ、多くの場合、タスク固有のパフォーマンスを向上させます。

情報ガバナンス

AI トレーニングデータセットを含む、組織のデータ資産全体にわたるデータ品質、プライバシー、使いやすさを保証するポリシー、手順、統制です。

情報プライバシー

AI システムによる個人データの収集、使用、保存、共有の方法を管理する個人の権利。

所有権

AI資産(データ、モデル、プロセス)に対する責任と権限を明確に割り当て、システムライフサイクル全体にわたるアカウンタビリティを確保すること。

拒否権限

ガバナンス機関または利害関係者が保有する、容認できないリスクをもたらすAI導入を阻止または変更するよう求める正式な権利。

指標とKPI

AIシステムの健全性、リスク、コンプライアンス目標を監視するために使用される定量的指標(精度ドリフト、公平性スコア、インシデント対応時間など)。

推論

トレーニング済みの AI モデルが、新しいデータ入力を処理して予測や意思決定を行うプロセス。

推論エンジン

入力データに知識ベースを適用して結論を導き出すAIシステムのコンポーネント(多くの場合、ルールベースのシステムまたはエキスパートシステム)。

損失関数

予測出力と真の値の差を定量化する数学関数で、モデルのトレーニングと最適化をガイドします。

教師なし学習

明示的な結果ガイダンスなしに、モデルがラベル付けされていないデータ内のパターンやグループを識別する機械学習アプローチ。

敵対的攻撃

不正な入力を導入して誤った出力を発生させることで AI モデルを操作する手法。

暗黙のバイアス

トレーニングデータやモデル設計に無意識または意図しないバイアスが埋め込まれていると、差別的な結果につながる可能性があります。

書き込み1回限りの読み取り多数 (WORM) ストレージ

不変ストレージにより、ログ、監査証跡、モデルアーティファクトを一度書き込んだら変更できないようにし、否認防止とフォレンジックレビューをサポートします。

最低特権

AI コンポーネントとユーザーには、その機能を実行するために必要な最小限のアクセス権のみが付与され、悪用のリスクが軽減されるというセキュリティ原則。

根本原因分析

AIシステムの障害や予期せぬ行動の根本的な原因を特定し、是正措置の指針となる体系的な調査。

検証

AI モデルが意図したタスクを正確かつ確実に実行し、定義されたパフォーマンス基準を満たしていることを確認するプロセス。

機能エンジニアリング

未処理のデータセット属性を作成、選択、または機械学習モデルのパフォーマンスを向上させる機能に変換する。

機能安全

特に自動車やヘルスケアなどの業界では、あらゆる条件下でAIシステムが安全に動作することを保証します。多くの場合、冗長性とチェックが必要です。

機能選択

モデルトレーニングに最も関連する機能を特定して選択することで、複雑さを軽減し、精度を向上させることができます。

欠損データの処理

モデルの完全性と公平性を維持するためにデータセットのギャップに対処するための手法(代入、削除、モデリングなど)。

正式な検証

AIアルゴリズムが、セーフティクリティカルなシステムでよく使用される、指定された正確性特性に準拠していることを数学的に証明します。

汎用人工知能

人間の知能と同様に、知識を一般的な方法で理解、学習、適用する能力を備えたAIの一種です。

特徴抽出

生データ (テキスト、画像など) を ML アルゴリズムへの入力に適した数値表現 (特徴) にマッピングするプロセス。

異種データ

異なるタイプ (テキスト、画像、センサー) のデータ、または複数のドメインのデータを組み合わせると、統合とガバナンスの課題が生じます。

的ハッキング

AI(アイ)

監督

AIの開発と導入に関するレビュー、承認、説明責任の体系的なプロセス。通常は部門間のガバナンス機関が関与します。

相互運用性

多様な AI システムやコンポーネントが、多くの場合、オープンスタンダードや API を介して情報をシームレスに交換、理解、使用する能力。

社会的影響評価

AIシステムがコミュニティの社会的、経済的、文化的側面にどのように影響するかを体系的に評価し、潜在的な害と利益を特定します。

稼働時間監視

AIシステムの可用性とパフォーマンスを継続的に追跡して、重要な業務やコンプライアンス義務に影響を与える可能性のある機能停止や機能低下を検出します。

管轄区域

データ、AI の運用、および責任に関する法的権限。これは地域によって異なり、地域の規制(GDPR、CCPA など)の遵守に影響します。

精度

AI システムの出力が、現実世界のデータまたは意図した結果をどの程度正しく反映しているかです。

統治

倫理的、法的、かつ効果的なAIシステムの開発と導入を導く一連のポリシー、手順、役割、責任。

継続的なモニタリング

AI システムのパフォーマンス、データドリフト、バイアス指標、セキュリティイベントを継続的に追跡し、新たなリスクを長期的に検出して対処します。

継続的学習

人間の介入なしに新しいデータ入力から継続的に学習し、適応するAIシステムの能力は、時間の経過とともに向上します。

緩和戦略

特定された AI リスクとコンプライアンスギャップに対処するための計画的な措置 (バイアスの修正、再トレーニング、機能のリエンジニアリングなど)

脆弱性評価

AI インフラストラクチャとアプリケーションのセキュリティ上の弱点を特定、分析、優先順位付けして、修復作業の指針にします。

脱獄攻撃

ユーザーが脆弱性を悪用してジェネレーティブAIモデルのセーフガードを迂回するタイプのプロンプトインジェクションです。これにより、安全でない出力や不正な出力につながる可能性があります。

自然言語処理 (NLP)

機械がテキストまたは音声形式の人間の言語を解釈、生成、分析できるようにする手法とツール。

規制コンプライアンス

AIシステムが運用全体を通じて適用される法律、規制、業界標準(GDPR、FDA、財務監督など)に準拠していることを確認します。

解釈可能性

人間がAIモデルの内部メカニズムや意思決定の根拠をどの程度理解できるか。

詐欺検知

AI技術(異常検知、パターン認識など)を使用して、金融や保険などの不正行為を特定して防止します。

認可利用ポリシー

誤用を防ぐために、AIシステム運用の承認されたコンテキスト、ユーザー、目的を指定するルールとコントロールを定義しました。

認知コンピューティング

コンピューター化されたモデルで人間の思考プロセスをシミュレートするAIのサブセットで、人間の助けなしに複雑な問題を解決することを目的としています。

認知バイアス

規範からの逸脱や判断の合理性の体系的なパターン。トレーニングデータに存在する場合、AIの意思決定に影響を与える可能性があります。

認知的負荷

ユーザーに負担をかけないシステムを設計するためにAIで考慮される、ワーキングメモリに費やされる精神的努力の合計量。

誘導バイアス

学習アルゴリズムが、観測データから目に見えない事例までを一般化するために使用する一連の仮定。

説明しやすさのテクニック

ライム、シェイプ、ダイエスマップなど、AI MVEALの登場人物が集まってきます。

説明可能な人工知能 (XAI)

AIシステムは、意思決定と行動を人間が理解できる形で正当化できるように設計されており、透明性と信頼性を高めます。

説明可能な機械学習

機械学習モデルは、予測と決定について明確でわかりやすい説明を提供するように設計されています。

説明可能性と解釈可能性

どちらもAIの意思決定を理解できるようにすることを目的としていますが、説明可能性は意思決定の背後にある理由に焦点を当て、解釈可能性はモデルの内部メカニクスの透明性に関係します。

警戒モニタリング

AIの行動と外部シグナル(規制の更新など)を継続的に監視して、新たなリスクやコンプライアンス違反を迅速に特定して対応します。

責任ある人工知能

倫理的で透明性が高く、利害関係者や社会に対して説明責任のある方法でAIシステムを設計、開発、導入する慣行。

責任割り当てマトリックス

各ガバナンス活動の役割と説明責任 (責任者、説明責任者、相談者、情報提供者) を明確にするツール (RACI など)。

責任枠組み

開発者、デプロイ担当者、オペレーターを含め、AI関連の損害または障害の責任者を定義する構造化されたアプローチ。

質的評価

専門家によるAIシステムの行動、意思決定、文書に関する主観的なレビューにより、定量的に捉えられなかった倫理的、法的、評判上の懸念事項を特定します。

転移学習

あるタスク用に開発されたモデルを関連するタスクに適用することで、開発時間を短縮できるが、受け継がれたバイアスのガバナンスが必要となる手法。

透明性

AIシステムのプロセス、意思決定論理、データ使用を明確にして利害関係者が説明責任を果たせるようにする慣行。

適合性評価

AI システムが特定の要件、標準、または規制を満たしているかどうかを判断するプロセス。多くの場合、テストと認証が含まれます。

量子コンピューティング

量子力学を活用する新しい計算パラダイムは、セキュリティ、標準化、リスクに関する新たなガバナンスの課題を提起しています。

非識別

プライバシーを保護するために、データセットから個人識別情報を削除または不明瞭にして個人を特定しにくくするプロセス。

頼りに

影響を受ける個人が、自分の権利や利益に影響を与えるAI主導の決定に異議を唱えたり、救済を求めたりできるようにするメカニズム。

顧客を知る (KYC)

特に規制の厳しい業界において、AIシステムとやり取りする個人または団体の身元、リスクプロファイル、および正当性を検証するためのコンプライアンスプロセス。