EnzaiのAIガバナンス製品のフルスイートを探求し、企業がAIを自信を持って管理、監視、拡張するのを支援します。構造化されたインテークや中央集約されたAIインベントリから、自動評価やリアルタイムの監督まで、Enzaiは日常のAIワークフローにガバナンスを直接組み込むための基盤を提供します—イノベーションを遅らせることなく。

Enzai

すべて

ホワイトペーパー

AI 規制

ポッドキャスト

製品の更新情報

報道

用語集

私たちのポッドキャストに参加するか、コンテンツの共同作成にご協力ください

お問い合わせいただければ、共に創り上げることができる製品をご提案いたします。

エー

AIの責任

AIシステムの開発者および運用者は、そのシステムが責任を持って設計および使用され、倫理的基準と法的要件を遵守することを保証する義務があります。

AI整合

AIシステムの目的と行動を人間の価値観や意図に合わせるプロセス。

AI監査

AIシステムの倫理基準、規制、および性能指標への適合性を評価するための体系的な評価。

AIバイアス

偏見のあるトレーニングデータや欠陥のあるアルゴリズムに起因するAI出力における系統的誤差は、不公平な結果をもたらす可能性があります。

AIコンプライアンス

AIシステムがそのライフサイクル全体を通じて適用される法律、規制、および倫理指針を遵守すること。

AI倫理

AI技術の開発と導入に関連する倫理的影響と責任に関する分野です。

AIの説明可能性

AIシステムの内部メカニズムが人間によってどの程度理解され解釈されるか。

AIガバナンス

AIシステムの倫理的かつ効果的な開発と利用を支援するポリシー、プロセス、制御の枠組み。

AI在庫管理

組織全体で使用されている全てのAIシステム、モデル、エージェントの包括的かつ集中管理されたカタログであり、そのビジネス目的、リスクレベル、所有権を追跡します。

AIリテラシー

AIの概念、能力、限界を理解し、AI技術との適切な交流を可能にします。

AI監視

AIシステムのパフォーマンスを継続的に観察および分析し、信頼性、安全性、コンプライアンスを確保します。

AIリスク

AIシステムが引き起こす可能性のある損害や意図しない結果には、倫理的、法的、運用上のリスクが含まれます。

AIリスク管理

AIシステムに関連するリスクの特定、評価、軽減のプロセス。

AI TRiSM(AI トリズム)

Gartnerによって作られた頭字語であるAI Trust、Risk、Security Management(AI信頼性、リスク、およびセキュリティ管理)を指します。ガバナンス、信頼性、およびセキュリティを単一の運用戦略に統合するフレームワークです。

AIの透明性

AIシステムはその運用、意思決定、データの使用に関して開かれており、明確であるべきという原則。

正確性

AIシステムの出力が実世界のデータや意図された結果を正確に反映する程度。

敵対的攻撃

不正な出力を引き起こすために、誤解を招く入力を導入してAIモデルを操作する技術です。

エージェンティックAI

複雑な目標を自律的に追求し、ソフトウェアの展開や金融取引などの多段階のアクションを最小限の人間の介入で実行するように設計された人工知能システムのクラスです。

エージェンティックAIガバナンス

自律型AIシステムのガバナンスに関する説明です。これらのシステムは、予測AI(インサイトを提供するもの)や生成AI(コンテンツを作成するもの)とは異なり、独立した行動(例:取引、コードの展開)を実行する能力を有しています。

アルゴリズム

AIシステムが独自に学習するのを助けるための一連の規則または指示。

アルゴリズムの偏り

アルゴリズムが機械学習プロセスの誤った仮定により系統的に偏った結果を生成する際に発生するバイアス。

アルゴリズムによるガバナンス

アルゴリズムを活用して社会的機能を管理および規制することは、意思決定プロセスに影響を与える可能性があります。

汎用人工知能

人間の知能に類似した一般的な方法で理解し、学習し、知識を適用する能力を持つAIの一種です。

人工知能

機械による人間の知能プロセスのシミュレーション、特にコンピューターシステムによるものであり、学習、推論、自己修正を含みます。

B

誤差逆伝播法

ニューラルネットワークで使用される訓練アルゴリズムで、出力層から誤差を逆伝播させて重みを調整し、損失を最小限に抑えます。

バッチ学習

モデルが逐次学習ではなく、データセット全体を一度に学習する機械学習のアプローチです。

ベンチマーキング

AIシステムのパフォーマンスを標準的な指標や他のシステムと比較して、その効果を評価するプロセスです。

バイアス

偏見のあるトレーニングデータや欠陥のあるアルゴリズムに起因するAI出力における系統的誤差は、不公平な結果をもたらす可能性があります。

バイアス増幅

AIシステムが、訓練データに存在する既存のバイアスを悪化させ、ますます偏った結果を招く現象。

バイアス監査

AIシステムにおけるバイアスを検出し、緩和するための評価プロセスを策定し、公平性および倫理基準への準拠を保証します。

バイアス検出

AIモデルの出力や意思決定プロセスを分析することによって、偏見を特定するプロセス。

バイアス軽減

AI開発において、モデルやデータセット内のバイアスを削減または排除するために適用される技術。

ブラックボックスモデル

意思決定のプロセスが不透明または解釈できないため、どのように意思決定が行われるかを理解するのが難しいAIシステムです。

ボット

エンタープライズソフトウェア製品向けのマーケティングサイトにふさわしい形式で翻訳します。自動化されたタスクを実行するソフトウェアアプリケーションで、顧客サービスやデータ収集などのタスクにAIでよく使用されます。

C言語

因果推論

AIと統計学の分野で用いられる手法であり、因果関係を特定し、介入や変数の変更が影響を及ぼすことを理解するのに役立ちます。

チャットボット

AIを搭載したソフトウェアアプリケーションは、人間の会話を模擬するように設計されており、主に顧客サービスや情報収集のために使用されます。

分類

機械学習における教師あり学習技法で、モデルがトレーニングデータに基づいて新しい観測のカテゴリまたはクラスラベルを予測します。

認知バイアス

訓練データ内に存在する場合、AIの意思決定に影響を与える可能性がある、通常や合理性からの一貫した逸脱のパターン。

コグニティブ・コンピューティング

人間の思考プロセスをコンピュータモデルで模倣し、複雑な問題を人の手を借りずに解決することを目指すAIのサブセット。

認知負荷

AIにおけるシステム設計では、ユーザーを圧倒しないようにするために、作業記憶で使用される精神的な努力の総量が考慮されます。

コンプライアンスフレームワーク

組織が規制および倫理基準を満たすAIシステムを確実にするために従うガイドラインとベストプラクティスの体系的なセット。

コンプライアンスリスク

法律、規制、または定められた慣行に従わない場合に企業が直面する法的あるいは規制上の制裁、財務上の損失、または評判の損害の可能性。

コンピュータービジョン

AIの一分野として、コンピュータに画像やビデオなどの視覚情報を解釈し処理する能力を訓練する技術です。

コンセプトドリフト

モデルが予測しようとしている対象変数の統計特性の時間経過に伴う変化は、モデルの劣化を引き起こします。

信頼区間

サンプル統計から導き出された一連の値で、未知の母集団パラメーターの値を含む可能性が高く、AIにおいて不確実性を表現するために使用されます。

適合性評価

AIシステムが指定された要件、基準、または規制を満たしているかどうかを判断するプロセスであり、多くの場合、テストおよび認証が含まれます。

継続的学習

AIシステムは、新しいデータ入力から人間の介入なしに継続的に学習し、適応し、時間とともに改善する能力を持っています。

制御性

人間がAIシステムの決定や行動を指示、影響を与える、または無効化することができる程度。

交差検証

統計解析の結果が独立したデータセットにどのように一般化されるかを評価するためのモデル検証手法。

サイバーセキュリティ

システム、ネットワーク、およびプログラムをデジタル攻撃から守る実践は、脅威に対してAIシステムを保護する上で重要です。

データ

データドリフト

時間の経過に伴うモデル入力データの変化は、監視・対応しなければ、モデルの性能低下を引き起こす可能性があります。

データ倫理

個人を特定可能な情報を収集、保護、使用する際の倫理的義務に関して、データの取り扱いを評価する倫理学の一分野です。

データガバナンス

企業におけるデータの可用性、使用性、整合性、およびセキュリティの全体的な管理は、データのライフサイクル全体を通して適切に取り扱われることを保証します。

データライフサイクル管理

データフローのライフサイクル全体にわたるポリシーに基づく管理: 作成および初期保存から、陳腐化し削除されるまでの一連の流れを包括的に管理します。

データ最小化

特定の目的に必要なデータのみを収集するという原則は、誤用や漏洩のリスクを軽減します。

データプライバシー

情報技術の側面で、どのデータが共有され、誰と共有されるかを制御する能力を扱い、個人データが適切に取り扱われることを保証します。

データ保護

重要な情報を保護し、破損、漏洩、損失を防止するとともに、データ保護法規制への準拠を確実にするプロセスです。

データ品質

AIモデルの効果的なパフォーマンスに不可欠であるデータの状態は、正確性、完全性、信頼性、関連性といった要因に基づいています。

データレジデンシー

組織のデータの物理的または地理的な場所は、データ保護法の遵守に影響を及ぼす可能性があります。

データ主権

データは、それが収集、保存、または処理される国家の法律およびガバナンス構造に従うという概念です。

データ主体

個人データが収集、保持、または処理される個人は、特にGDPRのようなデータ保護法の文脈で重要です。

識別情報の削除

データセットから個人識別子を削除または隠蔽し、個人の特定を困難にするプロセスであり、プライバシー保護に利用されます。

ディープラーニング

複数層のニューラルネットワークを伴う機械学習の一部であり、データの複雑なパターンをモデル化することを可能にします。

ディープフェイク

既存の画像やビデオ内の人物が、ディープラーニング技術を使用して作成された他の人物の肖像に置き換えられる合成メディア。

差分プライバシー

データセット内のグループのパターンを記述しつつ、個人に関する情報を秘匿したまま、データセットについての情報を公に共有するシステムです。

差別

AIにおいて、データやアルゴリズムの偏見に基づく個人またはグループに対する不公平な扱いを指し、それが不平等な結果を招くことを意味します。

分散型学習

トレーニングデータが複数のデバイスまたは場所に分散され、生のデータを共有することなく、協力してモデルをトレーニングする機械学習アプローチです。

ドメイン適応

機械学習の技術の一つであり、ある領域で訓練されたモデルが異なるが関連する領域で機能するように適応されることを指します。

動的リスク評価

AIシステムにおける新たな脅威に対して、タイムリーな対応を可能にする、リスクの継続的なリアルタイムでの識別および評価のプロセス。

E

エッジAI

データ生成の源であるエッジデバイスにAIアルゴリズムを展開し、データ処理と意思決定を可能にします。

エッジアナリティクス

データ生成のソースに近いネットワークのエッジでのデータ分析により、待ち時間と帯域幅の使用を削減します。

アンサンブル学習

複数のモデルを訓練して組み合わせることで同じ問題を解決し、全体的なパフォーマンスを向上させる機械学習のパラダイム。

エンティティ解決

異なるデータセット間で同じ実世界のエンティティを参照するレコードを識別し、リンクするプロセスです。

Enzai

企業向けAIガバナンスプラットフォームは、組織がAIシステムをインベントリし、評価し、管理することを可能にし、AIの採用を最大化しながらAIリスクを最小限に抑えることを保証します。

倫理的なAI

倫理原則と価値観に沿って設計、開発、展開されるAIシステムの慣行は、公平性、説明責任、透明性を確保します。

倫理的AI監査

AIシステムが倫理基準を順守し、害を及ぼさないことを保証するために、体系的に評価するプロセス。

倫理的AI認定

AIシステムが確立された倫理基準とガイドラインに従っていることを正式に認定すること。

倫理的なAIガバナンス

AIシステムが適切かつ倫理的に開発・使用されることを保証するためのポリシー、手順、実践のフレームワーク。

倫理的枠組み

AI システムの倫理的な開発と展開を導くために設計された原則とガイドラインの体系的なセット。

倫理的ハッキング

AIシステムの堅牢性を確保するために、意図的にシステムの脆弱性を探し出し、セキュリティ問題を特定して修正する取り組みです。

倫理的影響評価

AIシステムの導入前に、その倫理的影響および潜在的な社会的影響を特定し、対処するための体系的な評価プロセス。

倫理的リスク

AIシステムが偏見、差別、プライバシー侵害などの非倫理的な行動により、害を及ぼす可能性があるというリスク。

信頼できるAIのための倫理ガイドライン

欧州委員会のAIハイレベル専門家グループによって開発された一連の指針であり、人間の主体性、技術的堅牢性、プライバシー、透明性、多様性、社会的幸福、説明責任に重点を置き、信頼できるAIを促進することを目的としています。

説明可能性技術

AIモデルによって行われた意思決定を解釈し理解するための手法には、LIMEやSHAP、サリエンシーマップなどがあります。

説明可能性と解釈可能性

両者ともAIの意思決定を理解しやすくすることを目指していますが、説明可能性は意思決定の理由に焦点を当てており、解釈可能性はモデルの内部メカニズムの透明性に関わっています。

説明可能なAI(XAI)

AIシステムは、その決定と行動について人間が理解できる説明を提供するように設計されており、透明性と信頼性を高めます。

説明可能な機械学習

予測や意思決定に対して明確で理解しやすい説明を提供するように設計された機械学習モデル。

エフ

公平性

AIシステムがさまざまな個人やグループに対して偏りのない公平な結果を生成し、差別的な影響を軽減することを保証します。

公平性指標

AIモデルの予測がグループ間でどれほど公正であるかを評価するために使用される定量的指標(例:人口統計の平等性、平等化されたオッズ)。

偽陰性

AIモデルが実際には正であるインスタンスに対して誤って負のクラスを予測する場合(タイプIIエラー)。

誤検出

AIモデルが実際にはネガティブなインスタンスに対して誤ってポジティブクラスを予測する場合(第一種過誤)。

フォルトトレランス

AIシステムがいくつかのコンポーネントで故障やエラーが発生した場合でも、正しく動作し続ける能力。

特徴工学

機械学習モデルの性能を向上させる特徴量として、生のデータセット属性を作成、選択、または変換すること。

機能抽出

生データ(例: テキストや画像)を、機械学習アルゴリズムへの入力に適した数値表現(特徴量)にマッピングするプロセス。

機能選択

モデルトレーニングのために最も関連性の高い特徴を特定して選択し、複雑さを軽減し精度を向上させます。

フェデレーテッドラーニング

モデルが生データを中央で共有することなく、複数のデバイスやサーバーにあるローカルデータでトレーニングされる分散型機械学習アプローチ。

フィードバックループ

AIの出力が入力としてフィードバックされるプロセスであり、これによりモデルの挙動が増幅される可能性があります。これは、良い方向(強化学習)にも、悪い方向(バイアスの強化)にも影響を与える可能性があります。

微調整

あらかじめ学習済みのAIモデルを特定のタスクやデータセットに適応させ、新しいデータを用いて学習を続けることで、しばしばタスク特有のパフォーマンスを向上させます。

形式的検証

AIアルゴリズムが指定された正確性の特性を遵守していることを数学的に証明することは、安全性が非常に重要なシステムでよく使用されます。

フレームワーク

AIシステムのガバナンス、開発、展開、監視を導くためのポリシー、プロセス、ツールの構造化セットです。

不正検出

AI技術(例:異常検知、パターン認識)を利用して、金融や保険などでの不正行為を特定し防止することができます。

機能安全

AIシステムがあらゆる状況下で安全に運用されることを保証することは、特に自動車産業や医療分野においては、冗長性やチェックを通じて重要です。

ファジー論理

制御システムや不確実性の処理に役立つ、真偽ではなく近似値で推論を行うロジックシステムです。

ジー

一般データ保護規則 (GDPR)

EUの一般データ保護規則は、個人データの収集、処理、個人の権利に関する厳格な要件を確立しています。

GPU(グラフィックスプロセッサ)

大規模なAIモデルを効率的にトレーニングおよび実行するために広く使用されている、並列計算専用のハードウェアアクセラレータです。

ギャップ分析

現在のAIガバナンスの実践を望ましい基準や規制と比較して、改善が必要な領域を特定するプロセスです。

一般化

AIモデルがトレーニング例を記憶するのではなく、基盤となるパターンを捉えることによって、新しい未見のデータで高い性能を発揮できる能力。

生成的AI

AI技術(例えば、GANsやトランスフォーマーなど)は、新たなコンテンツ—テキスト、画像、その他のメディアを生成することがあり、その過程で新しいガバナンスや知的財産権の問題を引き起こすことが頻繁にあります。

グローバルモデル

複数の情報源から収集されたデータで訓練された統合AIモデルは、ローカライズされたモデルやパーソナライズされたモデルとは異なります。

ガバナンス

AIシステムの倫理的、合法的、かつ効果的な開発および展開を導く一連の方針、手続き、役割、責任。

ガバナンス機関

組織内でAIガバナンス方針とその実行を監督することを任務とする法務、倫理、技術などのクロス機能グループ。

ガバナンスフレームワーク

AIガバナンスの構成要素(リスク管理、アカウンタビリティ、監督)がどのように組み合わされて、コンプライアンスと倫理的な利用を確保するかを説明するための構造化されたモデルです。

ガバナンス成熟度モデル

組織のAIガバナンス実践の進化度を評価するための段階的枠組みであり、臨時的なものから最適化されたものまでを対象としています。

ガバナンスポリシー

企業内のAI開発および監督に関する規則、役割、手続きを成文化した正式な文書です。

ガバナンススコアカード

AIガバナンスの有効性を時間の経過とともに測定するために、重要な指標(例:偏りのある事件やコンプライアンス監査)を追跡するダッシュボードまたは報告書。

勾配降下法

損失関数を最小限に減少させる方向にモデルパラメータを反復的に調整する最適化アルゴリズム。

詳細な同意

データの使用ごとに個別に許可を与えたり拒否したりできるデータプライバシーアプローチであり、透明性とコントロールを強化します。

グリーンAI

エネルギー効率の高いアルゴリズムや持続可能なコンピューティングの実践を通じて、AIの環境への影響を削減する取り組み。

グレイボックスモデル

内部ロジックが部分的に透明であるモデル(いくつかのコンポーネントは解釈可能であり、他は不透明である)は、性能と説明可能性のバランスを取ります。

グラウンドトゥルース

AIモデルのパフォーマンスを訓練および評価するための基準として使用される、正確な現実世界のデータまたはラベルです。

ガードレール

AIシステムに組み込まれた定義済みの制約やチェック(技術的およびポリシー)は、実行時における安全でないまたはコンプライアンスに違反する行動を防ぐためのものです。

ガイドライン(倫理的AI)

責任あるAI開発と展開を形成するために発行される、IEEEやEUなどの組織による、拘束力のない推奨またはベストプラクティスの文書です。

エイチ

幻覚

生成AIがトレーニングデータに基づかないにもかかわらず、もっともらしく見える誤った情報や捏造された情報を生成する場合。

欠損データの処理

データセットの欠損を解決し、モデルの整合性と公平性を維持するための手法(例:補完、削除、モデリング)。

ハードウェアアクセラレーター

AIの計算を高速化するために設計された専門チップ(例:GPU、TPU)は、エネルギー使用とサプライチェーンに関するリスクに影響を与えます。

リスク評価

AIシステムがもたらす可能性のある負の影響(物理的、心理的、社会的)を評価し、緩和策を策定します。

調和化

AIのポリシー、標準、および規制を各管轄区で整合させ、競合を減らし、相互運用性を実現します。

ハッシュ化

データを固定サイズの文字列に変換するプロセスで、データの整合性チェックやプライバシーを保護しながらの記録のリンクに使用されます。

異種データ

異なる種類のデータ(テキスト、画像、センサー)や複数のドメインからのデータを組み合わせることは、統合およびガバナンスの課題を引き起こします。

ヒューリスティック

AIプロセスを迅速化するために使用される経験則または簡略化された意思決定戦略であり、しばしば最適性を効率性に交換します。

ヒューリスティック評価

AIシステムを既存のユーザビリティ原則に基づいて専門家が評価し、潜在的な問題を特定するためのユーザビリティ評価手法です。

ハイステークスAI

重大な被害を引き起こす可能性があるAIアプリケーション(例えば、医療診断や自律走行車)には、厳格なガバナンスと監視が必要です。

人間による監督

指定された個人がAIシステムの意思決定を監視し、介入し、または上書きして倫理的および法的な遵守を保証するためのメカニズム。

人権影響評価

AIシステムが基本的人権(プライバシー、表現の自由、差別の禁止)にどのように影響するかを評価し、緩和策を特定するためのプロセスです。

人間を介したプロセス

AIプロセス(トレーニング、検証、意思決定のレビュー)に人間の判断を組み込むことで、正確性と説明責任を向上させます。

ハイブリッドモデル

複数の学習パラダイム(例: シンボリックとニューラル)を組み合わせて、説明性とパフォーマンスのバランスを取るAIシステム。

ハイパーパラメーター

モデルの学習前に設定され、学習の挙動や性能に影響を与える設定変数(例: 学習率、木の深さ)。

ハイパーパラメータチューニング

モデルのパフォーマンスを最大化するために、グリッド検索やベイズ最適化などを通じて最適なハイパーパラメータ値を検索するプロセス。

ISO/IEC JTC 1/SC 42

人工知能標準化に関する国際標準化機構 (ISO) と国際電気標準会議 (IEC) の合同委員会は、ガバナンス、リスク、および相互運用性のための国際的なAI標準を開発しています。

不均衡データ

あるクラスまたはカテゴリが他のクラスやカテゴリに比べて著しく数が多いデータセットは、適切な対策を講じない限り、AIモデルが多数派のクラスに偏る原因となる可能性があります。

不変の台帳

一旦データが書き込まれると、改ざんされても検知できるようにしつつ、改ざんの痕跡が残る記録管理機構(例: ブロックチェーン)—これはAI監査の証跡に有用です。

影響評価

AIシステムの導入前に、潜在的な倫理的、法的、社会的影響を特定、分析、および緩和するための体系的な評価。

潜在的なバイアス

トレーニングデータやモデル設計に組み込まれた無意識または意図しないバイアスが、差別的な結果を招く可能性があります。

インセンティブの整合

AIシステムの目標が人間の価値観と組織の優先事項に一致し続けるように、報酬構造と目的を設計すること。

帰納バイアス

学習アルゴリズムが観察されたデータから未知のインスタンスへ一般化する際に使用する仮定のセット。

推論

訓練されたAIモデルが新しいデータ入力を処理し、予測や決定を下すプロセスです。

推論エンジン

AIシステムのコンポーネント(特にルールベースまたはエキスパートシステムにおいて)は、知識ベースを入力データに適用して結論を導き出す機能を持っています。

情報ガバナンス

組織のデータ資産全体にわたり、データの品質、プライバシー、利用可能性を確保するための方針、手順、および管理、これにはAIのトレーニングデータセットも含まれます。

情報プライバシー

個人がAIシステムによって収集、使用、保存、共有される個人データを管理する権利。

コードとしてのインフラストラクチャ (Infrastructure as Code, IaC)

機械可読の構成ファイルを通じてAIインフラストラクチャ(計算、ストレージ、ネットワーキング)を管理およびプロビジョニングすることで、再現性と監査性を向上させます。

相互運用性

多様なAIシステムやコンポーネントが、オープンスタンダードやAPIを通じて、情報を円滑に交換し、理解し、利用する能力。

解釈可能性

AIモデルの内部メカニズムまたは意思決定の合理性を人間が理解できる程度。

侵入検知

AIインフラとアプリケーションの悪意ある活動やポリシー違反を監視し、アラートや自動応答をトリガーします。

J

ヤコビアン行列

AIの説明可能性において、モデルの出力に対する入力の全一次偏導関数の行列は、感度と特徴の重要性を評価するために使用されます。

脱獄攻撃

ユーザーが脆弱性を利用して生成AIモデルの保護手段を回避し、不安全または不正な出力を引き起こす可能性があるプロンプトインジェクションの一形態です。

連帯責任

複数の関係者(例えば、開発者やデプロイ者)がAI関連の損害に対して責任を共有する法的原則であり、契約およびガバナンス構造に影響を与えます。

共同モデリング

複数のタスク(例えば、音声認識と翻訳)を共同で学習するAIシステムを構築し、その複雑さと監査可能性についてのガバナンスが必要です。

判断バイアス

認知バイアスや不完全なデータによって引き起こされる人間またはAIの意思決定プロセスにおける体系的なエラーには、偏見監査と緩和が必要です。

司法審査

AIによって行われたり補助されたりする決定の合法性を評価する法的プロセスであり、アカウンタビリティと適正手続きの確保を目的としています。

管轄区域

地理によって異なるデータ、AI操作、および責任に関する法的権限は、地域規制(例:GDPR、CCPA)へのコンプライアンスに影響を与えます。

陪審オートメーション

AIを使用して陪審員の選定やケース分析を支援することは、公平性、透明性、法的監視に関する倫理的懸念を引き起こしています。

ジャスティス・メトリクス

AI意思決定における公正性と差別禁止を評価するために使用される定量的な指標(例:異なる影響、機会の均等など)。

K

重要業績評価指標

AI ガバナンスとコンプライアンスの目標を監視し報告するために使用される定量的な指標(例えば、モデルの精度の変化、バイアスの修正時間)です。

主要リスク指標

AIのリスクが顕在化する前に、それらの発生を示す先行指標(例:スコープ外予測の頻度、説明不能な意思決定の割合)。

顧客の身元確認 (KYC)

AIシステムと関わる個人または組織の身元、リスクプロファイル、および正当性を確認するためのコンプライアンスプロセス、特に規制された業界において重要です。

知識蒸留

より大きな“教師”モデルからより小さな“生徒”モデルに洞察を転送する方法であり、パフォーマンスをリソースやガバナンスの制約とバランスさせます。

ナレッジグラフ

エンティティとその関係の構造化された表現を使用して、AIの説明性、監査可能性、およびドメインオントロジーとの整合性を向上させます。

ナレッジ管理

組織の知識(例:モデル文書、監査ログ)を取得、整理、共有するための実践とツール。これにより、再現性と監督が確保されます。

L

ラベル漏れ

出力情報が訓練データラベルに不注意に含まれることで、パフォーマンス指標が水増しされ、モデルの真の一般化問題が隠されてしまうことがあります。

大規模言語モデル

膨大なテキストコーパスで訓練されたディープラーニングモデルは、テキスト生成、翻訳、要約などのタスクを実行できますが、バイアスや誤用に対するガバナンスが求められることがよくあります。

最小特権

AIコンポーネントとユーザーに必要最小限のアクセス権のみを付与することで、機能を果たすために必要なリスクを低減するセキュリティ原則です。

法令遵守

AIシステムがその全ライフサイクルにわたって適用される法律、規制、および業界標準に従っていることを確保する実践。

責任の枠組み

AIに関連する損害や失敗に対する責任を明確にするための体系的なアプローチであり、開発者、導入者、およびオペレーターが含まれます。

ライフサイクル管理

AIシステムの開発、展開、監視、保守、および廃止のための統合されたプロセスは、継続的なコンプライアンスとリスク管理を確保するために設計されています。

ライブネス検知

入力(バイオメトリクスなど)が偽造やリプレイではなく、生きた主体から来ていることを確認するために使用される技術であり、それによりシステムのセキュリティと整合性を向上させます。

ローカライゼーション

AIシステムを各地域の言語、規制、文化的規範、データの居住要件に適合させること。

ログ管理

AIワークフローからのシステムおよびアプリケーションログの収集、保存、分析により、監査、インシデント対応、モデルパフォーマンスの追跡を支援します。

損失関数

予測された出力と真の値との違いを定量化し、モデルのトレーニングと最適化を導く数学的関数です。

M

意義のある人間の制御

人間がAIの意思決定プロセスを監督し、介入し、上書きする能力を保持することを保証する規制および運用の基準です。

メタデータ管理

トレーサビリティと監査をサポートするために、記述データ(例: データの起源、機能の定義、モデルのパラメータ)を記録し維持する実践。

指標とKPI

AIシステムの健全性、リスク、コンプライアンスの目標を監視するために使用される定量的指標(例:精度の変動、公平性スコア、インシデント対応時間)。

緩和策

特定されたAIリスクとコンプライアンスのギャップに対応するための計画的な行動(例:バイアス是正、再訓練、機能再工学)。

モデルの説明可能性

AIモデルの意思決定ロジックをステークホルダーや監査人に理解可能にする技術とドキュメント。

モデルガバナンス

AIモデルが組織の基準および規制要件に準拠して開発、承認、および使用されることを保証するためのポリシー、役割、および制御。

モデル監視

AIモデルのパフォーマンス、データのドリフト、運用指標を継続的に監視し、劣化や新たなリスクを検出します。

モデル再訓練

データ分布の進化に伴い、性能とコンプライアンスを維持するために、新しいデータや更新されたデータでAIモデルを更新するプロセス。

モデルリスク管理

AI/MLモデルのライフサイクル全体を通じて発生するリスクを特定し、評価し、軽減するための構造化されたプロセス。

モデル検証

AIモデルが本来の目的と性能基準を満たしていることを確認する評価活動(例:保持データに対するテストやストレスシナリオ)。

マルチステークホルダーエンゲージメント

AIガバナンスプロセスにおいて多様なグループ(法務、倫理、運用、エンドユーザーなど)を関与させ、リスクのバランスを取った監視を行い、ビジネス目標と一致させるための体制を整えます。

いいえ

NIST AIリスク管理フレームワーク

米国国立標準技術研究所による自発的なガイダンスであり、AIシステムのライフサイクルにおけるリスクを軽減するためのベストプラクティス概要です。

自然言語処理(NLP)

機械がテキストや音声形式で人間の言語を解釈、生成、分析することを可能にする技術とツール。

ネットワークセキュリティ

AIインフラストラクチャとデータパイプラインを不正アクセスや改ざんから保護するための措置と管理(例:セグメンテーション、ファイアウォール、侵入検知)。

ニューラルアーキテクチャ検索

ニューラルネットワーク構造を設計および最適化するための自動化手法は、複雑性とリソース制約とのバランスを取りながら、モデルのパフォーマンスを向上させます。

ノイズインジェクション

意図的にランダムな摂動をトレーニングデータやモデルパラメータに導入し、頑健性を向上させ、敵対的な操作に対して保護します。

新規性検出

トレーニングデータと大きく異なる入力やシナリオを特定し、予期しない障害を防ぐためにレビューや安全モードの操作を開始するための技術。

Oを

可観測性

ログ、メトリクス、出力の収集と分析を通じて、AIシステムの内部状態と動作を推測し、効果的な監視とトラブルシューティングを可能にする機能。

継続的なモニタリング

AIシステムの性能、データドリフト、バイアス指標、セキュリティイベントを継続的に監視し、時間の経過とともに新たに発生するリスクを検出し対処します。

不透明度

AIモデルが意思決定や予測に至る過程の透明性の欠如は、信頼性と規制遵守において課題をもたらします。

業務レジリエンス

AIシステムおよびそれを支えるインフラストラクチャが予測し、耐え、回復し、そして混乱や不利な事象に適応する能力。

オーケストレーション

AIワークフローとサービスの自動化された調整—データの取り込み、モデルの訓練、展開—がポリシーとリソースのガバナンスへの準拠を確実にします。

異常検知

期待されるパターンから著しく逸脱するデータポイントやモデル予測を特定し、レビューまたは緩和措置を促す技術。

過学習

AIシステムがトレーニングデータ内のノイズや特殊性を学習してしまい、新たな未確認データに対する一般化能力が低下するモデリングの問題です。

監督

AIの開発と導入に関するレビュー、承認、そして責任の構造化されたプロセスは、通常、様々な機能を持つ統治機関を含む形で行われます。

所有権

AI資産(データ、モデル、プロセス)に対する責任と権限を明確にすることで、システムライフサイクル全体にわたってアカウンタビリティを確保します。

P

権限管理

AIデータと機能へのユーザーおよびシステムのアクセス権限を、最小特権の確保と不正使用の防止を実現する形で管理します。

パイロットテスト

AIシステムの本格展開に先立ち、その性能、リスク、ガバナンス制御を評価するために、限定的な範囲の試験を管理された環境で実施します。

ポリシー施行

AIの運用が組織のポリシー、規制のルール、および倫理的ガイドラインに準拠することを保証する自動または手動のメカニズム。

展開後のモニタリング

リリース後のAIシステムの動作および環境を継続的に観察し、劣化、ドリフト、またはコンプライアンス違反を検出します。

予測保守

AIを活用した監視と分析により、コンポーネントやシステムの故障を予測し、重要な環境における運用の回復力とリスク軽減を確保します。

プライバシー影響評価

AIシステムに関連するプライバシーリスクを特定し緩和するための構造的な分析には、データの収集、使用、共有、および保持を網羅しています。

プライバシー・バイ・デザイン

AIシステムのアーキテクチャとプロセスにおいて、データ保護とユーザーのプライバシーに関する考慮事項を最初から組み込むアプローチです。

プロセスオートメーション

AIおよびワークフローツールを活用して、ガバナンス、コンプライアンスチェック、リスク軽減活動を効率化し、手動の作業やエラーを削減します。

定性的評価

AIシステムの行動、意思決定、および文書について、専門家が主観的に評価することで、定量的に捉えきれない倫理的、法的、または評判に関する懸念を特定します。

品質保証

AIモデルとデータパイプラインが正確性、信頼性、倫理的遵守の定められた基準を満たすことを保証するための体系的なプロセスとチェック。

品質管理

AIの出力およびプロセスをベンチマークやテストケースに照らして継続的に検証し、欠陥、バイアス事象、またはポリシー違反を検出します。

定量的リスク評価

AI の潜在的脅威のデータ駆動型評価では、軽減策の優先順位を決定するために、可能性と影響を数値で推定します。

量子コンピューティング

量子力学を活用する新たな計算パラダイムは、セキュリティ、標準化、リスクに関するガバナンスの新しい課題を提起しています。

クエリログの記録

AIシステムの入力とユーザーの問い合わせを記録することで、監査トレイルを可能にし、誤用を検出し、アカウンタビリティをサポートします。

プライバシーに関するお問い合わせ

ユーザーのクエリ内の機密情報を保護するための技術とポリシーを策定し、記録された入力が個人情報や専有データを損なわないようにすることを保証します。

アンケートフレームワーク

設計、調達、または展開時に使用されるガバナンスに焦点を当てた質問の体系的なセットで、AIシステムがポリシー要件に適合していることを保証します。

ガバナンスボードの定足数

AIのリスク、方針承認、または監査結果に関する正式な決定を行うために必要なガバナンス委員会メンバーの最小人数。

割り当て管理

AIリソースの使用(例:API呼び出し、計算時間)に対する制御と制限は、ガバナンスポリシーを遵守し、費用の高騰や乱用を防ぐために設定されています。

R言語

リコース

AIによって権利や利益に影響を与える決定に対して、影響を受けた個人が異議を申し立てたり救済を求めたりすることができるメカニズム。

レッドチーミング

AIシステムの脆弱性を発見するために、内部または外部の専門家が攻撃や悪用シナリオを模擬するプロアクティブなテストアプローチ。

法令遵守

AIシステムが運用中、適用される法律、規制、業界標準(例:GDPR、FDA、金融監査)を遵守することを保証します。

再現性

同じデータ、コード、および設定を使用してAIモデルの結果を一貫して再生成する能力は、透明性と監査可能性を確保します。

責任割り当てマトリックス

各ガバナンス活動に対する役割と責任を明確にするツール(例: RACI)—誰が責任者であり、説明責任を持ち、相談を受け、情報を提供されるか。

責任あるAI

ステークホルダーと社会に対して倫理的で透明性があり、責任を持った方法でAIシステムを設計、開発、展開する実践。

リスク評価

AIシステムにおける潜在的なリスクや故障を特定し、分析し、優先順位を付けて、適切な対策を策定するプロセス。

リスク管理フレームワーク

設計から廃止まで、システムライフサイクル全体でAIリスクに体系的に対処するためのガイドラインとプロセスの構造化されたセットです。

堅牢性

AIシステムがさまざまな困難または敵対的な条件下でも信頼できるパフォーマンスを維持する能力。

根本原因分析

AIシステムの失敗または予期しない動作の根本的な原因を特定し、是正措置を導くための体系的な調査。

エス

制限付き利用規約

AIシステムの誤用を防ぐため、許可されたコンテキスト、ユーザー、目的を指定する定義されたルールと管理を実施します。

セキュリティバイデザイン

AIシステムにおけるセキュリティコントロールとベストプラクティスを、設計初期段階から統合することで、脆弱性やデータ漏洩を防止します。

シャドウAI

ITの承認を得ずに従業員がAIモデル、エージェント、またはツールを無断で使用することは、データ漏洩や不正な自律的行動を通じて隠れたセキュリティ上の脆弱性を生み出します。

社会的影響評価

AIシステムが社会的、経済的、文化的側面に与える影響を体系的に評価し、潜在的な損害と利益を特定します。

ソフトウェア開発ライフサイクル

AIアプリケーションのエンドツーエンドプロセス(要件定義、設計、構築、テスト、デプロイ、監視)は、各段階でガバナンスとコンプライアンスのチェックを組み込んでいます。

ステークホルダーエンゲージメント

AI 開発と監督において影響を受ける当事者(例:ユーザー、規制当局、影響を受けるコミュニティ)を関与させ、多様な視点と支持を確保するプロセス。

監視リスク

AIシステムが個人やグループに対して侵入的な監視に利用され、プライバシーや市民の自由を侵害する可能性があります。

合成データ

実際のデータ分布を模倣する人工生成データセットは、プライバシーを保護しながらトレーニングセットを拡張するために使用されます。

T

テールリスク

AIの行動や意思決定において、通常の期待を超える稀で極端な結果が起こる可能性があり、特別な緩和計画が必要とされます。

テストと検証

AIモデルをベンチマーク、エッジケース、およびストレス条件に照らして評価し、それらが性能、安全性、コンプライアンス基準を満たすことを保証するための体系的なプロセス。

第三者リスク

外部データプロバイダー、モデルベンダー、またはサービスプラットフォームに依存することから生じるリスクは、コンプライアンスやセキュリティの脆弱性を引き起こす可能性があります。

閾値設定

AIの意思決定ルールにおいて、境界やカットオフ値(例:信頼度スコア)を設定し、偽陽性と偽陰性のようなリスクをバランスさせること。

トレーサビリティ

データ収集からモデル開発、そして展開まで、AIライフサイクルの各ステップを追跡し文書化する能力を、監査およびフォレンジックをサポートするために提供します。

トレーニングデータセット

AIモデルがそのタスクを実行するために学習すべき関係やパターンを教えるために使用される、ラベル付きまたはラベルなしのデータの精選されたコレクション。

転移学習

あるタスク用に開発されたモデルを関連するタスクに適用する手法であり、開発時間を短縮する一方で、継承されたバイアスの管理が求められる技法です。

透明性

AIシステムのプロセス、意思決定論理、およびデータの使用を、ステークホルダーに対して説明責任を果たすために明確で理解しやすいものにする実践。

信頼できるAI

倫理的で信頼性があり、安全であり、人間の価値観と社会規範に一致した方法で設計および運用されるAIシステム。

ユーザー

アンダーフィッティング

AIシステムが基礎的なデータパターンを捉えるにはあまりに単純であり、その結果、トレーニングデータおよび新しいデータの両方において性能が悪化するモデリングの問題です。

統一性

AIシステム全体にわたり、ポリシー、コントロール、基準の一貫した適用を保証し、ガバナンスの隙間や不均一なリスク管理を回避します。

教師なし学習

モデルが明示的な結果の指示なしに、ラベルのないデータ内のパターンやグループを識別する機械学習アプローチです。

稼働時間モニタリング

AIシステムの可用性とパフォーマンスを継続的に追跡し、重大な業務やコンプライアンス要件に影響を与える可能性のある障害や劣化を検出します。

ユースケースガバナンス

特定のAI使用事例の定義、承認、監視は、各事例が組織の方針、倫理基準、リスク許容度に整合することを保証するための実践です。

ユーザー同意

AIシステムで個人データを収集、処理、または使用する前に、個人から明示的な許可を取得し記録するプロセスです。

ユーティリティ

AIシステムがその目的を達成する上でどれほど価値があるか、または効果的であるかを判断する尺度であり、関連するリスクやリソースコストとバランスを取ります。

V

バリデーション

AIモデルが意図されたタスクで正確にかつ信頼性高く機能し、定義されたパフォーマンス基準を満たすことを確認するプロセスです。

ばらつき監視

AIモデルの出力やパフォーマンス指標の変動を時間経過とともに追跡し、ドリフトを検出して潜在的な劣化やリスクを推測します。

ベンダーリスク管理

AIコンポーネントやサービスのサードパーティ供給者を評価・監視し、潜在的なコンプライアンス、安全性、倫理的リスクを識別し、軽減することを目的としています。

バージョン管理

AIのコード、モデル、およびデータセットに対する変更を管理し、追跡する実践は、再現性と監査可能性を確保するためのものである。

拒否権

ガバナンス機関または利害関係者が保持する正式な権利として、容認できないリスクをもたらすAIの導入を阻止または変更を要求する権限。

監視モニタリング

AIの挙動や外部信号(例:規制の更新)の継続的な監視を行い、新たに発生するリスクや非遵守事項を迅速に特定して対応します。

ビジョンAI管理

コンピュータビジョンシステムに特化したガバナンスプロセスでは、データ品質の確保、偏りのチェック、および画像/ビデオを基にした意思決定における透明性が重視されています。

脆弱性評価

AIインフラストラクチャおよびアプリケーションにおけるセキュリティの弱点を特定、分析、優先順位付けし、修正作業を導く。

ダブル

ウォッチドッグモニタリング

AIの意思決定を監視し、ポリシーや閾値が違反された際に警告や介入をトリガーする独立したランタイムチェックです。

重み付け監査

モデルの重みと構造を精査し、改ざんや意図しない動作を示す可能性のある異常、バックドア、バイアスを確認します。

ホワイトボックステスト

AIシステムの内部構造(コード、パラメータ、アーキテクチャ)を完全に把握した上で、正確性、セキュリティ、コンプライアンスを検証すること。

ホワイトリスト/ブラックリストポリシー

コンプライアンスを強化し、不正使用を防止するために、許可された(ホワイトリスト)および禁止された(ブラックリスト)入力、機能、または操作を定義するガバナンスルール。

ホワイトリスト登録

未承認または悪意のある要素からのリスクを軽減するために、AIパイプラインにおいて事前承認されたデータソース、ライブラリ、またはモデルコンポーネントのみを許可します。

ワークフローオーケストレーション

AIライフサイクルのタスク(データの取り込み、トレーニング、検証、展開)を自動化およびシーケンス化して、ガバナンスポリシーを強化し、一貫性を確保します。

ワークロード分離

AIコンピュート環境(例えば、開発、テスト、本番)とデータドメインを分離し、障害やセキュリティ侵害の影響範囲を制限します。

最悪のケース分析

AIシステムの最も重大な潜在的な故障や悪用を評価し、堅牢なリスク緩和策と非常時対応計画に役立てる。

一度書き込み、多数回読み取り (WORM) ストレージ

不変ストレージにより、一度記録されたログ、監査証跡、モデルアーティファクトは改変されることがなく、否認防止および法医学的レビューをサポートします。

X

X-バリデーション

データを折りたたみに分割し、モデルの一般化を厳密に評価し、過学習を検出するためのモデル検証手法(しばしば“X-Val”と略されます)。

XAI(説明可能なAI)

AIモデルの意思決定プロセスを人間に対して透明で理解可能にする技術と方法であり、責任とコンプライアンスの支援を行います。

XAI監査

AIの説明可能性の出力が内部方針や規制要件を満たしているかどうかを評価するレビュープロセスであり、十分な透明性を確保します。

XAIフレームワーク

組織がAIシステム全体で説明可能性の実践を実装、測定、管理するために使用する、体系的なアプローチまたはガイドラインのセット。

XAI指標

AIの説明の品質と信頼性を評価するために使用される定量的または定性的な指標(例:特徴の重要度スコア、説明の忠実度)。

Y

YARAルール

既知の悪意のあるコードや改ざんを検出するために、AIパイプラインやアーティファクトをスキャンするためのシグネチャベースの検出パターンセットです。

年次コンプライアンスレビュー

AIガバナンスのプロセス、ポリシー、システムの年次評価を実施し、規制および内部基準と継続的に整合していることを確認します。

エンタープライズソフトウェア製品のマーケティングサイトに適した形式で翻訳されたコンテンツです。

ゼロ欠陥許容度

AI出力におけるエラーやポリシー違反を未然に防ぐことを目指したガバナンス原則であり、厳密なテスト、監視、継続的な改善サイクルによって支えられています。

ゼロデイ脆弱性

パッチや緩和策が利用可能になる前に悪用される可能性がある、AIソフトウェアまたはインフラストラクチャ内の未発見のセキュリティ欠陥。

ゼロショット学習

一般化された知識表現を活用することで、明示的にトレーニングされていないタスクやデータを正確に処理または分類するモデルの能力。

ゾーンベースのアクセス制御

ネットワークまたはデータガバナンスアプローチは、リソースを異なるポリシーを持つゾーンに分割し、データの機密性に応じてAIシステムのアクセスを制限します。

ホワイトペーパー

すべて

AI 規制

ポッドキャスト

製品の更新情報

報道

用語集

エー

AIの責任

AIシステムの開発者および運用者は、そのシステムが責任を持って設計および使用され、倫理的基準と法的要件を遵守することを保証する義務があります。

AI整合

AIシステムの目的と行動を人間の価値観や意図に合わせるプロセス。

AI監査

AIシステムの倫理基準、規制、および性能指標への適合性を評価するための体系的な評価。

AIバイアス

偏見のあるトレーニングデータや欠陥のあるアルゴリズムに起因するAI出力における系統的誤差は、不公平な結果をもたらす可能性があります。

AIコンプライアンス

AIシステムがそのライフサイクル全体を通じて適用される法律、規制、および倫理指針を遵守すること。

AI倫理

AI技術の開発と導入に関連する倫理的影響と責任に関する分野です。

AIの説明可能性

AIシステムの内部メカニズムが人間によってどの程度理解され解釈されるか。

AIガバナンス

AIシステムの倫理的かつ効果的な開発と利用を支援するポリシー、プロセス、制御の枠組み。

AI在庫管理

組織全体で使用されている全てのAIシステム、モデル、エージェントの包括的かつ集中管理されたカタログであり、そのビジネス目的、リスクレベル、所有権を追跡します。

AIリテラシー

AIの概念、能力、限界を理解し、AI技術との適切な交流を可能にします。

AI監視

AIシステムのパフォーマンスを継続的に観察および分析し、信頼性、安全性、コンプライアンスを確保します。

AIリスク

AIシステムが引き起こす可能性のある損害や意図しない結果には、倫理的、法的、運用上のリスクが含まれます。

AIリスク管理

AIシステムに関連するリスクの特定、評価、軽減のプロセス。

AI TRiSM(AI トリズム)

Gartnerによって作られた頭字語であるAI Trust、Risk、Security Management(AI信頼性、リスク、およびセキュリティ管理)を指します。ガバナンス、信頼性、およびセキュリティを単一の運用戦略に統合するフレームワークです。

AIの透明性

AIシステムはその運用、意思決定、データの使用に関して開かれており、明確であるべきという原則。

正確性

AIシステムの出力が実世界のデータや意図された結果を正確に反映する程度。

敵対的攻撃

不正な出力を引き起こすために、誤解を招く入力を導入してAIモデルを操作する技術です。

エージェンティックAI

複雑な目標を自律的に追求し、ソフトウェアの展開や金融取引などの多段階のアクションを最小限の人間の介入で実行するように設計された人工知能システムのクラスです。

エージェンティックAIガバナンス

自律型AIシステムのガバナンスに関する説明です。これらのシステムは、予測AI(インサイトを提供するもの)や生成AI(コンテンツを作成するもの)とは異なり、独立した行動(例:取引、コードの展開)を実行する能力を有しています。

アルゴリズム

AIシステムが独自に学習するのを助けるための一連の規則または指示。

アルゴリズムの偏り

アルゴリズムが機械学習プロセスの誤った仮定により系統的に偏った結果を生成する際に発生するバイアス。

アルゴリズムによるガバナンス

アルゴリズムを活用して社会的機能を管理および規制することは、意思決定プロセスに影響を与える可能性があります。

汎用人工知能

人間の知能に類似した一般的な方法で理解し、学習し、知識を適用する能力を持つAIの一種です。

人工知能

機械による人間の知能プロセスのシミュレーション、特にコンピューターシステムによるものであり、学習、推論、自己修正を含みます。

B

誤差逆伝播法

ニューラルネットワークで使用される訓練アルゴリズムで、出力層から誤差を逆伝播させて重みを調整し、損失を最小限に抑えます。

バッチ学習

モデルが逐次学習ではなく、データセット全体を一度に学習する機械学習のアプローチです。

ベンチマーキング

AIシステムのパフォーマンスを標準的な指標や他のシステムと比較して、その効果を評価するプロセスです。

バイアス

偏見のあるトレーニングデータや欠陥のあるアルゴリズムに起因するAI出力における系統的誤差は、不公平な結果をもたらす可能性があります。

バイアス増幅

AIシステムが、訓練データに存在する既存のバイアスを悪化させ、ますます偏った結果を招く現象。

バイアス監査

AIシステムにおけるバイアスを検出し、緩和するための評価プロセスを策定し、公平性および倫理基準への準拠を保証します。

バイアス検出

AIモデルの出力や意思決定プロセスを分析することによって、偏見を特定するプロセス。

バイアス軽減

AI開発において、モデルやデータセット内のバイアスを削減または排除するために適用される技術。

ブラックボックスモデル

意思決定のプロセスが不透明または解釈できないため、どのように意思決定が行われるかを理解するのが難しいAIシステムです。

ボット

エンタープライズソフトウェア製品向けのマーケティングサイトにふさわしい形式で翻訳します。自動化されたタスクを実行するソフトウェアアプリケーションで、顧客サービスやデータ収集などのタスクにAIでよく使用されます。

C言語

因果推論

AIと統計学の分野で用いられる手法であり、因果関係を特定し、介入や変数の変更が影響を及ぼすことを理解するのに役立ちます。

チャットボット

AIを搭載したソフトウェアアプリケーションは、人間の会話を模擬するように設計されており、主に顧客サービスや情報収集のために使用されます。

分類

機械学習における教師あり学習技法で、モデルがトレーニングデータに基づいて新しい観測のカテゴリまたはクラスラベルを予測します。

認知バイアス

訓練データ内に存在する場合、AIの意思決定に影響を与える可能性がある、通常や合理性からの一貫した逸脱のパターン。

コグニティブ・コンピューティング

人間の思考プロセスをコンピュータモデルで模倣し、複雑な問題を人の手を借りずに解決することを目指すAIのサブセット。

認知負荷

AIにおけるシステム設計では、ユーザーを圧倒しないようにするために、作業記憶で使用される精神的な努力の総量が考慮されます。

コンプライアンスフレームワーク

組織が規制および倫理基準を満たすAIシステムを確実にするために従うガイドラインとベストプラクティスの体系的なセット。

コンプライアンスリスク

法律、規制、または定められた慣行に従わない場合に企業が直面する法的あるいは規制上の制裁、財務上の損失、または評判の損害の可能性。

コンピュータービジョン

AIの一分野として、コンピュータに画像やビデオなどの視覚情報を解釈し処理する能力を訓練する技術です。

コンセプトドリフト

モデルが予測しようとしている対象変数の統計特性の時間経過に伴う変化は、モデルの劣化を引き起こします。

信頼区間

サンプル統計から導き出された一連の値で、未知の母集団パラメーターの値を含む可能性が高く、AIにおいて不確実性を表現するために使用されます。

適合性評価

AIシステムが指定された要件、基準、または規制を満たしているかどうかを判断するプロセスであり、多くの場合、テストおよび認証が含まれます。

継続的学習

AIシステムは、新しいデータ入力から人間の介入なしに継続的に学習し、適応し、時間とともに改善する能力を持っています。

制御性

人間がAIシステムの決定や行動を指示、影響を与える、または無効化することができる程度。

交差検証

統計解析の結果が独立したデータセットにどのように一般化されるかを評価するためのモデル検証手法。

サイバーセキュリティ

システム、ネットワーク、およびプログラムをデジタル攻撃から守る実践は、脅威に対してAIシステムを保護する上で重要です。

データ

データドリフト

時間の経過に伴うモデル入力データの変化は、監視・対応しなければ、モデルの性能低下を引き起こす可能性があります。

データ倫理

個人を特定可能な情報を収集、保護、使用する際の倫理的義務に関して、データの取り扱いを評価する倫理学の一分野です。

データガバナンス

企業におけるデータの可用性、使用性、整合性、およびセキュリティの全体的な管理は、データのライフサイクル全体を通して適切に取り扱われることを保証します。

データライフサイクル管理

データフローのライフサイクル全体にわたるポリシーに基づく管理: 作成および初期保存から、陳腐化し削除されるまでの一連の流れを包括的に管理します。

データ最小化

特定の目的に必要なデータのみを収集するという原則は、誤用や漏洩のリスクを軽減します。

データプライバシー

情報技術の側面で、どのデータが共有され、誰と共有されるかを制御する能力を扱い、個人データが適切に取り扱われることを保証します。

データ保護

重要な情報を保護し、破損、漏洩、損失を防止するとともに、データ保護法規制への準拠を確実にするプロセスです。

データ品質

AIモデルの効果的なパフォーマンスに不可欠であるデータの状態は、正確性、完全性、信頼性、関連性といった要因に基づいています。

データレジデンシー

組織のデータの物理的または地理的な場所は、データ保護法の遵守に影響を及ぼす可能性があります。

データ主権

データは、それが収集、保存、または処理される国家の法律およびガバナンス構造に従うという概念です。

データ主体

個人データが収集、保持、または処理される個人は、特にGDPRのようなデータ保護法の文脈で重要です。

識別情報の削除

データセットから個人識別子を削除または隠蔽し、個人の特定を困難にするプロセスであり、プライバシー保護に利用されます。

ディープラーニング

複数層のニューラルネットワークを伴う機械学習の一部であり、データの複雑なパターンをモデル化することを可能にします。

ディープフェイク

既存の画像やビデオ内の人物が、ディープラーニング技術を使用して作成された他の人物の肖像に置き換えられる合成メディア。

差分プライバシー

データセット内のグループのパターンを記述しつつ、個人に関する情報を秘匿したまま、データセットについての情報を公に共有するシステムです。

差別

AIにおいて、データやアルゴリズムの偏見に基づく個人またはグループに対する不公平な扱いを指し、それが不平等な結果を招くことを意味します。

分散型学習

トレーニングデータが複数のデバイスまたは場所に分散され、生のデータを共有することなく、協力してモデルをトレーニングする機械学習アプローチです。

ドメイン適応

機械学習の技術の一つであり、ある領域で訓練されたモデルが異なるが関連する領域で機能するように適応されることを指します。

動的リスク評価

AIシステムにおける新たな脅威に対して、タイムリーな対応を可能にする、リスクの継続的なリアルタイムでの識別および評価のプロセス。

E

エッジAI

データ生成の源であるエッジデバイスにAIアルゴリズムを展開し、データ処理と意思決定を可能にします。

エッジアナリティクス

データ生成のソースに近いネットワークのエッジでのデータ分析により、待ち時間と帯域幅の使用を削減します。

アンサンブル学習

複数のモデルを訓練して組み合わせることで同じ問題を解決し、全体的なパフォーマンスを向上させる機械学習のパラダイム。

エンティティ解決

異なるデータセット間で同じ実世界のエンティティを参照するレコードを識別し、リンクするプロセスです。

Enzai

企業向けAIガバナンスプラットフォームは、組織がAIシステムをインベントリし、評価し、管理することを可能にし、AIの採用を最大化しながらAIリスクを最小限に抑えることを保証します。

倫理的なAI

倫理原則と価値観に沿って設計、開発、展開されるAIシステムの慣行は、公平性、説明責任、透明性を確保します。

倫理的AI監査

AIシステムが倫理基準を順守し、害を及ぼさないことを保証するために、体系的に評価するプロセス。

倫理的AI認定

AIシステムが確立された倫理基準とガイドラインに従っていることを正式に認定すること。

倫理的なAIガバナンス

AIシステムが適切かつ倫理的に開発・使用されることを保証するためのポリシー、手順、実践のフレームワーク。

倫理的枠組み

AI システムの倫理的な開発と展開を導くために設計された原則とガイドラインの体系的なセット。

倫理的ハッキング

AIシステムの堅牢性を確保するために、意図的にシステムの脆弱性を探し出し、セキュリティ問題を特定して修正する取り組みです。

倫理的影響評価

AIシステムの導入前に、その倫理的影響および潜在的な社会的影響を特定し、対処するための体系的な評価プロセス。

倫理的リスク

AIシステムが偏見、差別、プライバシー侵害などの非倫理的な行動により、害を及ぼす可能性があるというリスク。

信頼できるAIのための倫理ガイドライン

欧州委員会のAIハイレベル専門家グループによって開発された一連の指針であり、人間の主体性、技術的堅牢性、プライバシー、透明性、多様性、社会的幸福、説明責任に重点を置き、信頼できるAIを促進することを目的としています。

説明可能性技術

AIモデルによって行われた意思決定を解釈し理解するための手法には、LIMEやSHAP、サリエンシーマップなどがあります。

説明可能性と解釈可能性

両者ともAIの意思決定を理解しやすくすることを目指していますが、説明可能性は意思決定の理由に焦点を当てており、解釈可能性はモデルの内部メカニズムの透明性に関わっています。

説明可能なAI(XAI)

AIシステムは、その決定と行動について人間が理解できる説明を提供するように設計されており、透明性と信頼性を高めます。

説明可能な機械学習

予測や意思決定に対して明確で理解しやすい説明を提供するように設計された機械学習モデル。

エフ

公平性

AIシステムがさまざまな個人やグループに対して偏りのない公平な結果を生成し、差別的な影響を軽減することを保証します。

公平性指標

AIモデルの予測がグループ間でどれほど公正であるかを評価するために使用される定量的指標(例:人口統計の平等性、平等化されたオッズ)。

偽陰性

AIモデルが実際には正であるインスタンスに対して誤って負のクラスを予測する場合(タイプIIエラー)。

誤検出

AIモデルが実際にはネガティブなインスタンスに対して誤ってポジティブクラスを予測する場合(第一種過誤)。

フォルトトレランス

AIシステムがいくつかのコンポーネントで故障やエラーが発生した場合でも、正しく動作し続ける能力。

特徴工学

機械学習モデルの性能を向上させる特徴量として、生のデータセット属性を作成、選択、または変換すること。

機能抽出

生データ(例: テキストや画像)を、機械学習アルゴリズムへの入力に適した数値表現(特徴量)にマッピングするプロセス。

機能選択

モデルトレーニングのために最も関連性の高い特徴を特定して選択し、複雑さを軽減し精度を向上させます。

フェデレーテッドラーニング

モデルが生データを中央で共有することなく、複数のデバイスやサーバーにあるローカルデータでトレーニングされる分散型機械学習アプローチ。

フィードバックループ

AIの出力が入力としてフィードバックされるプロセスであり、これによりモデルの挙動が増幅される可能性があります。これは、良い方向(強化学習)にも、悪い方向(バイアスの強化)にも影響を与える可能性があります。

微調整

あらかじめ学習済みのAIモデルを特定のタスクやデータセットに適応させ、新しいデータを用いて学習を続けることで、しばしばタスク特有のパフォーマンスを向上させます。

形式的検証

AIアルゴリズムが指定された正確性の特性を遵守していることを数学的に証明することは、安全性が非常に重要なシステムでよく使用されます。

フレームワーク

AIシステムのガバナンス、開発、展開、監視を導くためのポリシー、プロセス、ツールの構造化セットです。

不正検出

AI技術(例:異常検知、パターン認識)を利用して、金融や保険などでの不正行為を特定し防止することができます。

機能安全

AIシステムがあらゆる状況下で安全に運用されることを保証することは、特に自動車産業や医療分野においては、冗長性やチェックを通じて重要です。

ファジー論理

制御システムや不確実性の処理に役立つ、真偽ではなく近似値で推論を行うロジックシステムです。

ジー

一般データ保護規則 (GDPR)

EUの一般データ保護規則は、個人データの収集、処理、個人の権利に関する厳格な要件を確立しています。

GPU(グラフィックスプロセッサ)

大規模なAIモデルを効率的にトレーニングおよび実行するために広く使用されている、並列計算専用のハードウェアアクセラレータです。

ギャップ分析

現在のAIガバナンスの実践を望ましい基準や規制と比較して、改善が必要な領域を特定するプロセスです。

一般化

AIモデルがトレーニング例を記憶するのではなく、基盤となるパターンを捉えることによって、新しい未見のデータで高い性能を発揮できる能力。

生成的AI

AI技術(例えば、GANsやトランスフォーマーなど)は、新たなコンテンツ—テキスト、画像、その他のメディアを生成することがあり、その過程で新しいガバナンスや知的財産権の問題を引き起こすことが頻繁にあります。

グローバルモデル

複数の情報源から収集されたデータで訓練された統合AIモデルは、ローカライズされたモデルやパーソナライズされたモデルとは異なります。

ガバナンス

AIシステムの倫理的、合法的、かつ効果的な開発および展開を導く一連の方針、手続き、役割、責任。

ガバナンス機関

組織内でAIガバナンス方針とその実行を監督することを任務とする法務、倫理、技術などのクロス機能グループ。

ガバナンスフレームワーク

AIガバナンスの構成要素(リスク管理、アカウンタビリティ、監督)がどのように組み合わされて、コンプライアンスと倫理的な利用を確保するかを説明するための構造化されたモデルです。

ガバナンス成熟度モデル

組織のAIガバナンス実践の進化度を評価するための段階的枠組みであり、臨時的なものから最適化されたものまでを対象としています。

ガバナンスポリシー

企業内のAI開発および監督に関する規則、役割、手続きを成文化した正式な文書です。

ガバナンススコアカード

AIガバナンスの有効性を時間の経過とともに測定するために、重要な指標(例:偏りのある事件やコンプライアンス監査)を追跡するダッシュボードまたは報告書。

勾配降下法

損失関数を最小限に減少させる方向にモデルパラメータを反復的に調整する最適化アルゴリズム。

詳細な同意

データの使用ごとに個別に許可を与えたり拒否したりできるデータプライバシーアプローチであり、透明性とコントロールを強化します。

グリーンAI

エネルギー効率の高いアルゴリズムや持続可能なコンピューティングの実践を通じて、AIの環境への影響を削減する取り組み。

グレイボックスモデル

内部ロジックが部分的に透明であるモデル(いくつかのコンポーネントは解釈可能であり、他は不透明である)は、性能と説明可能性のバランスを取ります。

グラウンドトゥルース

AIモデルのパフォーマンスを訓練および評価するための基準として使用される、正確な現実世界のデータまたはラベルです。

ガードレール

AIシステムに組み込まれた定義済みの制約やチェック(技術的およびポリシー)は、実行時における安全でないまたはコンプライアンスに違反する行動を防ぐためのものです。

ガイドライン(倫理的AI)

責任あるAI開発と展開を形成するために発行される、IEEEやEUなどの組織による、拘束力のない推奨またはベストプラクティスの文書です。

エイチ

幻覚

生成AIがトレーニングデータに基づかないにもかかわらず、もっともらしく見える誤った情報や捏造された情報を生成する場合。

欠損データの処理

データセットの欠損を解決し、モデルの整合性と公平性を維持するための手法(例:補完、削除、モデリング)。

ハードウェアアクセラレーター

AIの計算を高速化するために設計された専門チップ(例:GPU、TPU)は、エネルギー使用とサプライチェーンに関するリスクに影響を与えます。

リスク評価

AIシステムがもたらす可能性のある負の影響(物理的、心理的、社会的)を評価し、緩和策を策定します。

調和化

AIのポリシー、標準、および規制を各管轄区で整合させ、競合を減らし、相互運用性を実現します。

ハッシュ化

データを固定サイズの文字列に変換するプロセスで、データの整合性チェックやプライバシーを保護しながらの記録のリンクに使用されます。

異種データ

異なる種類のデータ(テキスト、画像、センサー)や複数のドメインからのデータを組み合わせることは、統合およびガバナンスの課題を引き起こします。

ヒューリスティック

AIプロセスを迅速化するために使用される経験則または簡略化された意思決定戦略であり、しばしば最適性を効率性に交換します。

ヒューリスティック評価

AIシステムを既存のユーザビリティ原則に基づいて専門家が評価し、潜在的な問題を特定するためのユーザビリティ評価手法です。

ハイステークスAI

重大な被害を引き起こす可能性があるAIアプリケーション(例えば、医療診断や自律走行車)には、厳格なガバナンスと監視が必要です。

人間による監督

指定された個人がAIシステムの意思決定を監視し、介入し、または上書きして倫理的および法的な遵守を保証するためのメカニズム。

人権影響評価

AIシステムが基本的人権(プライバシー、表現の自由、差別の禁止)にどのように影響するかを評価し、緩和策を特定するためのプロセスです。

人間を介したプロセス

AIプロセス(トレーニング、検証、意思決定のレビュー)に人間の判断を組み込むことで、正確性と説明責任を向上させます。

ハイブリッドモデル

複数の学習パラダイム(例: シンボリックとニューラル)を組み合わせて、説明性とパフォーマンスのバランスを取るAIシステム。

ハイパーパラメーター

モデルの学習前に設定され、学習の挙動や性能に影響を与える設定変数(例: 学習率、木の深さ)。

ハイパーパラメータチューニング

モデルのパフォーマンスを最大化するために、グリッド検索やベイズ最適化などを通じて最適なハイパーパラメータ値を検索するプロセス。

ISO/IEC JTC 1/SC 42

人工知能標準化に関する国際標準化機構 (ISO) と国際電気標準会議 (IEC) の合同委員会は、ガバナンス、リスク、および相互運用性のための国際的なAI標準を開発しています。

不均衡データ

あるクラスまたはカテゴリが他のクラスやカテゴリに比べて著しく数が多いデータセットは、適切な対策を講じない限り、AIモデルが多数派のクラスに偏る原因となる可能性があります。

不変の台帳

一旦データが書き込まれると、改ざんされても検知できるようにしつつ、改ざんの痕跡が残る記録管理機構(例: ブロックチェーン)—これはAI監査の証跡に有用です。

影響評価

AIシステムの導入前に、潜在的な倫理的、法的、社会的影響を特定、分析、および緩和するための体系的な評価。

潜在的なバイアス

トレーニングデータやモデル設計に組み込まれた無意識または意図しないバイアスが、差別的な結果を招く可能性があります。

インセンティブの整合

AIシステムの目標が人間の価値観と組織の優先事項に一致し続けるように、報酬構造と目的を設計すること。

帰納バイアス

学習アルゴリズムが観察されたデータから未知のインスタンスへ一般化する際に使用する仮定のセット。

推論

訓練されたAIモデルが新しいデータ入力を処理し、予測や決定を下すプロセスです。

推論エンジン

AIシステムのコンポーネント(特にルールベースまたはエキスパートシステムにおいて)は、知識ベースを入力データに適用して結論を導き出す機能を持っています。

情報ガバナンス

組織のデータ資産全体にわたり、データの品質、プライバシー、利用可能性を確保するための方針、手順、および管理、これにはAIのトレーニングデータセットも含まれます。

情報プライバシー

個人がAIシステムによって収集、使用、保存、共有される個人データを管理する権利。

コードとしてのインフラストラクチャ (Infrastructure as Code, IaC)

機械可読の構成ファイルを通じてAIインフラストラクチャ(計算、ストレージ、ネットワーキング)を管理およびプロビジョニングすることで、再現性と監査性を向上させます。

相互運用性

多様なAIシステムやコンポーネントが、オープンスタンダードやAPIを通じて、情報を円滑に交換し、理解し、利用する能力。

解釈可能性

AIモデルの内部メカニズムまたは意思決定の合理性を人間が理解できる程度。

侵入検知

AIインフラとアプリケーションの悪意ある活動やポリシー違反を監視し、アラートや自動応答をトリガーします。

J

ヤコビアン行列

AIの説明可能性において、モデルの出力に対する入力の全一次偏導関数の行列は、感度と特徴の重要性を評価するために使用されます。

脱獄攻撃

ユーザーが脆弱性を利用して生成AIモデルの保護手段を回避し、不安全または不正な出力を引き起こす可能性があるプロンプトインジェクションの一形態です。

連帯責任

複数の関係者(例えば、開発者やデプロイ者)がAI関連の損害に対して責任を共有する法的原則であり、契約およびガバナンス構造に影響を与えます。

共同モデリング

複数のタスク(例えば、音声認識と翻訳)を共同で学習するAIシステムを構築し、その複雑さと監査可能性についてのガバナンスが必要です。

判断バイアス

認知バイアスや不完全なデータによって引き起こされる人間またはAIの意思決定プロセスにおける体系的なエラーには、偏見監査と緩和が必要です。

司法審査

AIによって行われたり補助されたりする決定の合法性を評価する法的プロセスであり、アカウンタビリティと適正手続きの確保を目的としています。

管轄区域

地理によって異なるデータ、AI操作、および責任に関する法的権限は、地域規制(例:GDPR、CCPA)へのコンプライアンスに影響を与えます。

陪審オートメーション

AIを使用して陪審員の選定やケース分析を支援することは、公平性、透明性、法的監視に関する倫理的懸念を引き起こしています。

ジャスティス・メトリクス

AI意思決定における公正性と差別禁止を評価するために使用される定量的な指標(例:異なる影響、機会の均等など)。

K

重要業績評価指標

AI ガバナンスとコンプライアンスの目標を監視し報告するために使用される定量的な指標(例えば、モデルの精度の変化、バイアスの修正時間)です。

主要リスク指標

AIのリスクが顕在化する前に、それらの発生を示す先行指標(例:スコープ外予測の頻度、説明不能な意思決定の割合)。

顧客の身元確認 (KYC)

AIシステムと関わる個人または組織の身元、リスクプロファイル、および正当性を確認するためのコンプライアンスプロセス、特に規制された業界において重要です。

知識蒸留

より大きな“教師”モデルからより小さな“生徒”モデルに洞察を転送する方法であり、パフォーマンスをリソースやガバナンスの制約とバランスさせます。

ナレッジグラフ

エンティティとその関係の構造化された表現を使用して、AIの説明性、監査可能性、およびドメインオントロジーとの整合性を向上させます。

ナレッジ管理

組織の知識(例:モデル文書、監査ログ)を取得、整理、共有するための実践とツール。これにより、再現性と監督が確保されます。

L

ラベル漏れ

出力情報が訓練データラベルに不注意に含まれることで、パフォーマンス指標が水増しされ、モデルの真の一般化問題が隠されてしまうことがあります。

大規模言語モデル

膨大なテキストコーパスで訓練されたディープラーニングモデルは、テキスト生成、翻訳、要約などのタスクを実行できますが、バイアスや誤用に対するガバナンスが求められることがよくあります。

最小特権

AIコンポーネントとユーザーに必要最小限のアクセス権のみを付与することで、機能を果たすために必要なリスクを低減するセキュリティ原則です。

法令遵守

AIシステムがその全ライフサイクルにわたって適用される法律、規制、および業界標準に従っていることを確保する実践。

責任の枠組み

AIに関連する損害や失敗に対する責任を明確にするための体系的なアプローチであり、開発者、導入者、およびオペレーターが含まれます。

ライフサイクル管理

AIシステムの開発、展開、監視、保守、および廃止のための統合されたプロセスは、継続的なコンプライアンスとリスク管理を確保するために設計されています。

ライブネス検知

入力(バイオメトリクスなど)が偽造やリプレイではなく、生きた主体から来ていることを確認するために使用される技術であり、それによりシステムのセキュリティと整合性を向上させます。

ローカライゼーション

AIシステムを各地域の言語、規制、文化的規範、データの居住要件に適合させること。

ログ管理

AIワークフローからのシステムおよびアプリケーションログの収集、保存、分析により、監査、インシデント対応、モデルパフォーマンスの追跡を支援します。

損失関数

予測された出力と真の値との違いを定量化し、モデルのトレーニングと最適化を導く数学的関数です。

M

意義のある人間の制御

人間がAIの意思決定プロセスを監督し、介入し、上書きする能力を保持することを保証する規制および運用の基準です。

メタデータ管理

トレーサビリティと監査をサポートするために、記述データ(例: データの起源、機能の定義、モデルのパラメータ)を記録し維持する実践。

指標とKPI

AIシステムの健全性、リスク、コンプライアンスの目標を監視するために使用される定量的指標(例:精度の変動、公平性スコア、インシデント対応時間)。

緩和策

特定されたAIリスクとコンプライアンスのギャップに対応するための計画的な行動(例:バイアス是正、再訓練、機能再工学)。

モデルの説明可能性

AIモデルの意思決定ロジックをステークホルダーや監査人に理解可能にする技術とドキュメント。

モデルガバナンス

AIモデルが組織の基準および規制要件に準拠して開発、承認、および使用されることを保証するためのポリシー、役割、および制御。

モデル監視

AIモデルのパフォーマンス、データのドリフト、運用指標を継続的に監視し、劣化や新たなリスクを検出します。

モデル再訓練

データ分布の進化に伴い、性能とコンプライアンスを維持するために、新しいデータや更新されたデータでAIモデルを更新するプロセス。

モデルリスク管理

AI/MLモデルのライフサイクル全体を通じて発生するリスクを特定し、評価し、軽減するための構造化されたプロセス。

モデル検証

AIモデルが本来の目的と性能基準を満たしていることを確認する評価活動(例:保持データに対するテストやストレスシナリオ)。

マルチステークホルダーエンゲージメント

AIガバナンスプロセスにおいて多様なグループ(法務、倫理、運用、エンドユーザーなど)を関与させ、リスクのバランスを取った監視を行い、ビジネス目標と一致させるための体制を整えます。

いいえ

NIST AIリスク管理フレームワーク

米国国立標準技術研究所による自発的なガイダンスであり、AIシステムのライフサイクルにおけるリスクを軽減するためのベストプラクティス概要です。

自然言語処理(NLP)

機械がテキストや音声形式で人間の言語を解釈、生成、分析することを可能にする技術とツール。

ネットワークセキュリティ

AIインフラストラクチャとデータパイプラインを不正アクセスや改ざんから保護するための措置と管理(例:セグメンテーション、ファイアウォール、侵入検知)。

ニューラルアーキテクチャ検索

ニューラルネットワーク構造を設計および最適化するための自動化手法は、複雑性とリソース制約とのバランスを取りながら、モデルのパフォーマンスを向上させます。

ノイズインジェクション

意図的にランダムな摂動をトレーニングデータやモデルパラメータに導入し、頑健性を向上させ、敵対的な操作に対して保護します。

新規性検出

トレーニングデータと大きく異なる入力やシナリオを特定し、予期しない障害を防ぐためにレビューや安全モードの操作を開始するための技術。

Oを

可観測性

ログ、メトリクス、出力の収集と分析を通じて、AIシステムの内部状態と動作を推測し、効果的な監視とトラブルシューティングを可能にする機能。

継続的なモニタリング

AIシステムの性能、データドリフト、バイアス指標、セキュリティイベントを継続的に監視し、時間の経過とともに新たに発生するリスクを検出し対処します。

不透明度

AIモデルが意思決定や予測に至る過程の透明性の欠如は、信頼性と規制遵守において課題をもたらします。

業務レジリエンス

AIシステムおよびそれを支えるインフラストラクチャが予測し、耐え、回復し、そして混乱や不利な事象に適応する能力。

オーケストレーション

AIワークフローとサービスの自動化された調整—データの取り込み、モデルの訓練、展開—がポリシーとリソースのガバナンスへの準拠を確実にします。

異常検知

期待されるパターンから著しく逸脱するデータポイントやモデル予測を特定し、レビューまたは緩和措置を促す技術。

過学習

AIシステムがトレーニングデータ内のノイズや特殊性を学習してしまい、新たな未確認データに対する一般化能力が低下するモデリングの問題です。

監督

AIの開発と導入に関するレビュー、承認、そして責任の構造化されたプロセスは、通常、様々な機能を持つ統治機関を含む形で行われます。

所有権

AI資産(データ、モデル、プロセス)に対する責任と権限を明確にすることで、システムライフサイクル全体にわたってアカウンタビリティを確保します。

P

権限管理

AIデータと機能へのユーザーおよびシステムのアクセス権限を、最小特権の確保と不正使用の防止を実現する形で管理します。

パイロットテスト

AIシステムの本格展開に先立ち、その性能、リスク、ガバナンス制御を評価するために、限定的な範囲の試験を管理された環境で実施します。

ポリシー施行

AIの運用が組織のポリシー、規制のルール、および倫理的ガイドラインに準拠することを保証する自動または手動のメカニズム。

展開後のモニタリング

リリース後のAIシステムの動作および環境を継続的に観察し、劣化、ドリフト、またはコンプライアンス違反を検出します。

予測保守

AIを活用した監視と分析により、コンポーネントやシステムの故障を予測し、重要な環境における運用の回復力とリスク軽減を確保します。

プライバシー影響評価

AIシステムに関連するプライバシーリスクを特定し緩和するための構造的な分析には、データの収集、使用、共有、および保持を網羅しています。

プライバシー・バイ・デザイン

AIシステムのアーキテクチャとプロセスにおいて、データ保護とユーザーのプライバシーに関する考慮事項を最初から組み込むアプローチです。

プロセスオートメーション

AIおよびワークフローツールを活用して、ガバナンス、コンプライアンスチェック、リスク軽減活動を効率化し、手動の作業やエラーを削減します。

定性的評価

AIシステムの行動、意思決定、および文書について、専門家が主観的に評価することで、定量的に捉えきれない倫理的、法的、または評判に関する懸念を特定します。

品質保証

AIモデルとデータパイプラインが正確性、信頼性、倫理的遵守の定められた基準を満たすことを保証するための体系的なプロセスとチェック。

品質管理

AIの出力およびプロセスをベンチマークやテストケースに照らして継続的に検証し、欠陥、バイアス事象、またはポリシー違反を検出します。

定量的リスク評価

AI の潜在的脅威のデータ駆動型評価では、軽減策の優先順位を決定するために、可能性と影響を数値で推定します。

量子コンピューティング

量子力学を活用する新たな計算パラダイムは、セキュリティ、標準化、リスクに関するガバナンスの新しい課題を提起しています。

クエリログの記録

AIシステムの入力とユーザーの問い合わせを記録することで、監査トレイルを可能にし、誤用を検出し、アカウンタビリティをサポートします。

プライバシーに関するお問い合わせ

ユーザーのクエリ内の機密情報を保護するための技術とポリシーを策定し、記録された入力が個人情報や専有データを損なわないようにすることを保証します。

アンケートフレームワーク

設計、調達、または展開時に使用されるガバナンスに焦点を当てた質問の体系的なセットで、AIシステムがポリシー要件に適合していることを保証します。

ガバナンスボードの定足数

AIのリスク、方針承認、または監査結果に関する正式な決定を行うために必要なガバナンス委員会メンバーの最小人数。

割り当て管理

AIリソースの使用(例:API呼び出し、計算時間)に対する制御と制限は、ガバナンスポリシーを遵守し、費用の高騰や乱用を防ぐために設定されています。

R言語

リコース

AIによって権利や利益に影響を与える決定に対して、影響を受けた個人が異議を申し立てたり救済を求めたりすることができるメカニズム。

レッドチーミング

AIシステムの脆弱性を発見するために、内部または外部の専門家が攻撃や悪用シナリオを模擬するプロアクティブなテストアプローチ。

法令遵守

AIシステムが運用中、適用される法律、規制、業界標準(例:GDPR、FDA、金融監査)を遵守することを保証します。

再現性

同じデータ、コード、および設定を使用してAIモデルの結果を一貫して再生成する能力は、透明性と監査可能性を確保します。

責任割り当てマトリックス

各ガバナンス活動に対する役割と責任を明確にするツール(例: RACI)—誰が責任者であり、説明責任を持ち、相談を受け、情報を提供されるか。

責任あるAI

ステークホルダーと社会に対して倫理的で透明性があり、責任を持った方法でAIシステムを設計、開発、展開する実践。

リスク評価

AIシステムにおける潜在的なリスクや故障を特定し、分析し、優先順位を付けて、適切な対策を策定するプロセス。

リスク管理フレームワーク

設計から廃止まで、システムライフサイクル全体でAIリスクに体系的に対処するためのガイドラインとプロセスの構造化されたセットです。

堅牢性

AIシステムがさまざまな困難または敵対的な条件下でも信頼できるパフォーマンスを維持する能力。

根本原因分析

AIシステムの失敗または予期しない動作の根本的な原因を特定し、是正措置を導くための体系的な調査。

エス

制限付き利用規約

AIシステムの誤用を防ぐため、許可されたコンテキスト、ユーザー、目的を指定する定義されたルールと管理を実施します。

セキュリティバイデザイン

AIシステムにおけるセキュリティコントロールとベストプラクティスを、設計初期段階から統合することで、脆弱性やデータ漏洩を防止します。

シャドウAI

ITの承認を得ずに従業員がAIモデル、エージェント、またはツールを無断で使用することは、データ漏洩や不正な自律的行動を通じて隠れたセキュリティ上の脆弱性を生み出します。

社会的影響評価

AIシステムが社会的、経済的、文化的側面に与える影響を体系的に評価し、潜在的な損害と利益を特定します。

ソフトウェア開発ライフサイクル

AIアプリケーションのエンドツーエンドプロセス(要件定義、設計、構築、テスト、デプロイ、監視)は、各段階でガバナンスとコンプライアンスのチェックを組み込んでいます。

ステークホルダーエンゲージメント

AI 開発と監督において影響を受ける当事者(例:ユーザー、規制当局、影響を受けるコミュニティ)を関与させ、多様な視点と支持を確保するプロセス。

監視リスク

AIシステムが個人やグループに対して侵入的な監視に利用され、プライバシーや市民の自由を侵害する可能性があります。

合成データ

実際のデータ分布を模倣する人工生成データセットは、プライバシーを保護しながらトレーニングセットを拡張するために使用されます。

T

テールリスク

AIの行動や意思決定において、通常の期待を超える稀で極端な結果が起こる可能性があり、特別な緩和計画が必要とされます。

テストと検証

AIモデルをベンチマーク、エッジケース、およびストレス条件に照らして評価し、それらが性能、安全性、コンプライアンス基準を満たすことを保証するための体系的なプロセス。

第三者リスク

外部データプロバイダー、モデルベンダー、またはサービスプラットフォームに依存することから生じるリスクは、コンプライアンスやセキュリティの脆弱性を引き起こす可能性があります。

閾値設定

AIの意思決定ルールにおいて、境界やカットオフ値(例:信頼度スコア)を設定し、偽陽性と偽陰性のようなリスクをバランスさせること。

トレーサビリティ

データ収集からモデル開発、そして展開まで、AIライフサイクルの各ステップを追跡し文書化する能力を、監査およびフォレンジックをサポートするために提供します。

トレーニングデータセット

AIモデルがそのタスクを実行するために学習すべき関係やパターンを教えるために使用される、ラベル付きまたはラベルなしのデータの精選されたコレクション。

転移学習

あるタスク用に開発されたモデルを関連するタスクに適用する手法であり、開発時間を短縮する一方で、継承されたバイアスの管理が求められる技法です。

透明性

AIシステムのプロセス、意思決定論理、およびデータの使用を、ステークホルダーに対して説明責任を果たすために明確で理解しやすいものにする実践。

信頼できるAI

倫理的で信頼性があり、安全であり、人間の価値観と社会規範に一致した方法で設計および運用されるAIシステム。

ユーザー

アンダーフィッティング

AIシステムが基礎的なデータパターンを捉えるにはあまりに単純であり、その結果、トレーニングデータおよび新しいデータの両方において性能が悪化するモデリングの問題です。

統一性

AIシステム全体にわたり、ポリシー、コントロール、基準の一貫した適用を保証し、ガバナンスの隙間や不均一なリスク管理を回避します。

教師なし学習

モデルが明示的な結果の指示なしに、ラベルのないデータ内のパターンやグループを識別する機械学習アプローチです。

稼働時間モニタリング

AIシステムの可用性とパフォーマンスを継続的に追跡し、重大な業務やコンプライアンス要件に影響を与える可能性のある障害や劣化を検出します。

ユースケースガバナンス

特定のAI使用事例の定義、承認、監視は、各事例が組織の方針、倫理基準、リスク許容度に整合することを保証するための実践です。

ユーザー同意

AIシステムで個人データを収集、処理、または使用する前に、個人から明示的な許可を取得し記録するプロセスです。

ユーティリティ

AIシステムがその目的を達成する上でどれほど価値があるか、または効果的であるかを判断する尺度であり、関連するリスクやリソースコストとバランスを取ります。

V

バリデーション

AIモデルが意図されたタスクで正確にかつ信頼性高く機能し、定義されたパフォーマンス基準を満たすことを確認するプロセスです。

ばらつき監視

AIモデルの出力やパフォーマンス指標の変動を時間経過とともに追跡し、ドリフトを検出して潜在的な劣化やリスクを推測します。

ベンダーリスク管理

AIコンポーネントやサービスのサードパーティ供給者を評価・監視し、潜在的なコンプライアンス、安全性、倫理的リスクを識別し、軽減することを目的としています。

バージョン管理

AIのコード、モデル、およびデータセットに対する変更を管理し、追跡する実践は、再現性と監査可能性を確保するためのものである。

拒否権

ガバナンス機関または利害関係者が保持する正式な権利として、容認できないリスクをもたらすAIの導入を阻止または変更を要求する権限。

監視モニタリング

AIの挙動や外部信号(例:規制の更新)の継続的な監視を行い、新たに発生するリスクや非遵守事項を迅速に特定して対応します。

ビジョンAI管理

コンピュータビジョンシステムに特化したガバナンスプロセスでは、データ品質の確保、偏りのチェック、および画像/ビデオを基にした意思決定における透明性が重視されています。

脆弱性評価

AIインフラストラクチャおよびアプリケーションにおけるセキュリティの弱点を特定、分析、優先順位付けし、修正作業を導く。

ダブル

ウォッチドッグモニタリング

AIの意思決定を監視し、ポリシーや閾値が違反された際に警告や介入をトリガーする独立したランタイムチェックです。

重み付け監査

モデルの重みと構造を精査し、改ざんや意図しない動作を示す可能性のある異常、バックドア、バイアスを確認します。

ホワイトボックステスト

AIシステムの内部構造(コード、パラメータ、アーキテクチャ)を完全に把握した上で、正確性、セキュリティ、コンプライアンスを検証すること。

ホワイトリスト/ブラックリストポリシー

コンプライアンスを強化し、不正使用を防止するために、許可された(ホワイトリスト)および禁止された(ブラックリスト)入力、機能、または操作を定義するガバナンスルール。

ホワイトリスト登録

未承認または悪意のある要素からのリスクを軽減するために、AIパイプラインにおいて事前承認されたデータソース、ライブラリ、またはモデルコンポーネントのみを許可します。

ワークフローオーケストレーション

AIライフサイクルのタスク(データの取り込み、トレーニング、検証、展開)を自動化およびシーケンス化して、ガバナンスポリシーを強化し、一貫性を確保します。

ワークロード分離

AIコンピュート環境(例えば、開発、テスト、本番)とデータドメインを分離し、障害やセキュリティ侵害の影響範囲を制限します。

最悪のケース分析

AIシステムの最も重大な潜在的な故障や悪用を評価し、堅牢なリスク緩和策と非常時対応計画に役立てる。

一度書き込み、多数回読み取り (WORM) ストレージ

不変ストレージにより、一度記録されたログ、監査証跡、モデルアーティファクトは改変されることがなく、否認防止および法医学的レビューをサポートします。

X

X-バリデーション

データを折りたたみに分割し、モデルの一般化を厳密に評価し、過学習を検出するためのモデル検証手法(しばしば“X-Val”と略されます)。

XAI(説明可能なAI)

AIモデルの意思決定プロセスを人間に対して透明で理解可能にする技術と方法であり、責任とコンプライアンスの支援を行います。

XAI監査

AIの説明可能性の出力が内部方針や規制要件を満たしているかどうかを評価するレビュープロセスであり、十分な透明性を確保します。

XAIフレームワーク

組織がAIシステム全体で説明可能性の実践を実装、測定、管理するために使用する、体系的なアプローチまたはガイドラインのセット。

XAI指標

AIの説明の品質と信頼性を評価するために使用される定量的または定性的な指標(例:特徴の重要度スコア、説明の忠実度)。

Y

YARAルール

既知の悪意のあるコードや改ざんを検出するために、AIパイプラインやアーティファクトをスキャンするためのシグネチャベースの検出パターンセットです。

年次コンプライアンスレビュー

AIガバナンスのプロセス、ポリシー、システムの年次評価を実施し、規制および内部基準と継続的に整合していることを確認します。

エンタープライズソフトウェア製品のマーケティングサイトに適した形式で翻訳されたコンテンツです。

ゼロ欠陥許容度

AI出力におけるエラーやポリシー違反を未然に防ぐことを目指したガバナンス原則であり、厳密なテスト、監視、継続的な改善サイクルによって支えられています。

ゼロデイ脆弱性

パッチや緩和策が利用可能になる前に悪用される可能性がある、AIソフトウェアまたはインフラストラクチャ内の未発見のセキュリティ欠陥。

ゼロショット学習

一般化された知識表現を活用することで、明示的にトレーニングされていないタスクやデータを正確に処理または分類するモデルの能力。

ゾーンベースのアクセス制御

ネットワークまたはデータガバナンスアプローチは、リソースを異なるポリシーを持つゾーンに分割し、データの機密性に応じてAIシステムのアクセスを制限します。

ホワイトペーパー

すべて

AI 規制

ポッドキャスト

製品の更新情報

報道

用語集

エー

AIの責任

AIシステムの開発者および運用者は、そのシステムが責任を持って設計および使用され、倫理的基準と法的要件を遵守することを保証する義務があります。

AI整合

AIシステムの目的と行動を人間の価値観や意図に合わせるプロセス。

AI監査

AIシステムの倫理基準、規制、および性能指標への適合性を評価するための体系的な評価。

AIバイアス

偏見のあるトレーニングデータや欠陥のあるアルゴリズムに起因するAI出力における系統的誤差は、不公平な結果をもたらす可能性があります。

AIコンプライアンス

AIシステムがそのライフサイクル全体を通じて適用される法律、規制、および倫理指針を遵守すること。

AI倫理

AI技術の開発と導入に関連する倫理的影響と責任に関する分野です。

AIの説明可能性

AIシステムの内部メカニズムが人間によってどの程度理解され解釈されるか。

AIガバナンス

AIシステムの倫理的かつ効果的な開発と利用を支援するポリシー、プロセス、制御の枠組み。

AI在庫管理

組織全体で使用されている全てのAIシステム、モデル、エージェントの包括的かつ集中管理されたカタログであり、そのビジネス目的、リスクレベル、所有権を追跡します。

AIリテラシー

AIの概念、能力、限界を理解し、AI技術との適切な交流を可能にします。

AI監視

AIシステムのパフォーマンスを継続的に観察および分析し、信頼性、安全性、コンプライアンスを確保します。

AIリスク

AIシステムが引き起こす可能性のある損害や意図しない結果には、倫理的、法的、運用上のリスクが含まれます。

AIリスク管理

AIシステムに関連するリスクの特定、評価、軽減のプロセス。

AI TRiSM(AI トリズム)

Gartnerによって作られた頭字語であるAI Trust、Risk、Security Management(AI信頼性、リスク、およびセキュリティ管理)を指します。ガバナンス、信頼性、およびセキュリティを単一の運用戦略に統合するフレームワークです。

AIの透明性

AIシステムはその運用、意思決定、データの使用に関して開かれており、明確であるべきという原則。

正確性

AIシステムの出力が実世界のデータや意図された結果を正確に反映する程度。

敵対的攻撃

不正な出力を引き起こすために、誤解を招く入力を導入してAIモデルを操作する技術です。

エージェンティックAI

複雑な目標を自律的に追求し、ソフトウェアの展開や金融取引などの多段階のアクションを最小限の人間の介入で実行するように設計された人工知能システムのクラスです。

エージェンティックAIガバナンス

自律型AIシステムのガバナンスに関する説明です。これらのシステムは、予測AI(インサイトを提供するもの)や生成AI(コンテンツを作成するもの)とは異なり、独立した行動(例:取引、コードの展開)を実行する能力を有しています。

アルゴリズム

AIシステムが独自に学習するのを助けるための一連の規則または指示。

アルゴリズムの偏り

アルゴリズムが機械学習プロセスの誤った仮定により系統的に偏った結果を生成する際に発生するバイアス。

アルゴリズムによるガバナンス

アルゴリズムを活用して社会的機能を管理および規制することは、意思決定プロセスに影響を与える可能性があります。

汎用人工知能

人間の知能に類似した一般的な方法で理解し、学習し、知識を適用する能力を持つAIの一種です。

人工知能

機械による人間の知能プロセスのシミュレーション、特にコンピューターシステムによるものであり、学習、推論、自己修正を含みます。

B

誤差逆伝播法

ニューラルネットワークで使用される訓練アルゴリズムで、出力層から誤差を逆伝播させて重みを調整し、損失を最小限に抑えます。

バッチ学習

モデルが逐次学習ではなく、データセット全体を一度に学習する機械学習のアプローチです。

ベンチマーキング

AIシステムのパフォーマンスを標準的な指標や他のシステムと比較して、その効果を評価するプロセスです。

バイアス

偏見のあるトレーニングデータや欠陥のあるアルゴリズムに起因するAI出力における系統的誤差は、不公平な結果をもたらす可能性があります。

バイアス増幅

AIシステムが、訓練データに存在する既存のバイアスを悪化させ、ますます偏った結果を招く現象。

バイアス監査

AIシステムにおけるバイアスを検出し、緩和するための評価プロセスを策定し、公平性および倫理基準への準拠を保証します。

バイアス検出

AIモデルの出力や意思決定プロセスを分析することによって、偏見を特定するプロセス。

バイアス軽減

AI開発において、モデルやデータセット内のバイアスを削減または排除するために適用される技術。

ブラックボックスモデル

意思決定のプロセスが不透明または解釈できないため、どのように意思決定が行われるかを理解するのが難しいAIシステムです。

ボット

エンタープライズソフトウェア製品向けのマーケティングサイトにふさわしい形式で翻訳します。自動化されたタスクを実行するソフトウェアアプリケーションで、顧客サービスやデータ収集などのタスクにAIでよく使用されます。

C言語

因果推論

AIと統計学の分野で用いられる手法であり、因果関係を特定し、介入や変数の変更が影響を及ぼすことを理解するのに役立ちます。

チャットボット

AIを搭載したソフトウェアアプリケーションは、人間の会話を模擬するように設計されており、主に顧客サービスや情報収集のために使用されます。

分類

機械学習における教師あり学習技法で、モデルがトレーニングデータに基づいて新しい観測のカテゴリまたはクラスラベルを予測します。

認知バイアス

訓練データ内に存在する場合、AIの意思決定に影響を与える可能性がある、通常や合理性からの一貫した逸脱のパターン。

コグニティブ・コンピューティング

人間の思考プロセスをコンピュータモデルで模倣し、複雑な問題を人の手を借りずに解決することを目指すAIのサブセット。

認知負荷

AIにおけるシステム設計では、ユーザーを圧倒しないようにするために、作業記憶で使用される精神的な努力の総量が考慮されます。

コンプライアンスフレームワーク

組織が規制および倫理基準を満たすAIシステムを確実にするために従うガイドラインとベストプラクティスの体系的なセット。

コンプライアンスリスク

法律、規制、または定められた慣行に従わない場合に企業が直面する法的あるいは規制上の制裁、財務上の損失、または評判の損害の可能性。

コンピュータービジョン

AIの一分野として、コンピュータに画像やビデオなどの視覚情報を解釈し処理する能力を訓練する技術です。

コンセプトドリフト

モデルが予測しようとしている対象変数の統計特性の時間経過に伴う変化は、モデルの劣化を引き起こします。

信頼区間

サンプル統計から導き出された一連の値で、未知の母集団パラメーターの値を含む可能性が高く、AIにおいて不確実性を表現するために使用されます。

適合性評価

AIシステムが指定された要件、基準、または規制を満たしているかどうかを判断するプロセスであり、多くの場合、テストおよび認証が含まれます。

継続的学習

AIシステムは、新しいデータ入力から人間の介入なしに継続的に学習し、適応し、時間とともに改善する能力を持っています。

制御性

人間がAIシステムの決定や行動を指示、影響を与える、または無効化することができる程度。

交差検証

統計解析の結果が独立したデータセットにどのように一般化されるかを評価するためのモデル検証手法。

サイバーセキュリティ

システム、ネットワーク、およびプログラムをデジタル攻撃から守る実践は、脅威に対してAIシステムを保護する上で重要です。

データ

データドリフト

時間の経過に伴うモデル入力データの変化は、監視・対応しなければ、モデルの性能低下を引き起こす可能性があります。

データ倫理

個人を特定可能な情報を収集、保護、使用する際の倫理的義務に関して、データの取り扱いを評価する倫理学の一分野です。

データガバナンス

企業におけるデータの可用性、使用性、整合性、およびセキュリティの全体的な管理は、データのライフサイクル全体を通して適切に取り扱われることを保証します。

データライフサイクル管理

データフローのライフサイクル全体にわたるポリシーに基づく管理: 作成および初期保存から、陳腐化し削除されるまでの一連の流れを包括的に管理します。

データ最小化

特定の目的に必要なデータのみを収集するという原則は、誤用や漏洩のリスクを軽減します。

データプライバシー

情報技術の側面で、どのデータが共有され、誰と共有されるかを制御する能力を扱い、個人データが適切に取り扱われることを保証します。

データ保護

重要な情報を保護し、破損、漏洩、損失を防止するとともに、データ保護法規制への準拠を確実にするプロセスです。

データ品質

AIモデルの効果的なパフォーマンスに不可欠であるデータの状態は、正確性、完全性、信頼性、関連性といった要因に基づいています。

データレジデンシー

組織のデータの物理的または地理的な場所は、データ保護法の遵守に影響を及ぼす可能性があります。

データ主権

データは、それが収集、保存、または処理される国家の法律およびガバナンス構造に従うという概念です。

データ主体

個人データが収集、保持、または処理される個人は、特にGDPRのようなデータ保護法の文脈で重要です。

識別情報の削除

データセットから個人識別子を削除または隠蔽し、個人の特定を困難にするプロセスであり、プライバシー保護に利用されます。

ディープラーニング

複数層のニューラルネットワークを伴う機械学習の一部であり、データの複雑なパターンをモデル化することを可能にします。

ディープフェイク

既存の画像やビデオ内の人物が、ディープラーニング技術を使用して作成された他の人物の肖像に置き換えられる合成メディア。

差分プライバシー

データセット内のグループのパターンを記述しつつ、個人に関する情報を秘匿したまま、データセットについての情報を公に共有するシステムです。

差別

AIにおいて、データやアルゴリズムの偏見に基づく個人またはグループに対する不公平な扱いを指し、それが不平等な結果を招くことを意味します。

分散型学習

トレーニングデータが複数のデバイスまたは場所に分散され、生のデータを共有することなく、協力してモデルをトレーニングする機械学習アプローチです。

ドメイン適応

機械学習の技術の一つであり、ある領域で訓練されたモデルが異なるが関連する領域で機能するように適応されることを指します。

動的リスク評価

AIシステムにおける新たな脅威に対して、タイムリーな対応を可能にする、リスクの継続的なリアルタイムでの識別および評価のプロセス。

E

エッジAI

データ生成の源であるエッジデバイスにAIアルゴリズムを展開し、データ処理と意思決定を可能にします。

エッジアナリティクス

データ生成のソースに近いネットワークのエッジでのデータ分析により、待ち時間と帯域幅の使用を削減します。

アンサンブル学習

複数のモデルを訓練して組み合わせることで同じ問題を解決し、全体的なパフォーマンスを向上させる機械学習のパラダイム。

エンティティ解決

異なるデータセット間で同じ実世界のエンティティを参照するレコードを識別し、リンクするプロセスです。

Enzai

企業向けAIガバナンスプラットフォームは、組織がAIシステムをインベントリし、評価し、管理することを可能にし、AIの採用を最大化しながらAIリスクを最小限に抑えることを保証します。

倫理的なAI

倫理原則と価値観に沿って設計、開発、展開されるAIシステムの慣行は、公平性、説明責任、透明性を確保します。

倫理的AI監査

AIシステムが倫理基準を順守し、害を及ぼさないことを保証するために、体系的に評価するプロセス。

倫理的AI認定

AIシステムが確立された倫理基準とガイドラインに従っていることを正式に認定すること。

倫理的なAIガバナンス

AIシステムが適切かつ倫理的に開発・使用されることを保証するためのポリシー、手順、実践のフレームワーク。

倫理的枠組み

AI システムの倫理的な開発と展開を導くために設計された原則とガイドラインの体系的なセット。

倫理的ハッキング

AIシステムの堅牢性を確保するために、意図的にシステムの脆弱性を探し出し、セキュリティ問題を特定して修正する取り組みです。

倫理的影響評価

AIシステムの導入前に、その倫理的影響および潜在的な社会的影響を特定し、対処するための体系的な評価プロセス。

倫理的リスク

AIシステムが偏見、差別、プライバシー侵害などの非倫理的な行動により、害を及ぼす可能性があるというリスク。

信頼できるAIのための倫理ガイドライン

欧州委員会のAIハイレベル専門家グループによって開発された一連の指針であり、人間の主体性、技術的堅牢性、プライバシー、透明性、多様性、社会的幸福、説明責任に重点を置き、信頼できるAIを促進することを目的としています。

説明可能性技術

AIモデルによって行われた意思決定を解釈し理解するための手法には、LIMEやSHAP、サリエンシーマップなどがあります。

説明可能性と解釈可能性

両者ともAIの意思決定を理解しやすくすることを目指していますが、説明可能性は意思決定の理由に焦点を当てており、解釈可能性はモデルの内部メカニズムの透明性に関わっています。

説明可能なAI(XAI)

AIシステムは、その決定と行動について人間が理解できる説明を提供するように設計されており、透明性と信頼性を高めます。

説明可能な機械学習

予測や意思決定に対して明確で理解しやすい説明を提供するように設計された機械学習モデル。

エフ

公平性

AIシステムがさまざまな個人やグループに対して偏りのない公平な結果を生成し、差別的な影響を軽減することを保証します。

公平性指標

AIモデルの予測がグループ間でどれほど公正であるかを評価するために使用される定量的指標(例:人口統計の平等性、平等化されたオッズ)。

偽陰性

AIモデルが実際には正であるインスタンスに対して誤って負のクラスを予測する場合(タイプIIエラー)。

誤検出

AIモデルが実際にはネガティブなインスタンスに対して誤ってポジティブクラスを予測する場合(第一種過誤)。

フォルトトレランス

AIシステムがいくつかのコンポーネントで故障やエラーが発生した場合でも、正しく動作し続ける能力。

特徴工学

機械学習モデルの性能を向上させる特徴量として、生のデータセット属性を作成、選択、または変換すること。

機能抽出

生データ(例: テキストや画像)を、機械学習アルゴリズムへの入力に適した数値表現(特徴量)にマッピングするプロセス。

機能選択

モデルトレーニングのために最も関連性の高い特徴を特定して選択し、複雑さを軽減し精度を向上させます。

フェデレーテッドラーニング

モデルが生データを中央で共有することなく、複数のデバイスやサーバーにあるローカルデータでトレーニングされる分散型機械学習アプローチ。

フィードバックループ

AIの出力が入力としてフィードバックされるプロセスであり、これによりモデルの挙動が増幅される可能性があります。これは、良い方向(強化学習)にも、悪い方向(バイアスの強化)にも影響を与える可能性があります。

微調整

あらかじめ学習済みのAIモデルを特定のタスクやデータセットに適応させ、新しいデータを用いて学習を続けることで、しばしばタスク特有のパフォーマンスを向上させます。

形式的検証

AIアルゴリズムが指定された正確性の特性を遵守していることを数学的に証明することは、安全性が非常に重要なシステムでよく使用されます。

フレームワーク

AIシステムのガバナンス、開発、展開、監視を導くためのポリシー、プロセス、ツールの構造化セットです。

不正検出

AI技術(例:異常検知、パターン認識)を利用して、金融や保険などでの不正行為を特定し防止することができます。

機能安全

AIシステムがあらゆる状況下で安全に運用されることを保証することは、特に自動車産業や医療分野においては、冗長性やチェックを通じて重要です。

ファジー論理

制御システムや不確実性の処理に役立つ、真偽ではなく近似値で推論を行うロジックシステムです。

ジー

一般データ保護規則 (GDPR)

EUの一般データ保護規則は、個人データの収集、処理、個人の権利に関する厳格な要件を確立しています。

GPU(グラフィックスプロセッサ)

大規模なAIモデルを効率的にトレーニングおよび実行するために広く使用されている、並列計算専用のハードウェアアクセラレータです。

ギャップ分析

現在のAIガバナンスの実践を望ましい基準や規制と比較して、改善が必要な領域を特定するプロセスです。

一般化

AIモデルがトレーニング例を記憶するのではなく、基盤となるパターンを捉えることによって、新しい未見のデータで高い性能を発揮できる能力。

生成的AI

AI技術(例えば、GANsやトランスフォーマーなど)は、新たなコンテンツ—テキスト、画像、その他のメディアを生成することがあり、その過程で新しいガバナンスや知的財産権の問題を引き起こすことが頻繁にあります。

グローバルモデル

複数の情報源から収集されたデータで訓練された統合AIモデルは、ローカライズされたモデルやパーソナライズされたモデルとは異なります。

ガバナンス

AIシステムの倫理的、合法的、かつ効果的な開発および展開を導く一連の方針、手続き、役割、責任。

ガバナンス機関

組織内でAIガバナンス方針とその実行を監督することを任務とする法務、倫理、技術などのクロス機能グループ。

ガバナンスフレームワーク

AIガバナンスの構成要素(リスク管理、アカウンタビリティ、監督)がどのように組み合わされて、コンプライアンスと倫理的な利用を確保するかを説明するための構造化されたモデルです。

ガバナンス成熟度モデル

組織のAIガバナンス実践の進化度を評価するための段階的枠組みであり、臨時的なものから最適化されたものまでを対象としています。

ガバナンスポリシー

企業内のAI開発および監督に関する規則、役割、手続きを成文化した正式な文書です。

ガバナンススコアカード

AIガバナンスの有効性を時間の経過とともに測定するために、重要な指標(例:偏りのある事件やコンプライアンス監査)を追跡するダッシュボードまたは報告書。

勾配降下法

損失関数を最小限に減少させる方向にモデルパラメータを反復的に調整する最適化アルゴリズム。

詳細な同意

データの使用ごとに個別に許可を与えたり拒否したりできるデータプライバシーアプローチであり、透明性とコントロールを強化します。

グリーンAI

エネルギー効率の高いアルゴリズムや持続可能なコンピューティングの実践を通じて、AIの環境への影響を削減する取り組み。

グレイボックスモデル

内部ロジックが部分的に透明であるモデル(いくつかのコンポーネントは解釈可能であり、他は不透明である)は、性能と説明可能性のバランスを取ります。

グラウンドトゥルース

AIモデルのパフォーマンスを訓練および評価するための基準として使用される、正確な現実世界のデータまたはラベルです。

ガードレール

AIシステムに組み込まれた定義済みの制約やチェック(技術的およびポリシー)は、実行時における安全でないまたはコンプライアンスに違反する行動を防ぐためのものです。

ガイドライン(倫理的AI)

責任あるAI開発と展開を形成するために発行される、IEEEやEUなどの組織による、拘束力のない推奨またはベストプラクティスの文書です。

エイチ

幻覚

生成AIがトレーニングデータに基づかないにもかかわらず、もっともらしく見える誤った情報や捏造された情報を生成する場合。

欠損データの処理

データセットの欠損を解決し、モデルの整合性と公平性を維持するための手法(例:補完、削除、モデリング)。

ハードウェアアクセラレーター

AIの計算を高速化するために設計された専門チップ(例:GPU、TPU)は、エネルギー使用とサプライチェーンに関するリスクに影響を与えます。

リスク評価

AIシステムがもたらす可能性のある負の影響(物理的、心理的、社会的)を評価し、緩和策を策定します。

調和化

AIのポリシー、標準、および規制を各管轄区で整合させ、競合を減らし、相互運用性を実現します。

ハッシュ化

データを固定サイズの文字列に変換するプロセスで、データの整合性チェックやプライバシーを保護しながらの記録のリンクに使用されます。

異種データ

異なる種類のデータ(テキスト、画像、センサー)や複数のドメインからのデータを組み合わせることは、統合およびガバナンスの課題を引き起こします。

ヒューリスティック

AIプロセスを迅速化するために使用される経験則または簡略化された意思決定戦略であり、しばしば最適性を効率性に交換します。

ヒューリスティック評価

AIシステムを既存のユーザビリティ原則に基づいて専門家が評価し、潜在的な問題を特定するためのユーザビリティ評価手法です。

ハイステークスAI

重大な被害を引き起こす可能性があるAIアプリケーション(例えば、医療診断や自律走行車)には、厳格なガバナンスと監視が必要です。

人間による監督

指定された個人がAIシステムの意思決定を監視し、介入し、または上書きして倫理的および法的な遵守を保証するためのメカニズム。

人権影響評価

AIシステムが基本的人権(プライバシー、表現の自由、差別の禁止)にどのように影響するかを評価し、緩和策を特定するためのプロセスです。

人間を介したプロセス

AIプロセス(トレーニング、検証、意思決定のレビュー)に人間の判断を組み込むことで、正確性と説明責任を向上させます。

ハイブリッドモデル

複数の学習パラダイム(例: シンボリックとニューラル)を組み合わせて、説明性とパフォーマンスのバランスを取るAIシステム。

ハイパーパラメーター

モデルの学習前に設定され、学習の挙動や性能に影響を与える設定変数(例: 学習率、木の深さ)。

ハイパーパラメータチューニング

モデルのパフォーマンスを最大化するために、グリッド検索やベイズ最適化などを通じて最適なハイパーパラメータ値を検索するプロセス。

ISO/IEC JTC 1/SC 42

人工知能標準化に関する国際標準化機構 (ISO) と国際電気標準会議 (IEC) の合同委員会は、ガバナンス、リスク、および相互運用性のための国際的なAI標準を開発しています。

不均衡データ

あるクラスまたはカテゴリが他のクラスやカテゴリに比べて著しく数が多いデータセットは、適切な対策を講じない限り、AIモデルが多数派のクラスに偏る原因となる可能性があります。

不変の台帳

一旦データが書き込まれると、改ざんされても検知できるようにしつつ、改ざんの痕跡が残る記録管理機構(例: ブロックチェーン)—これはAI監査の証跡に有用です。

影響評価

AIシステムの導入前に、潜在的な倫理的、法的、社会的影響を特定、分析、および緩和するための体系的な評価。

潜在的なバイアス

トレーニングデータやモデル設計に組み込まれた無意識または意図しないバイアスが、差別的な結果を招く可能性があります。

インセンティブの整合

AIシステムの目標が人間の価値観と組織の優先事項に一致し続けるように、報酬構造と目的を設計すること。

帰納バイアス

学習アルゴリズムが観察されたデータから未知のインスタンスへ一般化する際に使用する仮定のセット。

推論

訓練されたAIモデルが新しいデータ入力を処理し、予測や決定を下すプロセスです。

推論エンジン

AIシステムのコンポーネント(特にルールベースまたはエキスパートシステムにおいて)は、知識ベースを入力データに適用して結論を導き出す機能を持っています。

情報ガバナンス

組織のデータ資産全体にわたり、データの品質、プライバシー、利用可能性を確保するための方針、手順、および管理、これにはAIのトレーニングデータセットも含まれます。

情報プライバシー

個人がAIシステムによって収集、使用、保存、共有される個人データを管理する権利。

コードとしてのインフラストラクチャ (Infrastructure as Code, IaC)

機械可読の構成ファイルを通じてAIインフラストラクチャ(計算、ストレージ、ネットワーキング)を管理およびプロビジョニングすることで、再現性と監査性を向上させます。

相互運用性

多様なAIシステムやコンポーネントが、オープンスタンダードやAPIを通じて、情報を円滑に交換し、理解し、利用する能力。

解釈可能性

AIモデルの内部メカニズムまたは意思決定の合理性を人間が理解できる程度。

侵入検知

AIインフラとアプリケーションの悪意ある活動やポリシー違反を監視し、アラートや自動応答をトリガーします。

J

ヤコビアン行列

AIの説明可能性において、モデルの出力に対する入力の全一次偏導関数の行列は、感度と特徴の重要性を評価するために使用されます。

脱獄攻撃

ユーザーが脆弱性を利用して生成AIモデルの保護手段を回避し、不安全または不正な出力を引き起こす可能性があるプロンプトインジェクションの一形態です。

連帯責任

複数の関係者(例えば、開発者やデプロイ者)がAI関連の損害に対して責任を共有する法的原則であり、契約およびガバナンス構造に影響を与えます。

共同モデリング

複数のタスク(例えば、音声認識と翻訳)を共同で学習するAIシステムを構築し、その複雑さと監査可能性についてのガバナンスが必要です。

判断バイアス

認知バイアスや不完全なデータによって引き起こされる人間またはAIの意思決定プロセスにおける体系的なエラーには、偏見監査と緩和が必要です。

司法審査

AIによって行われたり補助されたりする決定の合法性を評価する法的プロセスであり、アカウンタビリティと適正手続きの確保を目的としています。

管轄区域

地理によって異なるデータ、AI操作、および責任に関する法的権限は、地域規制(例:GDPR、CCPA)へのコンプライアンスに影響を与えます。

陪審オートメーション

AIを使用して陪審員の選定やケース分析を支援することは、公平性、透明性、法的監視に関する倫理的懸念を引き起こしています。

ジャスティス・メトリクス

AI意思決定における公正性と差別禁止を評価するために使用される定量的な指標(例:異なる影響、機会の均等など)。

K

重要業績評価指標

AI ガバナンスとコンプライアンスの目標を監視し報告するために使用される定量的な指標(例えば、モデルの精度の変化、バイアスの修正時間)です。

主要リスク指標

AIのリスクが顕在化する前に、それらの発生を示す先行指標(例:スコープ外予測の頻度、説明不能な意思決定の割合)。

顧客の身元確認 (KYC)

AIシステムと関わる個人または組織の身元、リスクプロファイル、および正当性を確認するためのコンプライアンスプロセス、特に規制された業界において重要です。

知識蒸留

より大きな“教師”モデルからより小さな“生徒”モデルに洞察を転送する方法であり、パフォーマンスをリソースやガバナンスの制約とバランスさせます。

ナレッジグラフ

エンティティとその関係の構造化された表現を使用して、AIの説明性、監査可能性、およびドメインオントロジーとの整合性を向上させます。

ナレッジ管理

組織の知識(例:モデル文書、監査ログ)を取得、整理、共有するための実践とツール。これにより、再現性と監督が確保されます。

L

ラベル漏れ

出力情報が訓練データラベルに不注意に含まれることで、パフォーマンス指標が水増しされ、モデルの真の一般化問題が隠されてしまうことがあります。

大規模言語モデル

膨大なテキストコーパスで訓練されたディープラーニングモデルは、テキスト生成、翻訳、要約などのタスクを実行できますが、バイアスや誤用に対するガバナンスが求められることがよくあります。

最小特権

AIコンポーネントとユーザーに必要最小限のアクセス権のみを付与することで、機能を果たすために必要なリスクを低減するセキュリティ原則です。

法令遵守

AIシステムがその全ライフサイクルにわたって適用される法律、規制、および業界標準に従っていることを確保する実践。

責任の枠組み

AIに関連する損害や失敗に対する責任を明確にするための体系的なアプローチであり、開発者、導入者、およびオペレーターが含まれます。

ライフサイクル管理

AIシステムの開発、展開、監視、保守、および廃止のための統合されたプロセスは、継続的なコンプライアンスとリスク管理を確保するために設計されています。

ライブネス検知

入力(バイオメトリクスなど)が偽造やリプレイではなく、生きた主体から来ていることを確認するために使用される技術であり、それによりシステムのセキュリティと整合性を向上させます。

ローカライゼーション

AIシステムを各地域の言語、規制、文化的規範、データの居住要件に適合させること。

ログ管理

AIワークフローからのシステムおよびアプリケーションログの収集、保存、分析により、監査、インシデント対応、モデルパフォーマンスの追跡を支援します。

損失関数

予測された出力と真の値との違いを定量化し、モデルのトレーニングと最適化を導く数学的関数です。

M

意義のある人間の制御

人間がAIの意思決定プロセスを監督し、介入し、上書きする能力を保持することを保証する規制および運用の基準です。

メタデータ管理

トレーサビリティと監査をサポートするために、記述データ(例: データの起源、機能の定義、モデルのパラメータ)を記録し維持する実践。

指標とKPI

AIシステムの健全性、リスク、コンプライアンスの目標を監視するために使用される定量的指標(例:精度の変動、公平性スコア、インシデント対応時間)。

緩和策

特定されたAIリスクとコンプライアンスのギャップに対応するための計画的な行動(例:バイアス是正、再訓練、機能再工学)。

モデルの説明可能性

AIモデルの意思決定ロジックをステークホルダーや監査人に理解可能にする技術とドキュメント。

モデルガバナンス

AIモデルが組織の基準および規制要件に準拠して開発、承認、および使用されることを保証するためのポリシー、役割、および制御。

モデル監視

AIモデルのパフォーマンス、データのドリフト、運用指標を継続的に監視し、劣化や新たなリスクを検出します。

モデル再訓練

データ分布の進化に伴い、性能とコンプライアンスを維持するために、新しいデータや更新されたデータでAIモデルを更新するプロセス。

モデルリスク管理

AI/MLモデルのライフサイクル全体を通じて発生するリスクを特定し、評価し、軽減するための構造化されたプロセス。

モデル検証

AIモデルが本来の目的と性能基準を満たしていることを確認する評価活動(例:保持データに対するテストやストレスシナリオ)。

マルチステークホルダーエンゲージメント

AIガバナンスプロセスにおいて多様なグループ(法務、倫理、運用、エンドユーザーなど)を関与させ、リスクのバランスを取った監視を行い、ビジネス目標と一致させるための体制を整えます。

いいえ

NIST AIリスク管理フレームワーク

米国国立標準技術研究所による自発的なガイダンスであり、AIシステムのライフサイクルにおけるリスクを軽減するためのベストプラクティス概要です。

自然言語処理(NLP)

機械がテキストや音声形式で人間の言語を解釈、生成、分析することを可能にする技術とツール。

ネットワークセキュリティ

AIインフラストラクチャとデータパイプラインを不正アクセスや改ざんから保護するための措置と管理(例:セグメンテーション、ファイアウォール、侵入検知)。

ニューラルアーキテクチャ検索

ニューラルネットワーク構造を設計および最適化するための自動化手法は、複雑性とリソース制約とのバランスを取りながら、モデルのパフォーマンスを向上させます。

ノイズインジェクション

意図的にランダムな摂動をトレーニングデータやモデルパラメータに導入し、頑健性を向上させ、敵対的な操作に対して保護します。

新規性検出

トレーニングデータと大きく異なる入力やシナリオを特定し、予期しない障害を防ぐためにレビューや安全モードの操作を開始するための技術。

Oを

可観測性

ログ、メトリクス、出力の収集と分析を通じて、AIシステムの内部状態と動作を推測し、効果的な監視とトラブルシューティングを可能にする機能。

継続的なモニタリング

AIシステムの性能、データドリフト、バイアス指標、セキュリティイベントを継続的に監視し、時間の経過とともに新たに発生するリスクを検出し対処します。

不透明度

AIモデルが意思決定や予測に至る過程の透明性の欠如は、信頼性と規制遵守において課題をもたらします。

業務レジリエンス

AIシステムおよびそれを支えるインフラストラクチャが予測し、耐え、回復し、そして混乱や不利な事象に適応する能力。

オーケストレーション

AIワークフローとサービスの自動化された調整—データの取り込み、モデルの訓練、展開—がポリシーとリソースのガバナンスへの準拠を確実にします。

異常検知

期待されるパターンから著しく逸脱するデータポイントやモデル予測を特定し、レビューまたは緩和措置を促す技術。

過学習

AIシステムがトレーニングデータ内のノイズや特殊性を学習してしまい、新たな未確認データに対する一般化能力が低下するモデリングの問題です。

監督

AIの開発と導入に関するレビュー、承認、そして責任の構造化されたプロセスは、通常、様々な機能を持つ統治機関を含む形で行われます。

所有権

AI資産(データ、モデル、プロセス)に対する責任と権限を明確にすることで、システムライフサイクル全体にわたってアカウンタビリティを確保します。

P

権限管理

AIデータと機能へのユーザーおよびシステムのアクセス権限を、最小特権の確保と不正使用の防止を実現する形で管理します。

パイロットテスト

AIシステムの本格展開に先立ち、その性能、リスク、ガバナンス制御を評価するために、限定的な範囲の試験を管理された環境で実施します。

ポリシー施行

AIの運用が組織のポリシー、規制のルール、および倫理的ガイドラインに準拠することを保証する自動または手動のメカニズム。

展開後のモニタリング

リリース後のAIシステムの動作および環境を継続的に観察し、劣化、ドリフト、またはコンプライアンス違反を検出します。

予測保守

AIを活用した監視と分析により、コンポーネントやシステムの故障を予測し、重要な環境における運用の回復力とリスク軽減を確保します。

プライバシー影響評価

AIシステムに関連するプライバシーリスクを特定し緩和するための構造的な分析には、データの収集、使用、共有、および保持を網羅しています。

プライバシー・バイ・デザイン

AIシステムのアーキテクチャとプロセスにおいて、データ保護とユーザーのプライバシーに関する考慮事項を最初から組み込むアプローチです。

プロセスオートメーション

AIおよびワークフローツールを活用して、ガバナンス、コンプライアンスチェック、リスク軽減活動を効率化し、手動の作業やエラーを削減します。

定性的評価

AIシステムの行動、意思決定、および文書について、専門家が主観的に評価することで、定量的に捉えきれない倫理的、法的、または評判に関する懸念を特定します。

品質保証

AIモデルとデータパイプラインが正確性、信頼性、倫理的遵守の定められた基準を満たすことを保証するための体系的なプロセスとチェック。

品質管理

AIの出力およびプロセスをベンチマークやテストケースに照らして継続的に検証し、欠陥、バイアス事象、またはポリシー違反を検出します。

定量的リスク評価

AI の潜在的脅威のデータ駆動型評価では、軽減策の優先順位を決定するために、可能性と影響を数値で推定します。

量子コンピューティング

量子力学を活用する新たな計算パラダイムは、セキュリティ、標準化、リスクに関するガバナンスの新しい課題を提起しています。

クエリログの記録

AIシステムの入力とユーザーの問い合わせを記録することで、監査トレイルを可能にし、誤用を検出し、アカウンタビリティをサポートします。

プライバシーに関するお問い合わせ

ユーザーのクエリ内の機密情報を保護するための技術とポリシーを策定し、記録された入力が個人情報や専有データを損なわないようにすることを保証します。

アンケートフレームワーク

設計、調達、または展開時に使用されるガバナンスに焦点を当てた質問の体系的なセットで、AIシステムがポリシー要件に適合していることを保証します。

ガバナンスボードの定足数

AIのリスク、方針承認、または監査結果に関する正式な決定を行うために必要なガバナンス委員会メンバーの最小人数。

割り当て管理

AIリソースの使用(例:API呼び出し、計算時間)に対する制御と制限は、ガバナンスポリシーを遵守し、費用の高騰や乱用を防ぐために設定されています。

R言語

リコース

AIによって権利や利益に影響を与える決定に対して、影響を受けた個人が異議を申し立てたり救済を求めたりすることができるメカニズム。

レッドチーミング

AIシステムの脆弱性を発見するために、内部または外部の専門家が攻撃や悪用シナリオを模擬するプロアクティブなテストアプローチ。

法令遵守

AIシステムが運用中、適用される法律、規制、業界標準(例:GDPR、FDA、金融監査)を遵守することを保証します。

再現性

同じデータ、コード、および設定を使用してAIモデルの結果を一貫して再生成する能力は、透明性と監査可能性を確保します。

責任割り当てマトリックス

各ガバナンス活動に対する役割と責任を明確にするツール(例: RACI)—誰が責任者であり、説明責任を持ち、相談を受け、情報を提供されるか。

責任あるAI

ステークホルダーと社会に対して倫理的で透明性があり、責任を持った方法でAIシステムを設計、開発、展開する実践。

リスク評価

AIシステムにおける潜在的なリスクや故障を特定し、分析し、優先順位を付けて、適切な対策を策定するプロセス。

リスク管理フレームワーク

設計から廃止まで、システムライフサイクル全体でAIリスクに体系的に対処するためのガイドラインとプロセスの構造化されたセットです。

堅牢性

AIシステムがさまざまな困難または敵対的な条件下でも信頼できるパフォーマンスを維持する能力。

根本原因分析

AIシステムの失敗または予期しない動作の根本的な原因を特定し、是正措置を導くための体系的な調査。

エス

制限付き利用規約

AIシステムの誤用を防ぐため、許可されたコンテキスト、ユーザー、目的を指定する定義されたルールと管理を実施します。

セキュリティバイデザイン

AIシステムにおけるセキュリティコントロールとベストプラクティスを、設計初期段階から統合することで、脆弱性やデータ漏洩を防止します。

シャドウAI

ITの承認を得ずに従業員がAIモデル、エージェント、またはツールを無断で使用することは、データ漏洩や不正な自律的行動を通じて隠れたセキュリティ上の脆弱性を生み出します。

社会的影響評価

AIシステムが社会的、経済的、文化的側面に与える影響を体系的に評価し、潜在的な損害と利益を特定します。

ソフトウェア開発ライフサイクル

AIアプリケーションのエンドツーエンドプロセス(要件定義、設計、構築、テスト、デプロイ、監視)は、各段階でガバナンスとコンプライアンスのチェックを組み込んでいます。

ステークホルダーエンゲージメント

AI 開発と監督において影響を受ける当事者(例:ユーザー、規制当局、影響を受けるコミュニティ)を関与させ、多様な視点と支持を確保するプロセス。

監視リスク

AIシステムが個人やグループに対して侵入的な監視に利用され、プライバシーや市民の自由を侵害する可能性があります。

合成データ

実際のデータ分布を模倣する人工生成データセットは、プライバシーを保護しながらトレーニングセットを拡張するために使用されます。

T

テールリスク

AIの行動や意思決定において、通常の期待を超える稀で極端な結果が起こる可能性があり、特別な緩和計画が必要とされます。

テストと検証

AIモデルをベンチマーク、エッジケース、およびストレス条件に照らして評価し、それらが性能、安全性、コンプライアンス基準を満たすことを保証するための体系的なプロセス。

第三者リスク

外部データプロバイダー、モデルベンダー、またはサービスプラットフォームに依存することから生じるリスクは、コンプライアンスやセキュリティの脆弱性を引き起こす可能性があります。

閾値設定

AIの意思決定ルールにおいて、境界やカットオフ値(例:信頼度スコア)を設定し、偽陽性と偽陰性のようなリスクをバランスさせること。

トレーサビリティ

データ収集からモデル開発、そして展開まで、AIライフサイクルの各ステップを追跡し文書化する能力を、監査およびフォレンジックをサポートするために提供します。

トレーニングデータセット

AIモデルがそのタスクを実行するために学習すべき関係やパターンを教えるために使用される、ラベル付きまたはラベルなしのデータの精選されたコレクション。

転移学習

あるタスク用に開発されたモデルを関連するタスクに適用する手法であり、開発時間を短縮する一方で、継承されたバイアスの管理が求められる技法です。

透明性

AIシステムのプロセス、意思決定論理、およびデータの使用を、ステークホルダーに対して説明責任を果たすために明確で理解しやすいものにする実践。

信頼できるAI

倫理的で信頼性があり、安全であり、人間の価値観と社会規範に一致した方法で設計および運用されるAIシステム。

ユーザー

アンダーフィッティング

AIシステムが基礎的なデータパターンを捉えるにはあまりに単純であり、その結果、トレーニングデータおよび新しいデータの両方において性能が悪化するモデリングの問題です。

統一性

AIシステム全体にわたり、ポリシー、コントロール、基準の一貫した適用を保証し、ガバナンスの隙間や不均一なリスク管理を回避します。

教師なし学習

モデルが明示的な結果の指示なしに、ラベルのないデータ内のパターンやグループを識別する機械学習アプローチです。

稼働時間モニタリング

AIシステムの可用性とパフォーマンスを継続的に追跡し、重大な業務やコンプライアンス要件に影響を与える可能性のある障害や劣化を検出します。

ユースケースガバナンス

特定のAI使用事例の定義、承認、監視は、各事例が組織の方針、倫理基準、リスク許容度に整合することを保証するための実践です。

ユーザー同意

AIシステムで個人データを収集、処理、または使用する前に、個人から明示的な許可を取得し記録するプロセスです。

ユーティリティ

AIシステムがその目的を達成する上でどれほど価値があるか、または効果的であるかを判断する尺度であり、関連するリスクやリソースコストとバランスを取ります。

V

バリデーション

AIモデルが意図されたタスクで正確にかつ信頼性高く機能し、定義されたパフォーマンス基準を満たすことを確認するプロセスです。

ばらつき監視

AIモデルの出力やパフォーマンス指標の変動を時間経過とともに追跡し、ドリフトを検出して潜在的な劣化やリスクを推測します。

ベンダーリスク管理

AIコンポーネントやサービスのサードパーティ供給者を評価・監視し、潜在的なコンプライアンス、安全性、倫理的リスクを識別し、軽減することを目的としています。

バージョン管理

AIのコード、モデル、およびデータセットに対する変更を管理し、追跡する実践は、再現性と監査可能性を確保するためのものである。

拒否権

ガバナンス機関または利害関係者が保持する正式な権利として、容認できないリスクをもたらすAIの導入を阻止または変更を要求する権限。

監視モニタリング

AIの挙動や外部信号(例:規制の更新)の継続的な監視を行い、新たに発生するリスクや非遵守事項を迅速に特定して対応します。

ビジョンAI管理

コンピュータビジョンシステムに特化したガバナンスプロセスでは、データ品質の確保、偏りのチェック、および画像/ビデオを基にした意思決定における透明性が重視されています。

脆弱性評価

AIインフラストラクチャおよびアプリケーションにおけるセキュリティの弱点を特定、分析、優先順位付けし、修正作業を導く。

ダブル

ウォッチドッグモニタリング

AIの意思決定を監視し、ポリシーや閾値が違反された際に警告や介入をトリガーする独立したランタイムチェックです。

重み付け監査

モデルの重みと構造を精査し、改ざんや意図しない動作を示す可能性のある異常、バックドア、バイアスを確認します。

ホワイトボックステスト

AIシステムの内部構造(コード、パラメータ、アーキテクチャ)を完全に把握した上で、正確性、セキュリティ、コンプライアンスを検証すること。

ホワイトリスト/ブラックリストポリシー

コンプライアンスを強化し、不正使用を防止するために、許可された(ホワイトリスト)および禁止された(ブラックリスト)入力、機能、または操作を定義するガバナンスルール。

ホワイトリスト登録

未承認または悪意のある要素からのリスクを軽減するために、AIパイプラインにおいて事前承認されたデータソース、ライブラリ、またはモデルコンポーネントのみを許可します。

ワークフローオーケストレーション

AIライフサイクルのタスク(データの取り込み、トレーニング、検証、展開)を自動化およびシーケンス化して、ガバナンスポリシーを強化し、一貫性を確保します。

ワークロード分離

AIコンピュート環境(例えば、開発、テスト、本番)とデータドメインを分離し、障害やセキュリティ侵害の影響範囲を制限します。

最悪のケース分析

AIシステムの最も重大な潜在的な故障や悪用を評価し、堅牢なリスク緩和策と非常時対応計画に役立てる。

一度書き込み、多数回読み取り (WORM) ストレージ

不変ストレージにより、一度記録されたログ、監査証跡、モデルアーティファクトは改変されることがなく、否認防止および法医学的レビューをサポートします。

X

X-バリデーション

データを折りたたみに分割し、モデルの一般化を厳密に評価し、過学習を検出するためのモデル検証手法(しばしば“X-Val”と略されます)。

XAI(説明可能なAI)

AIモデルの意思決定プロセスを人間に対して透明で理解可能にする技術と方法であり、責任とコンプライアンスの支援を行います。

XAI監査

AIの説明可能性の出力が内部方針や規制要件を満たしているかどうかを評価するレビュープロセスであり、十分な透明性を確保します。

XAIフレームワーク

組織がAIシステム全体で説明可能性の実践を実装、測定、管理するために使用する、体系的なアプローチまたはガイドラインのセット。

XAI指標

AIの説明の品質と信頼性を評価するために使用される定量的または定性的な指標(例:特徴の重要度スコア、説明の忠実度)。

Y

YARAルール

既知の悪意のあるコードや改ざんを検出するために、AIパイプラインやアーティファクトをスキャンするためのシグネチャベースの検出パターンセットです。

年次コンプライアンスレビュー

AIガバナンスのプロセス、ポリシー、システムの年次評価を実施し、規制および内部基準と継続的に整合していることを確認します。

エンタープライズソフトウェア製品のマーケティングサイトに適した形式で翻訳されたコンテンツです。

ゼロ欠陥許容度

AI出力におけるエラーやポリシー違反を未然に防ぐことを目指したガバナンス原則であり、厳密なテスト、監視、継続的な改善サイクルによって支えられています。

ゼロデイ脆弱性

パッチや緩和策が利用可能になる前に悪用される可能性がある、AIソフトウェアまたはインフラストラクチャ内の未発見のセキュリティ欠陥。

ゼロショット学習

一般化された知識表現を活用することで、明示的にトレーニングされていないタスクやデータを正確に処理または分類するモデルの能力。

ゾーンベースのアクセス制御

ネットワークまたはデータガバナンスアプローチは、リソースを異なるポリシーを持つゾーンに分割し、データの機密性に応じてAIシステムのアクセスを制限します。

すべて

ホワイトペーパー

AI 規制

ポッドキャスト

製品の更新情報

報道

用語集

私たちのポッドキャストに参加するか、コンテンツの共同作成にご協力ください

お問い合わせいただければ、共に創り上げることができる製品をご提案いたします。

エー

AIの責任

AIシステムの開発者および運用者は、そのシステムが責任を持って設計および使用され、倫理的基準と法的要件を遵守することを保証する義務があります。

AI整合

AIシステムの目的と行動を人間の価値観や意図に合わせるプロセス。

AI監査

AIシステムの倫理基準、規制、および性能指標への適合性を評価するための体系的な評価。

AIバイアス

偏見のあるトレーニングデータや欠陥のあるアルゴリズムに起因するAI出力における系統的誤差は、不公平な結果をもたらす可能性があります。

AIコンプライアンス

AIシステムがそのライフサイクル全体を通じて適用される法律、規制、および倫理指針を遵守すること。

AI倫理

AI技術の開発と導入に関連する倫理的影響と責任に関する分野です。

AIの説明可能性

AIシステムの内部メカニズムが人間によってどの程度理解され解釈されるか。

AIガバナンス

AIシステムの倫理的かつ効果的な開発と利用を支援するポリシー、プロセス、制御の枠組み。

AI在庫管理

組織全体で使用されている全てのAIシステム、モデル、エージェントの包括的かつ集中管理されたカタログであり、そのビジネス目的、リスクレベル、所有権を追跡します。

AIリテラシー

AIの概念、能力、限界を理解し、AI技術との適切な交流を可能にします。

AI監視

AIシステムのパフォーマンスを継続的に観察および分析し、信頼性、安全性、コンプライアンスを確保します。

AIリスク

AIシステムが引き起こす可能性のある損害や意図しない結果には、倫理的、法的、運用上のリスクが含まれます。

AIリスク管理

AIシステムに関連するリスクの特定、評価、軽減のプロセス。

AI TRiSM(AI トリズム)

Gartnerによって作られた頭字語であるAI Trust、Risk、Security Management(AI信頼性、リスク、およびセキュリティ管理)を指します。ガバナンス、信頼性、およびセキュリティを単一の運用戦略に統合するフレームワークです。

AIの透明性

AIシステムはその運用、意思決定、データの使用に関して開かれており、明確であるべきという原則。

正確性

AIシステムの出力が実世界のデータや意図された結果を正確に反映する程度。

敵対的攻撃

不正な出力を引き起こすために、誤解を招く入力を導入してAIモデルを操作する技術です。

エージェンティックAI

複雑な目標を自律的に追求し、ソフトウェアの展開や金融取引などの多段階のアクションを最小限の人間の介入で実行するように設計された人工知能システムのクラスです。

エージェンティックAIガバナンス

自律型AIシステムのガバナンスに関する説明です。これらのシステムは、予測AI(インサイトを提供するもの)や生成AI(コンテンツを作成するもの)とは異なり、独立した行動(例:取引、コードの展開)を実行する能力を有しています。

アルゴリズム

AIシステムが独自に学習するのを助けるための一連の規則または指示。

アルゴリズムの偏り

アルゴリズムが機械学習プロセスの誤った仮定により系統的に偏った結果を生成する際に発生するバイアス。

アルゴリズムによるガバナンス

アルゴリズムを活用して社会的機能を管理および規制することは、意思決定プロセスに影響を与える可能性があります。

汎用人工知能

人間の知能に類似した一般的な方法で理解し、学習し、知識を適用する能力を持つAIの一種です。

人工知能

機械による人間の知能プロセスのシミュレーション、特にコンピューターシステムによるものであり、学習、推論、自己修正を含みます。

B

誤差逆伝播法

ニューラルネットワークで使用される訓練アルゴリズムで、出力層から誤差を逆伝播させて重みを調整し、損失を最小限に抑えます。

バッチ学習

モデルが逐次学習ではなく、データセット全体を一度に学習する機械学習のアプローチです。

ベンチマーキング

AIシステムのパフォーマンスを標準的な指標や他のシステムと比較して、その効果を評価するプロセスです。

バイアス

偏見のあるトレーニングデータや欠陥のあるアルゴリズムに起因するAI出力における系統的誤差は、不公平な結果をもたらす可能性があります。

バイアス増幅

AIシステムが、訓練データに存在する既存のバイアスを悪化させ、ますます偏った結果を招く現象。

バイアス監査

AIシステムにおけるバイアスを検出し、緩和するための評価プロセスを策定し、公平性および倫理基準への準拠を保証します。

バイアス検出

AIモデルの出力や意思決定プロセスを分析することによって、偏見を特定するプロセス。

バイアス軽減

AI開発において、モデルやデータセット内のバイアスを削減または排除するために適用される技術。

ブラックボックスモデル

意思決定のプロセスが不透明または解釈できないため、どのように意思決定が行われるかを理解するのが難しいAIシステムです。

ボット

エンタープライズソフトウェア製品向けのマーケティングサイトにふさわしい形式で翻訳します。自動化されたタスクを実行するソフトウェアアプリケーションで、顧客サービスやデータ収集などのタスクにAIでよく使用されます。

C言語

因果推論

AIと統計学の分野で用いられる手法であり、因果関係を特定し、介入や変数の変更が影響を及ぼすことを理解するのに役立ちます。

チャットボット

AIを搭載したソフトウェアアプリケーションは、人間の会話を模擬するように設計されており、主に顧客サービスや情報収集のために使用されます。

分類

機械学習における教師あり学習技法で、モデルがトレーニングデータに基づいて新しい観測のカテゴリまたはクラスラベルを予測します。

認知バイアス

訓練データ内に存在する場合、AIの意思決定に影響を与える可能性がある、通常や合理性からの一貫した逸脱のパターン。

コグニティブ・コンピューティング

人間の思考プロセスをコンピュータモデルで模倣し、複雑な問題を人の手を借りずに解決することを目指すAIのサブセット。

認知負荷

AIにおけるシステム設計では、ユーザーを圧倒しないようにするために、作業記憶で使用される精神的な努力の総量が考慮されます。

コンプライアンスフレームワーク

組織が規制および倫理基準を満たすAIシステムを確実にするために従うガイドラインとベストプラクティスの体系的なセット。

コンプライアンスリスク

法律、規制、または定められた慣行に従わない場合に企業が直面する法的あるいは規制上の制裁、財務上の損失、または評判の損害の可能性。

コンピュータービジョン

AIの一分野として、コンピュータに画像やビデオなどの視覚情報を解釈し処理する能力を訓練する技術です。

コンセプトドリフト

モデルが予測しようとしている対象変数の統計特性の時間経過に伴う変化は、モデルの劣化を引き起こします。

信頼区間

サンプル統計から導き出された一連の値で、未知の母集団パラメーターの値を含む可能性が高く、AIにおいて不確実性を表現するために使用されます。

適合性評価

AIシステムが指定された要件、基準、または規制を満たしているかどうかを判断するプロセスであり、多くの場合、テストおよび認証が含まれます。

継続的学習

AIシステムは、新しいデータ入力から人間の介入なしに継続的に学習し、適応し、時間とともに改善する能力を持っています。

制御性

人間がAIシステムの決定や行動を指示、影響を与える、または無効化することができる程度。

交差検証

統計解析の結果が独立したデータセットにどのように一般化されるかを評価するためのモデル検証手法。

サイバーセキュリティ

システム、ネットワーク、およびプログラムをデジタル攻撃から守る実践は、脅威に対してAIシステムを保護する上で重要です。

データ

データドリフト

時間の経過に伴うモデル入力データの変化は、監視・対応しなければ、モデルの性能低下を引き起こす可能性があります。

データ倫理

個人を特定可能な情報を収集、保護、使用する際の倫理的義務に関して、データの取り扱いを評価する倫理学の一分野です。

データガバナンス

企業におけるデータの可用性、使用性、整合性、およびセキュリティの全体的な管理は、データのライフサイクル全体を通して適切に取り扱われることを保証します。

データライフサイクル管理

データフローのライフサイクル全体にわたるポリシーに基づく管理: 作成および初期保存から、陳腐化し削除されるまでの一連の流れを包括的に管理します。

データ最小化

特定の目的に必要なデータのみを収集するという原則は、誤用や漏洩のリスクを軽減します。

データプライバシー

情報技術の側面で、どのデータが共有され、誰と共有されるかを制御する能力を扱い、個人データが適切に取り扱われることを保証します。

データ保護

重要な情報を保護し、破損、漏洩、損失を防止するとともに、データ保護法規制への準拠を確実にするプロセスです。

データ品質

AIモデルの効果的なパフォーマンスに不可欠であるデータの状態は、正確性、完全性、信頼性、関連性といった要因に基づいています。

データレジデンシー

組織のデータの物理的または地理的な場所は、データ保護法の遵守に影響を及ぼす可能性があります。

データ主権

データは、それが収集、保存、または処理される国家の法律およびガバナンス構造に従うという概念です。

データ主体

個人データが収集、保持、または処理される個人は、特にGDPRのようなデータ保護法の文脈で重要です。

識別情報の削除

データセットから個人識別子を削除または隠蔽し、個人の特定を困難にするプロセスであり、プライバシー保護に利用されます。

ディープラーニング

複数層のニューラルネットワークを伴う機械学習の一部であり、データの複雑なパターンをモデル化することを可能にします。

ディープフェイク

既存の画像やビデオ内の人物が、ディープラーニング技術を使用して作成された他の人物の肖像に置き換えられる合成メディア。

差分プライバシー

データセット内のグループのパターンを記述しつつ、個人に関する情報を秘匿したまま、データセットについての情報を公に共有するシステムです。

差別

AIにおいて、データやアルゴリズムの偏見に基づく個人またはグループに対する不公平な扱いを指し、それが不平等な結果を招くことを意味します。

分散型学習

トレーニングデータが複数のデバイスまたは場所に分散され、生のデータを共有することなく、協力してモデルをトレーニングする機械学習アプローチです。

ドメイン適応

機械学習の技術の一つであり、ある領域で訓練されたモデルが異なるが関連する領域で機能するように適応されることを指します。

動的リスク評価

AIシステムにおける新たな脅威に対して、タイムリーな対応を可能にする、リスクの継続的なリアルタイムでの識別および評価のプロセス。

E

エッジAI

データ生成の源であるエッジデバイスにAIアルゴリズムを展開し、データ処理と意思決定を可能にします。

エッジアナリティクス

データ生成のソースに近いネットワークのエッジでのデータ分析により、待ち時間と帯域幅の使用を削減します。

アンサンブル学習

複数のモデルを訓練して組み合わせることで同じ問題を解決し、全体的なパフォーマンスを向上させる機械学習のパラダイム。

エンティティ解決

異なるデータセット間で同じ実世界のエンティティを参照するレコードを識別し、リンクするプロセスです。

Enzai

企業向けAIガバナンスプラットフォームは、組織がAIシステムをインベントリし、評価し、管理することを可能にし、AIの採用を最大化しながらAIリスクを最小限に抑えることを保証します。

倫理的なAI

倫理原則と価値観に沿って設計、開発、展開されるAIシステムの慣行は、公平性、説明責任、透明性を確保します。

倫理的AI監査

AIシステムが倫理基準を順守し、害を及ぼさないことを保証するために、体系的に評価するプロセス。

倫理的AI認定

AIシステムが確立された倫理基準とガイドラインに従っていることを正式に認定すること。

倫理的なAIガバナンス

AIシステムが適切かつ倫理的に開発・使用されることを保証するためのポリシー、手順、実践のフレームワーク。

倫理的枠組み

AI システムの倫理的な開発と展開を導くために設計された原則とガイドラインの体系的なセット。

倫理的ハッキング

AIシステムの堅牢性を確保するために、意図的にシステムの脆弱性を探し出し、セキュリティ問題を特定して修正する取り組みです。

倫理的影響評価

AIシステムの導入前に、その倫理的影響および潜在的な社会的影響を特定し、対処するための体系的な評価プロセス。

倫理的リスク

AIシステムが偏見、差別、プライバシー侵害などの非倫理的な行動により、害を及ぼす可能性があるというリスク。

信頼できるAIのための倫理ガイドライン

欧州委員会のAIハイレベル専門家グループによって開発された一連の指針であり、人間の主体性、技術的堅牢性、プライバシー、透明性、多様性、社会的幸福、説明責任に重点を置き、信頼できるAIを促進することを目的としています。

説明可能性技術

AIモデルによって行われた意思決定を解釈し理解するための手法には、LIMEやSHAP、サリエンシーマップなどがあります。

説明可能性と解釈可能性

両者ともAIの意思決定を理解しやすくすることを目指していますが、説明可能性は意思決定の理由に焦点を当てており、解釈可能性はモデルの内部メカニズムの透明性に関わっています。

説明可能なAI(XAI)

AIシステムは、その決定と行動について人間が理解できる説明を提供するように設計されており、透明性と信頼性を高めます。

説明可能な機械学習

予測や意思決定に対して明確で理解しやすい説明を提供するように設計された機械学習モデル。

エフ

公平性

AIシステムがさまざまな個人やグループに対して偏りのない公平な結果を生成し、差別的な影響を軽減することを保証します。

公平性指標

AIモデルの予測がグループ間でどれほど公正であるかを評価するために使用される定量的指標(例:人口統計の平等性、平等化されたオッズ)。

偽陰性

AIモデルが実際には正であるインスタンスに対して誤って負のクラスを予測する場合(タイプIIエラー)。

誤検出

AIモデルが実際にはネガティブなインスタンスに対して誤ってポジティブクラスを予測する場合(第一種過誤)。

フォルトトレランス

AIシステムがいくつかのコンポーネントで故障やエラーが発生した場合でも、正しく動作し続ける能力。

特徴工学

機械学習モデルの性能を向上させる特徴量として、生のデータセット属性を作成、選択、または変換すること。

機能抽出

生データ(例: テキストや画像)を、機械学習アルゴリズムへの入力に適した数値表現(特徴量)にマッピングするプロセス。

機能選択

モデルトレーニングのために最も関連性の高い特徴を特定して選択し、複雑さを軽減し精度を向上させます。

フェデレーテッドラーニング

モデルが生データを中央で共有することなく、複数のデバイスやサーバーにあるローカルデータでトレーニングされる分散型機械学習アプローチ。

フィードバックループ

AIの出力が入力としてフィードバックされるプロセスであり、これによりモデルの挙動が増幅される可能性があります。これは、良い方向(強化学習)にも、悪い方向(バイアスの強化)にも影響を与える可能性があります。

微調整

あらかじめ学習済みのAIモデルを特定のタスクやデータセットに適応させ、新しいデータを用いて学習を続けることで、しばしばタスク特有のパフォーマンスを向上させます。

形式的検証

AIアルゴリズムが指定された正確性の特性を遵守していることを数学的に証明することは、安全性が非常に重要なシステムでよく使用されます。

フレームワーク

AIシステムのガバナンス、開発、展開、監視を導くためのポリシー、プロセス、ツールの構造化セットです。

不正検出

AI技術(例:異常検知、パターン認識)を利用して、金融や保険などでの不正行為を特定し防止することができます。

機能安全

AIシステムがあらゆる状況下で安全に運用されることを保証することは、特に自動車産業や医療分野においては、冗長性やチェックを通じて重要です。

ファジー論理

制御システムや不確実性の処理に役立つ、真偽ではなく近似値で推論を行うロジックシステムです。

ジー

一般データ保護規則 (GDPR)

EUの一般データ保護規則は、個人データの収集、処理、個人の権利に関する厳格な要件を確立しています。

GPU(グラフィックスプロセッサ)

大規模なAIモデルを効率的にトレーニングおよび実行するために広く使用されている、並列計算専用のハードウェアアクセラレータです。

ギャップ分析

現在のAIガバナンスの実践を望ましい基準や規制と比較して、改善が必要な領域を特定するプロセスです。

一般化

AIモデルがトレーニング例を記憶するのではなく、基盤となるパターンを捉えることによって、新しい未見のデータで高い性能を発揮できる能力。

生成的AI

AI技術(例えば、GANsやトランスフォーマーなど)は、新たなコンテンツ—テキスト、画像、その他のメディアを生成することがあり、その過程で新しいガバナンスや知的財産権の問題を引き起こすことが頻繁にあります。

グローバルモデル

複数の情報源から収集されたデータで訓練された統合AIモデルは、ローカライズされたモデルやパーソナライズされたモデルとは異なります。

ガバナンス

AIシステムの倫理的、合法的、かつ効果的な開発および展開を導く一連の方針、手続き、役割、責任。

ガバナンス機関

組織内でAIガバナンス方針とその実行を監督することを任務とする法務、倫理、技術などのクロス機能グループ。

ガバナンスフレームワーク

AIガバナンスの構成要素(リスク管理、アカウンタビリティ、監督)がどのように組み合わされて、コンプライアンスと倫理的な利用を確保するかを説明するための構造化されたモデルです。

ガバナンス成熟度モデル

組織のAIガバナンス実践の進化度を評価するための段階的枠組みであり、臨時的なものから最適化されたものまでを対象としています。

ガバナンスポリシー

企業内のAI開発および監督に関する規則、役割、手続きを成文化した正式な文書です。

ガバナンススコアカード

AIガバナンスの有効性を時間の経過とともに測定するために、重要な指標(例:偏りのある事件やコンプライアンス監査)を追跡するダッシュボードまたは報告書。

勾配降下法

損失関数を最小限に減少させる方向にモデルパラメータを反復的に調整する最適化アルゴリズム。

詳細な同意

データの使用ごとに個別に許可を与えたり拒否したりできるデータプライバシーアプローチであり、透明性とコントロールを強化します。

グリーンAI

エネルギー効率の高いアルゴリズムや持続可能なコンピューティングの実践を通じて、AIの環境への影響を削減する取り組み。

グレイボックスモデル

内部ロジックが部分的に透明であるモデル(いくつかのコンポーネントは解釈可能であり、他は不透明である)は、性能と説明可能性のバランスを取ります。

グラウンドトゥルース

AIモデルのパフォーマンスを訓練および評価するための基準として使用される、正確な現実世界のデータまたはラベルです。

ガードレール

AIシステムに組み込まれた定義済みの制約やチェック(技術的およびポリシー)は、実行時における安全でないまたはコンプライアンスに違反する行動を防ぐためのものです。

ガイドライン(倫理的AI)

責任あるAI開発と展開を形成するために発行される、IEEEやEUなどの組織による、拘束力のない推奨またはベストプラクティスの文書です。

エイチ

幻覚

生成AIがトレーニングデータに基づかないにもかかわらず、もっともらしく見える誤った情報や捏造された情報を生成する場合。

欠損データの処理

データセットの欠損を解決し、モデルの整合性と公平性を維持するための手法(例:補完、削除、モデリング)。

ハードウェアアクセラレーター

AIの計算を高速化するために設計された専門チップ(例:GPU、TPU)は、エネルギー使用とサプライチェーンに関するリスクに影響を与えます。

リスク評価

AIシステムがもたらす可能性のある負の影響(物理的、心理的、社会的)を評価し、緩和策を策定します。

調和化

AIのポリシー、標準、および規制を各管轄区で整合させ、競合を減らし、相互運用性を実現します。

ハッシュ化

データを固定サイズの文字列に変換するプロセスで、データの整合性チェックやプライバシーを保護しながらの記録のリンクに使用されます。

異種データ

異なる種類のデータ(テキスト、画像、センサー)や複数のドメインからのデータを組み合わせることは、統合およびガバナンスの課題を引き起こします。

ヒューリスティック

AIプロセスを迅速化するために使用される経験則または簡略化された意思決定戦略であり、しばしば最適性を効率性に交換します。

ヒューリスティック評価

AIシステムを既存のユーザビリティ原則に基づいて専門家が評価し、潜在的な問題を特定するためのユーザビリティ評価手法です。

ハイステークスAI

重大な被害を引き起こす可能性があるAIアプリケーション(例えば、医療診断や自律走行車)には、厳格なガバナンスと監視が必要です。

人間による監督

指定された個人がAIシステムの意思決定を監視し、介入し、または上書きして倫理的および法的な遵守を保証するためのメカニズム。

人権影響評価

AIシステムが基本的人権(プライバシー、表現の自由、差別の禁止)にどのように影響するかを評価し、緩和策を特定するためのプロセスです。

人間を介したプロセス

AIプロセス(トレーニング、検証、意思決定のレビュー)に人間の判断を組み込むことで、正確性と説明責任を向上させます。

ハイブリッドモデル

複数の学習パラダイム(例: シンボリックとニューラル)を組み合わせて、説明性とパフォーマンスのバランスを取るAIシステム。

ハイパーパラメーター

モデルの学習前に設定され、学習の挙動や性能に影響を与える設定変数(例: 学習率、木の深さ)。

ハイパーパラメータチューニング

モデルのパフォーマンスを最大化するために、グリッド検索やベイズ最適化などを通じて最適なハイパーパラメータ値を検索するプロセス。

ISO/IEC JTC 1/SC 42

人工知能標準化に関する国際標準化機構 (ISO) と国際電気標準会議 (IEC) の合同委員会は、ガバナンス、リスク、および相互運用性のための国際的なAI標準を開発しています。

不均衡データ

あるクラスまたはカテゴリが他のクラスやカテゴリに比べて著しく数が多いデータセットは、適切な対策を講じない限り、AIモデルが多数派のクラスに偏る原因となる可能性があります。

不変の台帳

一旦データが書き込まれると、改ざんされても検知できるようにしつつ、改ざんの痕跡が残る記録管理機構(例: ブロックチェーン)—これはAI監査の証跡に有用です。

影響評価

AIシステムの導入前に、潜在的な倫理的、法的、社会的影響を特定、分析、および緩和するための体系的な評価。

潜在的なバイアス

トレーニングデータやモデル設計に組み込まれた無意識または意図しないバイアスが、差別的な結果を招く可能性があります。

インセンティブの整合

AIシステムの目標が人間の価値観と組織の優先事項に一致し続けるように、報酬構造と目的を設計すること。

帰納バイアス

学習アルゴリズムが観察されたデータから未知のインスタンスへ一般化する際に使用する仮定のセット。

推論

訓練されたAIモデルが新しいデータ入力を処理し、予測や決定を下すプロセスです。

推論エンジン

AIシステムのコンポーネント(特にルールベースまたはエキスパートシステムにおいて)は、知識ベースを入力データに適用して結論を導き出す機能を持っています。

情報ガバナンス

組織のデータ資産全体にわたり、データの品質、プライバシー、利用可能性を確保するための方針、手順、および管理、これにはAIのトレーニングデータセットも含まれます。

情報プライバシー

個人がAIシステムによって収集、使用、保存、共有される個人データを管理する権利。

コードとしてのインフラストラクチャ (Infrastructure as Code, IaC)

機械可読の構成ファイルを通じてAIインフラストラクチャ(計算、ストレージ、ネットワーキング)を管理およびプロビジョニングすることで、再現性と監査性を向上させます。

相互運用性

多様なAIシステムやコンポーネントが、オープンスタンダードやAPIを通じて、情報を円滑に交換し、理解し、利用する能力。

解釈可能性

AIモデルの内部メカニズムまたは意思決定の合理性を人間が理解できる程度。

侵入検知

AIインフラとアプリケーションの悪意ある活動やポリシー違反を監視し、アラートや自動応答をトリガーします。

J

ヤコビアン行列

AIの説明可能性において、モデルの出力に対する入力の全一次偏導関数の行列は、感度と特徴の重要性を評価するために使用されます。

脱獄攻撃

ユーザーが脆弱性を利用して生成AIモデルの保護手段を回避し、不安全または不正な出力を引き起こす可能性があるプロンプトインジェクションの一形態です。

連帯責任

複数の関係者(例えば、開発者やデプロイ者)がAI関連の損害に対して責任を共有する法的原則であり、契約およびガバナンス構造に影響を与えます。

共同モデリング

複数のタスク(例えば、音声認識と翻訳)を共同で学習するAIシステムを構築し、その複雑さと監査可能性についてのガバナンスが必要です。

判断バイアス

認知バイアスや不完全なデータによって引き起こされる人間またはAIの意思決定プロセスにおける体系的なエラーには、偏見監査と緩和が必要です。

司法審査

AIによって行われたり補助されたりする決定の合法性を評価する法的プロセスであり、アカウンタビリティと適正手続きの確保を目的としています。

管轄区域

地理によって異なるデータ、AI操作、および責任に関する法的権限は、地域規制(例:GDPR、CCPA)へのコンプライアンスに影響を与えます。

陪審オートメーション

AIを使用して陪審員の選定やケース分析を支援することは、公平性、透明性、法的監視に関する倫理的懸念を引き起こしています。

ジャスティス・メトリクス

AI意思決定における公正性と差別禁止を評価するために使用される定量的な指標(例:異なる影響、機会の均等など)。

K

重要業績評価指標

AI ガバナンスとコンプライアンスの目標を監視し報告するために使用される定量的な指標(例えば、モデルの精度の変化、バイアスの修正時間)です。

主要リスク指標

AIのリスクが顕在化する前に、それらの発生を示す先行指標(例:スコープ外予測の頻度、説明不能な意思決定の割合)。

顧客の身元確認 (KYC)

AIシステムと関わる個人または組織の身元、リスクプロファイル、および正当性を確認するためのコンプライアンスプロセス、特に規制された業界において重要です。

知識蒸留

より大きな“教師”モデルからより小さな“生徒”モデルに洞察を転送する方法であり、パフォーマンスをリソースやガバナンスの制約とバランスさせます。

ナレッジグラフ

エンティティとその関係の構造化された表現を使用して、AIの説明性、監査可能性、およびドメインオントロジーとの整合性を向上させます。

ナレッジ管理

組織の知識(例:モデル文書、監査ログ)を取得、整理、共有するための実践とツール。これにより、再現性と監督が確保されます。

L

ラベル漏れ

出力情報が訓練データラベルに不注意に含まれることで、パフォーマンス指標が水増しされ、モデルの真の一般化問題が隠されてしまうことがあります。

大規模言語モデル

膨大なテキストコーパスで訓練されたディープラーニングモデルは、テキスト生成、翻訳、要約などのタスクを実行できますが、バイアスや誤用に対するガバナンスが求められることがよくあります。

最小特権

AIコンポーネントとユーザーに必要最小限のアクセス権のみを付与することで、機能を果たすために必要なリスクを低減するセキュリティ原則です。

法令遵守

AIシステムがその全ライフサイクルにわたって適用される法律、規制、および業界標準に従っていることを確保する実践。

責任の枠組み

AIに関連する損害や失敗に対する責任を明確にするための体系的なアプローチであり、開発者、導入者、およびオペレーターが含まれます。

ライフサイクル管理

AIシステムの開発、展開、監視、保守、および廃止のための統合されたプロセスは、継続的なコンプライアンスとリスク管理を確保するために設計されています。

ライブネス検知

入力(バイオメトリクスなど)が偽造やリプレイではなく、生きた主体から来ていることを確認するために使用される技術であり、それによりシステムのセキュリティと整合性を向上させます。

ローカライゼーション

AIシステムを各地域の言語、規制、文化的規範、データの居住要件に適合させること。

ログ管理

AIワークフローからのシステムおよびアプリケーションログの収集、保存、分析により、監査、インシデント対応、モデルパフォーマンスの追跡を支援します。

損失関数

予測された出力と真の値との違いを定量化し、モデルのトレーニングと最適化を導く数学的関数です。

M

意義のある人間の制御

人間がAIの意思決定プロセスを監督し、介入し、上書きする能力を保持することを保証する規制および運用の基準です。

メタデータ管理

トレーサビリティと監査をサポートするために、記述データ(例: データの起源、機能の定義、モデルのパラメータ)を記録し維持する実践。

指標とKPI

AIシステムの健全性、リスク、コンプライアンスの目標を監視するために使用される定量的指標(例:精度の変動、公平性スコア、インシデント対応時間)。

緩和策

特定されたAIリスクとコンプライアンスのギャップに対応するための計画的な行動(例:バイアス是正、再訓練、機能再工学)。

モデルの説明可能性

AIモデルの意思決定ロジックをステークホルダーや監査人に理解可能にする技術とドキュメント。

モデルガバナンス

AIモデルが組織の基準および規制要件に準拠して開発、承認、および使用されることを保証するためのポリシー、役割、および制御。

モデル監視

AIモデルのパフォーマンス、データのドリフト、運用指標を継続的に監視し、劣化や新たなリスクを検出します。

モデル再訓練

データ分布の進化に伴い、性能とコンプライアンスを維持するために、新しいデータや更新されたデータでAIモデルを更新するプロセス。

モデルリスク管理

AI/MLモデルのライフサイクル全体を通じて発生するリスクを特定し、評価し、軽減するための構造化されたプロセス。

モデル検証

AIモデルが本来の目的と性能基準を満たしていることを確認する評価活動(例:保持データに対するテストやストレスシナリオ)。

マルチステークホルダーエンゲージメント

AIガバナンスプロセスにおいて多様なグループ(法務、倫理、運用、エンドユーザーなど)を関与させ、リスクのバランスを取った監視を行い、ビジネス目標と一致させるための体制を整えます。

いいえ

NIST AIリスク管理フレームワーク

米国国立標準技術研究所による自発的なガイダンスであり、AIシステムのライフサイクルにおけるリスクを軽減するためのベストプラクティス概要です。

自然言語処理(NLP)

機械がテキストや音声形式で人間の言語を解釈、生成、分析することを可能にする技術とツール。

ネットワークセキュリティ

AIインフラストラクチャとデータパイプラインを不正アクセスや改ざんから保護するための措置と管理(例:セグメンテーション、ファイアウォール、侵入検知)。

ニューラルアーキテクチャ検索

ニューラルネットワーク構造を設計および最適化するための自動化手法は、複雑性とリソース制約とのバランスを取りながら、モデルのパフォーマンスを向上させます。

ノイズインジェクション

意図的にランダムな摂動をトレーニングデータやモデルパラメータに導入し、頑健性を向上させ、敵対的な操作に対して保護します。

新規性検出

トレーニングデータと大きく異なる入力やシナリオを特定し、予期しない障害を防ぐためにレビューや安全モードの操作を開始するための技術。

Oを

可観測性

ログ、メトリクス、出力の収集と分析を通じて、AIシステムの内部状態と動作を推測し、効果的な監視とトラブルシューティングを可能にする機能。

継続的なモニタリング

AIシステムの性能、データドリフト、バイアス指標、セキュリティイベントを継続的に監視し、時間の経過とともに新たに発生するリスクを検出し対処します。

不透明度

AIモデルが意思決定や予測に至る過程の透明性の欠如は、信頼性と規制遵守において課題をもたらします。

業務レジリエンス

AIシステムおよびそれを支えるインフラストラクチャが予測し、耐え、回復し、そして混乱や不利な事象に適応する能力。

オーケストレーション

AIワークフローとサービスの自動化された調整—データの取り込み、モデルの訓練、展開—がポリシーとリソースのガバナンスへの準拠を確実にします。

異常検知

期待されるパターンから著しく逸脱するデータポイントやモデル予測を特定し、レビューまたは緩和措置を促す技術。

過学習

AIシステムがトレーニングデータ内のノイズや特殊性を学習してしまい、新たな未確認データに対する一般化能力が低下するモデリングの問題です。

監督

AIの開発と導入に関するレビュー、承認、そして責任の構造化されたプロセスは、通常、様々な機能を持つ統治機関を含む形で行われます。

所有権

AI資産(データ、モデル、プロセス)に対する責任と権限を明確にすることで、システムライフサイクル全体にわたってアカウンタビリティを確保します。

P

権限管理

AIデータと機能へのユーザーおよびシステムのアクセス権限を、最小特権の確保と不正使用の防止を実現する形で管理します。

パイロットテスト

AIシステムの本格展開に先立ち、その性能、リスク、ガバナンス制御を評価するために、限定的な範囲の試験を管理された環境で実施します。

ポリシー施行

AIの運用が組織のポリシー、規制のルール、および倫理的ガイドラインに準拠することを保証する自動または手動のメカニズム。

展開後のモニタリング

リリース後のAIシステムの動作および環境を継続的に観察し、劣化、ドリフト、またはコンプライアンス違反を検出します。

予測保守

AIを活用した監視と分析により、コンポーネントやシステムの故障を予測し、重要な環境における運用の回復力とリスク軽減を確保します。

プライバシー影響評価

AIシステムに関連するプライバシーリスクを特定し緩和するための構造的な分析には、データの収集、使用、共有、および保持を網羅しています。

プライバシー・バイ・デザイン

AIシステムのアーキテクチャとプロセスにおいて、データ保護とユーザーのプライバシーに関する考慮事項を最初から組み込むアプローチです。

プロセスオートメーション

AIおよびワークフローツールを活用して、ガバナンス、コンプライアンスチェック、リスク軽減活動を効率化し、手動の作業やエラーを削減します。

定性的評価

AIシステムの行動、意思決定、および文書について、専門家が主観的に評価することで、定量的に捉えきれない倫理的、法的、または評判に関する懸念を特定します。

品質保証

AIモデルとデータパイプラインが正確性、信頼性、倫理的遵守の定められた基準を満たすことを保証するための体系的なプロセスとチェック。

品質管理

AIの出力およびプロセスをベンチマークやテストケースに照らして継続的に検証し、欠陥、バイアス事象、またはポリシー違反を検出します。

定量的リスク評価

AI の潜在的脅威のデータ駆動型評価では、軽減策の優先順位を決定するために、可能性と影響を数値で推定します。

量子コンピューティング

量子力学を活用する新たな計算パラダイムは、セキュリティ、標準化、リスクに関するガバナンスの新しい課題を提起しています。

クエリログの記録

AIシステムの入力とユーザーの問い合わせを記録することで、監査トレイルを可能にし、誤用を検出し、アカウンタビリティをサポートします。

プライバシーに関するお問い合わせ

ユーザーのクエリ内の機密情報を保護するための技術とポリシーを策定し、記録された入力が個人情報や専有データを損なわないようにすることを保証します。

アンケートフレームワーク

設計、調達、または展開時に使用されるガバナンスに焦点を当てた質問の体系的なセットで、AIシステムがポリシー要件に適合していることを保証します。

ガバナンスボードの定足数

AIのリスク、方針承認、または監査結果に関する正式な決定を行うために必要なガバナンス委員会メンバーの最小人数。

割り当て管理

AIリソースの使用(例:API呼び出し、計算時間)に対する制御と制限は、ガバナンスポリシーを遵守し、費用の高騰や乱用を防ぐために設定されています。

R言語

リコース

AIによって権利や利益に影響を与える決定に対して、影響を受けた個人が異議を申し立てたり救済を求めたりすることができるメカニズム。

レッドチーミング

AIシステムの脆弱性を発見するために、内部または外部の専門家が攻撃や悪用シナリオを模擬するプロアクティブなテストアプローチ。

法令遵守

AIシステムが運用中、適用される法律、規制、業界標準(例:GDPR、FDA、金融監査)を遵守することを保証します。

再現性

同じデータ、コード、および設定を使用してAIモデルの結果を一貫して再生成する能力は、透明性と監査可能性を確保します。

責任割り当てマトリックス

各ガバナンス活動に対する役割と責任を明確にするツール(例: RACI)—誰が責任者であり、説明責任を持ち、相談を受け、情報を提供されるか。

責任あるAI

ステークホルダーと社会に対して倫理的で透明性があり、責任を持った方法でAIシステムを設計、開発、展開する実践。

リスク評価

AIシステムにおける潜在的なリスクや故障を特定し、分析し、優先順位を付けて、適切な対策を策定するプロセス。

リスク管理フレームワーク

設計から廃止まで、システムライフサイクル全体でAIリスクに体系的に対処するためのガイドラインとプロセスの構造化されたセットです。

堅牢性

AIシステムがさまざまな困難または敵対的な条件下でも信頼できるパフォーマンスを維持する能力。

根本原因分析

AIシステムの失敗または予期しない動作の根本的な原因を特定し、是正措置を導くための体系的な調査。

エス

制限付き利用規約

AIシステムの誤用を防ぐため、許可されたコンテキスト、ユーザー、目的を指定する定義されたルールと管理を実施します。

セキュリティバイデザイン

AIシステムにおけるセキュリティコントロールとベストプラクティスを、設計初期段階から統合することで、脆弱性やデータ漏洩を防止します。

シャドウAI

ITの承認を得ずに従業員がAIモデル、エージェント、またはツールを無断で使用することは、データ漏洩や不正な自律的行動を通じて隠れたセキュリティ上の脆弱性を生み出します。

社会的影響評価

AIシステムが社会的、経済的、文化的側面に与える影響を体系的に評価し、潜在的な損害と利益を特定します。

ソフトウェア開発ライフサイクル

AIアプリケーションのエンドツーエンドプロセス(要件定義、設計、構築、テスト、デプロイ、監視)は、各段階でガバナンスとコンプライアンスのチェックを組み込んでいます。

ステークホルダーエンゲージメント

AI 開発と監督において影響を受ける当事者(例:ユーザー、規制当局、影響を受けるコミュニティ)を関与させ、多様な視点と支持を確保するプロセス。

監視リスク

AIシステムが個人やグループに対して侵入的な監視に利用され、プライバシーや市民の自由を侵害する可能性があります。

合成データ

実際のデータ分布を模倣する人工生成データセットは、プライバシーを保護しながらトレーニングセットを拡張するために使用されます。

T

テールリスク

AIの行動や意思決定において、通常の期待を超える稀で極端な結果が起こる可能性があり、特別な緩和計画が必要とされます。

テストと検証

AIモデルをベンチマーク、エッジケース、およびストレス条件に照らして評価し、それらが性能、安全性、コンプライアンス基準を満たすことを保証するための体系的なプロセス。

第三者リスク

外部データプロバイダー、モデルベンダー、またはサービスプラットフォームに依存することから生じるリスクは、コンプライアンスやセキュリティの脆弱性を引き起こす可能性があります。

閾値設定

AIの意思決定ルールにおいて、境界やカットオフ値(例:信頼度スコア)を設定し、偽陽性と偽陰性のようなリスクをバランスさせること。

トレーサビリティ

データ収集からモデル開発、そして展開まで、AIライフサイクルの各ステップを追跡し文書化する能力を、監査およびフォレンジックをサポートするために提供します。

トレーニングデータセット

AIモデルがそのタスクを実行するために学習すべき関係やパターンを教えるために使用される、ラベル付きまたはラベルなしのデータの精選されたコレクション。

転移学習

あるタスク用に開発されたモデルを関連するタスクに適用する手法であり、開発時間を短縮する一方で、継承されたバイアスの管理が求められる技法です。

透明性

AIシステムのプロセス、意思決定論理、およびデータの使用を、ステークホルダーに対して説明責任を果たすために明確で理解しやすいものにする実践。

信頼できるAI

倫理的で信頼性があり、安全であり、人間の価値観と社会規範に一致した方法で設計および運用されるAIシステム。

ユーザー

アンダーフィッティング

AIシステムが基礎的なデータパターンを捉えるにはあまりに単純であり、その結果、トレーニングデータおよび新しいデータの両方において性能が悪化するモデリングの問題です。

統一性

AIシステム全体にわたり、ポリシー、コントロール、基準の一貫した適用を保証し、ガバナンスの隙間や不均一なリスク管理を回避します。

教師なし学習

モデルが明示的な結果の指示なしに、ラベルのないデータ内のパターンやグループを識別する機械学習アプローチです。

稼働時間モニタリング

AIシステムの可用性とパフォーマンスを継続的に追跡し、重大な業務やコンプライアンス要件に影響を与える可能性のある障害や劣化を検出します。

ユースケースガバナンス

特定のAI使用事例の定義、承認、監視は、各事例が組織の方針、倫理基準、リスク許容度に整合することを保証するための実践です。

ユーザー同意

AIシステムで個人データを収集、処理、または使用する前に、個人から明示的な許可を取得し記録するプロセスです。

ユーティリティ

AIシステムがその目的を達成する上でどれほど価値があるか、または効果的であるかを判断する尺度であり、関連するリスクやリソースコストとバランスを取ります。

V

バリデーション

AIモデルが意図されたタスクで正確にかつ信頼性高く機能し、定義されたパフォーマンス基準を満たすことを確認するプロセスです。

ばらつき監視

AIモデルの出力やパフォーマンス指標の変動を時間経過とともに追跡し、ドリフトを検出して潜在的な劣化やリスクを推測します。

ベンダーリスク管理

AIコンポーネントやサービスのサードパーティ供給者を評価・監視し、潜在的なコンプライアンス、安全性、倫理的リスクを識別し、軽減することを目的としています。

バージョン管理

AIのコード、モデル、およびデータセットに対する変更を管理し、追跡する実践は、再現性と監査可能性を確保するためのものである。

拒否権

ガバナンス機関または利害関係者が保持する正式な権利として、容認できないリスクをもたらすAIの導入を阻止または変更を要求する権限。

監視モニタリング

AIの挙動や外部信号(例:規制の更新)の継続的な監視を行い、新たに発生するリスクや非遵守事項を迅速に特定して対応します。

ビジョンAI管理

コンピュータビジョンシステムに特化したガバナンスプロセスでは、データ品質の確保、偏りのチェック、および画像/ビデオを基にした意思決定における透明性が重視されています。

脆弱性評価

AIインフラストラクチャおよびアプリケーションにおけるセキュリティの弱点を特定、分析、優先順位付けし、修正作業を導く。

ダブル

ウォッチドッグモニタリング

AIの意思決定を監視し、ポリシーや閾値が違反された際に警告や介入をトリガーする独立したランタイムチェックです。

重み付け監査

モデルの重みと構造を精査し、改ざんや意図しない動作を示す可能性のある異常、バックドア、バイアスを確認します。

ホワイトボックステスト

AIシステムの内部構造(コード、パラメータ、アーキテクチャ)を完全に把握した上で、正確性、セキュリティ、コンプライアンスを検証すること。

ホワイトリスト/ブラックリストポリシー

コンプライアンスを強化し、不正使用を防止するために、許可された(ホワイトリスト)および禁止された(ブラックリスト)入力、機能、または操作を定義するガバナンスルール。

ホワイトリスト登録

未承認または悪意のある要素からのリスクを軽減するために、AIパイプラインにおいて事前承認されたデータソース、ライブラリ、またはモデルコンポーネントのみを許可します。

ワークフローオーケストレーション

AIライフサイクルのタスク(データの取り込み、トレーニング、検証、展開)を自動化およびシーケンス化して、ガバナンスポリシーを強化し、一貫性を確保します。

ワークロード分離

AIコンピュート環境(例えば、開発、テスト、本番)とデータドメインを分離し、障害やセキュリティ侵害の影響範囲を制限します。

最悪のケース分析

AIシステムの最も重大な潜在的な故障や悪用を評価し、堅牢なリスク緩和策と非常時対応計画に役立てる。

一度書き込み、多数回読み取り (WORM) ストレージ

不変ストレージにより、一度記録されたログ、監査証跡、モデルアーティファクトは改変されることがなく、否認防止および法医学的レビューをサポートします。

X

X-バリデーション

データを折りたたみに分割し、モデルの一般化を厳密に評価し、過学習を検出するためのモデル検証手法(しばしば“X-Val”と略されます)。

XAI(説明可能なAI)

AIモデルの意思決定プロセスを人間に対して透明で理解可能にする技術と方法であり、責任とコンプライアンスの支援を行います。

XAI監査

AIの説明可能性の出力が内部方針や規制要件を満たしているかどうかを評価するレビュープロセスであり、十分な透明性を確保します。

XAIフレームワーク

組織がAIシステム全体で説明可能性の実践を実装、測定、管理するために使用する、体系的なアプローチまたはガイドラインのセット。

XAI指標

AIの説明の品質と信頼性を評価するために使用される定量的または定性的な指標(例:特徴の重要度スコア、説明の忠実度)。

Y

YARAルール

既知の悪意のあるコードや改ざんを検出するために、AIパイプラインやアーティファクトをスキャンするためのシグネチャベースの検出パターンセットです。

年次コンプライアンスレビュー

AIガバナンスのプロセス、ポリシー、システムの年次評価を実施し、規制および内部基準と継続的に整合していることを確認します。

エンタープライズソフトウェア製品のマーケティングサイトに適した形式で翻訳されたコンテンツです。

ゼロ欠陥許容度

AI出力におけるエラーやポリシー違反を未然に防ぐことを目指したガバナンス原則であり、厳密なテスト、監視、継続的な改善サイクルによって支えられています。

ゼロデイ脆弱性

パッチや緩和策が利用可能になる前に悪用される可能性がある、AIソフトウェアまたはインフラストラクチャ内の未発見のセキュリティ欠陥。

ゼロショット学習

一般化された知識表現を活用することで、明示的にトレーニングされていないタスクやデータを正確に処理または分類するモデルの能力。

ゾーンベースのアクセス制御

ネットワークまたはデータガバナンスアプローチは、リソースを異なるポリシーを持つゾーンに分割し、データの機密性に応じてAIシステムのアクセスを制限します。

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

AI

AI

インフラストラクチャ

インフラストラクチャ

信頼を構築するために設計されています。

信頼を構築するために設計されています。

組織がAIを採用し、管理し、監視する能力を、企業レベルの信頼性で強化します。規模で運営する規制対象の組織向けに構築されています。

既存のシステム、ポリシー、AIワークフローを、すべて1つの統合プラットフォームでシームレスに接続します。

既存のシステム、ポリシー、AIワークフローを、すべて1つの統合プラットフォームでシームレスに接続します。