AIガバナンスの主要な用語と概念をわかりやすい定義で理解し、Enzaiプラットフォームを使いこなすのに役立ちます。
AIインフラストラクチャとデータパイプラインを不正アクセスや改ざんから保護するための対策と制御(セグメンテーション、ファイアウォール、侵入検知など)。
学習データまたはモデルパラメータにランダムな摂動を意図的に導入して、堅牢性を高め、敵対的な操作を防ぎます。
障害が重大な損害を引き起こすおそれのあるAIアプリケーション(医療診断、自動運転車など)。ガバナンスと監視の強化が必要です。
モデルのパフォーマンスを最大化するために最適なハイパーパラメータ値を検索するプロセス (グリッド検索、ベイズ最適化など)。
モデルトレーニングの前に設定される構成変数 (学習率、ツリーの深さなど) は、学習行動とパフォーマンスに影響します。
AI計算を高速化するように設計された特殊チップ(GPU、TPUなど)は、エネルギー使用とサプライチェーンのリスクに影響します。
管轄区域全体でAIに関するポリシー、基準、規制を調整して、対立を減らし、相互運用性を実現します。
ニューラルネットワークで使用されるトレーニングアルゴリズムで、誤差を出力層から逆方向に伝播して損失を最小限に抑えることで重みを調整します。
再現性と監査可能性を確保するために、AI コード、モデル、データセットへの変更を長期にわたって管理および追跡する慣行。
指定された個人がAIシステムの決定を監視、介入、または無効にして、倫理的および法的遵守を確保できるようにするメカニズム。
正確性と説明責任を向上させるために、AIプロセス(トレーニング、検証、意思決定レビュー)に人間の判断を取り入れます。
専門家が確立されたユーザビリティ原則に照らしてAIシステムを判断し、潜在的な問題を特定するユーザビリティ検査方法です。
コンピュータビジョンシステム固有のガバナンスプロセスにより、画像/動画ベースの意思決定におけるデータ品質、バイアスチェック、透明性を確保します。
AI 出力が入力としてフィードバックされるプロセスです。これにより、モデルの動作が改善されるか (強化学習)、悪くなるか (バイアス強化) に増幅されます。
未加工データを一元的に共有することなく、ローカルデータを保持する複数のデバイスまたはサーバーでモデルをトレーニングする分散型MLアプローチ。
AI モデルが、実際にはネガティブであるインスタンスに対してポジティブクラスを誤って予測した場合(タイプ I エラー)。
一部のコンポーネントに障害が発生したりエラーが発生したりした場合でも、AI システムが正常に動作し続ける能力。
内部の仕組みが透明でも解釈可能でもなく、意思決定がどのように行われるかを理解するのが難しいAIシステム。
データ保護とユーザーのプライバシーに関する考慮事項を最初からAIシステムのアーキテクチャとプロセスに組み込むアプローチ。
データの収集、使用、共有、保持を対象とした、AIシステムに関連するプライバシーリスクを特定して軽減するための構造化された分析。
AIとワークフローツールを使用して、ガバナンス、コンプライアンスチェック、リスク軽減活動を合理化し、手作業とミスを削減します。
内部動作(コード、パラメーター、アーキテクチャ)に関する十分な知識に基づいてAIシステムを評価し、正確性、セキュリティ、およびコンプライアンスを検証します。
コンプライアンスを実施し、悪用を防止するために、許可(ホワイトリスト)および禁止(ブラックリスト)の入力、機能、または操作を定義するガバナンスルール。
さまざまなグループ(法律、倫理、運用、エンドユーザーなど)をAIガバナンスプロセスに参加させ、バランスの取れたリスク監視とビジネス目標との整合性を確保します。
データ配信の進化に合わせてパフォーマンスとコンプライアンスを維持するために、新しいデータまたは更新されたデータで AI モデルを更新するプロセス。
AIによる説明可能性では、モデルのすべての出力とその入力値の一次偏導関数の行列を、感度と特徴量の重要性を評価するために使用されます。
特定のAIユースケースを定義、承認、監視して、それぞれが組織のポリシー、倫理基準、リスクアペタイトに沿っていることを確認する手法。
設計から廃棄までのシステムライフサイクル全体にわたって AI リスクに体系的に対処するための体系的なガイドラインとプロセスのセットです。
AIシステムがライフサイクル全体を通じて適用法、規制、業界標準に準拠することを保証する慣行。
AIライフサイクルタスク(データの取り込み、トレーニング、検証、導入)を自動化および順序付けして、ガバナンスポリシーを実施し、一貫性を確保します。
欧州委員会のAIに関するハイレベル専門家グループが信頼できるAIを促進するために策定した一連のガイドラインで、ヒューマンエージェンシー、技術的堅牢性、プライバシー、透明性、多様性、社会的福祉、説明責任に焦点を当てています。
AIシステムが責任を持って倫理的に開発され、使用されることを保証するポリシー、手順、および慣行の枠組み。
AIシステムを体系的に評価して、倫理基準に準拠し、害を及ぼさないことを確認するプロセス。
AI システムが確立された倫理基準とガイドラインに準拠していることを正式に認めること。