AIガバナンスの主要な用語と概念をわかりやすい定義で理解し、Enzaiプラットフォームを使いこなすのに役立ちます。
AI システムの内部メカニズムを人間がどの程度理解し、解釈できるか。
AIシステムの開発者と運用者は、自社のシステムが倫理基準と法的要件に従って責任を持って設計され、使用されることを保証する義務があります。
ライフサイクル全体にわたって、AIシステムが適用される法律、規制、倫理ガイドラインを遵守すること。
米国国立標準技術研究所による自主的なガイダンスで、AI システムのライフサイクル全体にわたってリスクを軽減するためのベストプラクティスを概説しています。
AIモデルの意思決定プロセスを人間にとって透明で理解しやすいものにし、説明責任とコンプライアンスをサポートする手法と方法。
組織が AI システム全体にわたる説明可能性のプラクティスを実装、測定、管理するために使用する構造化されたアプローチまたは一連のガイドライン。
AIによる説明の質と信頼性を評価するために使用される量的または質的な指標(特徴重要度スコア、説明の忠実度など)。
ガバナンス、リスク、相互運用性に関する国際AI標準を開発する人工知能標準化に関するISO/IEC合同委員会。
アルゴリズムを使用して社会的機能を管理および規制し、意思決定プロセスに影響を与える可能性があります。
機械学習プロセスにおける誤った仮定が原因で、アルゴリズムがシステム的に偏った結果を生成した場合に発生するバイアス。
AIシステムがポリシー要件に合致していることを確認するために、設計、調達、または導入時に使用される、ガバナンスに焦点を当てた構造化された一連の質問。
AIシステムが単純すぎて基礎となるデータパターンをキャプチャできないため、トレーニングと新しいデータの両方でパフォーマンスが低下するモデリングの問題。
改ざんされやすい記録管理メカニズム(ブロックチェーンなど)により、一度書き込まれたデータは検出されない限り変更されないようにします。これは、AIの監査証跡に役立ちます。
独立したランタイムチェックにより、AI の決定を観察し、ポリシーや閾値に違反した場合にアラートや介入をトリガーします。
混乱や有害事象を予測し、耐え、回復し、適応するAIシステムとその支援インフラの能力。
AIワークフローとサービス(データの取り込み、モデルトレーニング、導入)の自動調整により、ポリシーとリソースガバナンスの遵守が保証されます。
AIシステムがトレーニングデータ内のノイズや特異性を学習し、目に見えない新しいデータに一般化する能力を低下させるモデリングの問題。
責任あるAIの開発と展開を形作るために組織(IEEE、EUなど)が発行する拘束力のない勧告またはベストプラクティス文書。
主要な指標(バイアスインシデント、コンプライアンス監査など)を追跡して、AIガバナンスの有効性を経時的に測定するダッシュボードまたはレポートカード。
AIガバナンスの構成要素 (リスク管理、説明責任、監視) がどのように組み合わされて、コンプライアンスと倫理的利用が保証されるかを示す構造化されたモデルです。
AI のリスク、ポリシーの承認、または監査結果に関する正式な決定を行うために出席する必要のあるガバナンス委員会メンバーの最低人数。
組織の AI ガバナンス慣行がどれほど進んでいるかをアドホックなものから最適化されたものまで評価する段階的なフレームワークです。
ユーザークエリ内の機密情報を保護し、記録された入力が個人情報や専有データを危険にさらさないようにするための手法とポリシー。
統計分析の結果がどのように独立したデータセットに一般化されるかを評価するためのモデル検証手法。
AI モデルのパフォーマンスをトレーニングおよび評価するためのベンチマークとして使用される、正確で現実世界のデータまたはラベル。
損失関数を最小限に抑える方向にモデルパラメーターを繰り返し調整する最適化アルゴリズム。
内部ロジックが部分的に透明で (一部のコンポーネントは解釈可能で、他のコンポーネントは不透明)、パフォーマンスと説明のしやすさのバランスが取れているモデル。
画像や動画など、世界からの視覚情報を解釈して処理するようにコンピューターを訓練するAIの分野。
組織が AI システムが規制および倫理基準を満たしていることを確認するために従う、体系化された一連のガイドラインとベストプラクティスです。
法律、規制、または規定の慣行に従わなかった場合に、組織が直面する法的または規制上の制裁、経済的損失、または評判の低下の可能性。
機械で読み取り可能な設定ファイルを使用して AI インフラストラクチャ (コンピューティング、ストレージ、ネットワーク) を管理およびプロビジョニングし、再現性と監査性を向上させます。
デジタル攻撃からシステム、ネットワーク、プログラムを保護する慣行。AI システムを脅威から守る上で不可欠です。
コンプライアンスまたはセキュリティの脆弱性をもたらす可能性のある外部のデータプロバイダー、モデルベンダー、またはサービスプラットフォームへの依存から生じるリスク。
AIシステムが個人やグループの侵入的な監視に悪用され、プライバシーや市民的自由を侵害する可能性があるという脅威。
トレーニング例を暗記するのではなく、基礎となるパターンをキャプチャすることで、目に見えない新しいデータに対して優れたパフォーマンスを発揮するAIモデルの能力。
新しいコンテンツ(テキスト、画像、その他のメディア)を作成するAI技術(GAN、トランスフォーマーなど)は、しばしば新しいガバナンスや知的財産に関する懸念を引き起こします。
AIの意思決定における公平性と無差別の評価に使用される定量的指標(異なる影響、機会均等など)。
複数のタスク(音声認識+翻訳など)を共同で学習するAIシステムを構築し、複雑さと監査可能性に対応するガバナンスが必要です。
影響を受ける当事者(ユーザー、規制当局、影響を受けるコミュニティなど)をAIの開発と監視に参加させて、多様な視点と賛同を得られるようにするプロセス。
脆弱性やデータ漏えいを防ぐために、設計の初期段階からセキュリティ管理とベストプラクティスをAIシステムに統合します。
厳格なテスト、監視、継続的な改善サイクルに支えられた、AIアウトプットにエラーやポリシー違反がないことを目指すガバナンス原則。
各段階でガバナンスとコンプライアンスチェックを組み込んだ、AIアプリケーションのエンドツーエンドプロセス(要件、設計、構築、テスト、デプロイ、監視)。
リソースを個別のポリシーを持つゾーンに分割し、データの機密性に応じてAIシステムへのアクセスを制限するネットワークまたはデータガバナンスのアプローチ。
リスクをリアルタイムで特定および評価する継続的なプロセスにより、AIシステムにおける新たな脅威へのタイムリーな対応が可能になります。
データフローのライフサイクル全体にわたるポリシーベースの管理 (作成から初期保存から、データが古くなって削除されるまで)。
AIモデルにタスクを実行するために学習する必要のある関係とパターンを教えるために使用される、ラベル付きまたはラベルなしデータの精選されたコレクション。
組織の知識(モデル文書、監査ログなど)を取得、整理、共有して、再現性と監視を確保するためのプラクティスとツール。
大規模な「教師」モデルからより小さな「学生」モデルに洞察を移し、パフォーマンスとリソースおよびガバナンスの制約とのバランスをとる方法。
ニューラルネットワーク構造の設計と最適化を自動化して、複雑さとリソースの制約のバランスを取りながらモデルのパフォーマンスを向上させます。