EnzaiのAIガバナンス製品のフルスイートを探求し、企業がAIを自信を持って管理、監視、拡張するのを支援します。構造化されたインテークや中央集約されたAIインベントリから、自動評価やリアルタイムの監督まで、Enzaiは日常のAIワークフローにガバナンスを直接組み込むための基盤を提供します—イノベーションを遅らせることなく。

Enzai

ポッドキャスト

AIガバナンスポッドキャスト - 大規模言語モデルの説明可能性に関するUmang Bhattとの対談

ポッドキャスト

AIガバナンスポッドキャスト - 大規模言語モデルの説明可能性に関するUmang Bhattとの対談

ポッドキャスト

AIガバナンスポッドキャスト - 大規模言語モデルの説明可能性に関するUmang Bhattとの対談

Dr. Umang Bhattは、生成的AIシステムにおける透明性と説明性を実現するために必要な技術的および組織的枠組みを探求しています。

ベルファスト

ベルファスト

ポッドキャストゲスト

ポッドキャストゲスト

ウンガング・バット博士

ウンガング・バット博士

ゲストポジション

ゲストポジション

ニューヨーク大学データサイエンスセンターの助教授

ニューヨーク大学データサイエンスセンターの助教授

トピック

LLMの説明可能性、モデルの透明性、解釈性、信頼できるAI

トピック

Spotifyでお聴きください

YouTubeで視聴

Appleで聴く



概要

このエピソードでは、NYUの助教授であり、アラン・チューリング・インスティテュートのシニアリサーチアソシエイトであるDr. Umang Bhattにお話を伺います。Umangは、AIの説明可能性と人間-機械の相互作用の交差点で活躍する世界的な研究者です。

この対話では、モデルの透明性に関する「方法」と「理由」に焦点を当て、技術的でないエンドユーザーに生成AIの出力を説明するための実践的な方法や、社内の利害関係者間で強力なフィードバックループを確立することの重要性について探ります。

SpotifyやApple Musicでリスニングできますし、こちらのYouTubeでエピソードをご覧になれます。



重要なポイント



  • エンジニア向けの解釈可能性とエンドユーザー向けの説明可能性の区別。

  • 安全性を確保するために生成AIの出力を制限する技術的アプローチ。

  • ループを閉じる:コンプライアンスチームが開発責任者とコミュニケーションを取る必要性。

  • 倫理基準を維持しつつ、AIを活用した個別指導の促進。

  • グローバルな視点:米国、EU、中国以外で責任あるAIフレームワークを推進。

Spotifyでお聴きください

YouTubeで視聴

Appleで聴く

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

設計に伴うコンプライアンス

設計に伴うコンプライアンス

ISO 42001

AI

一般データ保護規則 (GDPR)

ISO 42001

AI

一般データ保護規則 (GDPR)

AI

AI

インフラストラクチャ

インフラストラクチャ

信頼を構築するために設計されています。

信頼を構築するために設計されています。

組織がAIを採用し、管理し、監視する能力を、企業レベルの信頼性で強化します。規模で運営する規制対象の組織向けに構築されています。

既存のシステム、ポリシー、AIワークフローを、すべて1つの統合プラットフォームでシームレスに接続します。

既存のシステム、ポリシー、AIワークフローを、すべて1つの統合プラットフォームでシームレスに接続します。