

Dr. Umang Bhattは、生成的AIシステムにおける透明性と説明性を実現するために必要な技術的および組織的枠組みを探求しています。
•
トピック
LLMの説明可能性、モデルの透明性、解釈性、信頼できるAI
Spotifyでお聴きください
YouTubeで視聴
Appleで聴く
概要
このエピソードでは、NYUの助教授であり、アラン・チューリング・インスティテュートのシニアリサーチアソシエイトであるDr. Umang Bhattにお話を伺います。Umangは、AIの説明可能性と人間-機械の相互作用の交差点で活躍する世界的な研究者です。
この対話では、モデルの透明性に関する「方法」と「理由」に焦点を当て、技術的でないエンドユーザーに生成AIの出力を説明するための実践的な方法や、社内の利害関係者間で強力なフィードバックループを確立することの重要性について探ります。
SpotifyやApple Musicでリスニングできますし、こちらのYouTubeでエピソードをご覧になれます。
重要なポイント
エンジニア向けの解釈可能性とエンドユーザー向けの説明可能性の区別。
安全性を確保するために生成AIの出力を制限する技術的アプローチ。
ループを閉じる:コンプライアンスチームが開発責任者とコミュニケーションを取る必要性。
倫理基準を維持しつつ、AIを活用した個別指導の促進。
グローバルな視点:米国、EU、中国以外で責任あるAIフレームワークを推進。
Spotifyでお聴きください
YouTubeで視聴
Appleで聴く
組織がAIを採用し、管理し、監視する能力を、企業レベルの信頼性で強化します。規模で運営する規制対象の組織向けに構築されています。
