

Dr. Umang Bhattは、生成的AIシステムにおける透明性と説明性を実現するために必要な技術的および組織的枠組みを探求しています。
•
トピック
LLMの説明可能性、モデルの透明性、解釈性、信頼できるAI
Spotifyでお聴きください
YouTubeで視聴
Appleで聴く
概要
本エピソードでは、NYU の助教授であり、アラン・チューリング研究所のシニア・リサーチ・アソシエイトである Dr. Umang Bhatt をお迎えします。Umang は、AI の説明可能性と人間と機械の相互作用の交差点において、世界的に高く評価されている研究者です。
本対談では、モデルの透明性に関する「どのように」と「なぜ」に焦点を当て、生成 AI の出力を技術的な専門知識を持たないエンドユーザーに説明するための実践的な手法や、社内のステークホルダー間で強固なフィードバックループを構築することの重要性を探ります。
Spotify または Apple Music でお聴きいただくか、YouTube で本エピソードをご覧ください。
主なポイント
エンジニア向けの解釈可能性と、エンドユーザー向けの説明可能性を区別すること。
安全性を確保するために生成 AI の出力を制限する技術的アプローチ。
フィードバックループを閉じること:コンプライアンスチームが開発責任者と連携して意思疎通を図る必要性。
高い倫理基準を維持しながら、パーソナライズされた教育に AI を活用すること。
グローバルな視点:米国、EU、中国を超えて、責任ある AI フレームワークを推進すること。
Spotifyでお聴きください
YouTubeで視聴
Appleで聴く
組織がAIを採用し、管理し、監視する能力を、企業レベルの信頼性で強化します。規模で運営する規制対象の組織向けに構築されています。

