EnzaiのAIガバナンス製品のフルスイートを探求し、企業がAIを自信を持って管理、監視、拡張するのを支援します。構造化されたインテークや中央集約されたAIインベントリから、自動評価やリアルタイムの監督まで、Enzaiは日常のAIワークフローにガバナンスを直接組み込むための基盤を提供します—イノベーションを遅らせることなく。

Enzai

AI 規制

ライアンは、カナダにおけるAI規制についてCTVニュースと対談します

AI 規制

ライアンは、カナダにおけるAI規制についてCTVニュースと対談します

AI 規制

ライアンは、カナダにおけるAI規制についてCTVニュースと対談します

Enzaiのライアン・ドネリーがCTVニュースにて、カナダのAI規制に関する最新の動向について話します。

ベルファスト

ベルファスト

4 最小読了時間

メディア

メディア

CTVニュース

CTVニュース

集中

集中

ワシントンAIフォーラム

ワシントンAIフォーラム

Implementing "Low-Hanging Fruit"

Implementing "Low-Hanging Fruit"

To build consumer trust and establish verifiable governance, organizations should immediately implement foundational measures such as Quality Management Systems (QMS) and comprehensive technical documentation.

To build consumer trust and establish verifiable governance, organizations should immediately implement foundational measures such as Quality Management Systems (QMS) and comprehensive technical documentation.

トピック

AI執行、FTCの措置、規制のシグナル、コンプライアンスリスク

トピック

これは、今月初めにワシントンでBig Techのリーダーが集まって議論した問題です。代表団にはイーロン・マスク、サンダー・ピチャイ、マーク・ザッカーバーグ、サム・アルトマンが含まれ、米国上院議員との「AI安全フォーラム」で非公開会議を行いました。AIの進化と採用が加速する中、米国政府はシリコンバレーの経営者、研究者、労働代表者と一連の会合を開いています。米国の立法者の目的はリスクを管理し、AIの危険を軽減することです。しかし、米国はまだ規制の枠組みを作成するには遠い状況です。 

潜在的な立法がどのようなものになるかについての合意はほとんどなく、必要な保護策を作成しイノベーションを支援することのバランスを取ることは容易ではありません。米国上院多数党院内総務チャック・シューマーは、人工知能に対する規制の必要性を認めつつ、それらが急がれてはいけないと述べています:「あまりに急ぐと物事を壊すことになる」。シューマーは上院のアプローチをEUのアプローチと対比し、EUがあまりに急いでいると考えています。EU AI法は世界初の包括的なAI法であり、欧州議会は6月にこの法案を承認し、2023年末までに法律となる予定です。EU AI法は極端だと批判されており、エアバス、シーメンス、ハイネケンを含む150以上の欧州企業の経営者が、EUに対して競争力と技術的主権を「危うくする」としてこの規制の再検討を求める公開書簡に署名しています。

CTV NewsはEnzaiの創設者であるライアン・ドネリーに、ワシントンでの「AI安全フォーラム」の議論とAI技術の将来の規制について話を聞きました。「[AI安全フォーラム]は始まりに過ぎないが、この驚異的な技術の規制についての会話にはまだ多くの道のりがある」とドネリーは説明します。ワシントンでの議論の多くはOpenAIによって「公共の安全を脅かす危険な能力を持つ基盤モデル」と定義されるフロンティアAIに焦点を当てています。これらは存在的な脅威であるが、差し迫ったリスクではありません。たとえば、ディープフェイクは即時的な懸念です。

ドネリーは、今日企業がAIガバナンスを改善し、現在存在するリスクを管理するために取ることができるステップを提案しています:「これらの技術を構築し展開する方法に関する品質管理システムの導入、詳細な技術ドキュメンテーションの保持、適切なリスク評価の実施」が容易に実行可能な手段です。ドネリーによれば、鍵となるのはAIが「良い用途に使われること」と人々がそれを信頼することです。 

詳細を知るには、AIガバナンスモデルリスク管理AI規制生成AI、およびEU AI法に関するEnzaiのソリューションをお読みください。

さらに詳しく見る

さらに詳しく見る

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

設計に伴うコンプライアンス

設計に伴うコンプライアンス

ISO 27001

EnzaiISO 270012023NQAInstil

一般データ保護規則 (GDPR)

ISO 27001

EnzaiISO 270012023NQAInstil

一般データ保護規則 (GDPR)

AI

AI

インフラストラクチャ

インフラストラクチャ

信頼を構築するために設計されています。

信頼を構築するために設計されています。

組織がAIを採用し、管理し、監視する能力を、企業レベルの信頼性で強化します。規模で運営する規制対象の組織向けに構築されています。

既存のシステム、ポリシー、AIワークフローを、すべて1つの統合プラットフォームでシームレスに接続します。

既存のシステム、ポリシー、AIワークフローを、すべて1つの統合プラットフォームでシームレスに接続します。