EnzaiのAIガバナンス製品のフルスイートを探求し、企業がAIを自信を持って管理、監視、拡張するのを支援します。構造化されたインテークや中央集約されたAIインベントリから、自動評価やリアルタイムの監督まで、Enzaiは日常のAIワークフローにガバナンスを直接組み込むための基盤を提供します—イノベーションを遅らせることなく。

Enzai

AI 規制

テキサス州、包括的なAI規制を検討

AI 規制

テキサス州、包括的なAI規制を検討

AI 規制

テキサス州、包括的なAI規制を検討

HB 1709は、馴染みのあるリスクベースのアプローチと強力な監督機関を提案しています。

ベルファスト

ベルファスト

6 最小読了時間

規制

規制

テキサス TRAIGA

テキサス TRAIGA

地域

地域

アメリカ合衆国

アメリカ合衆国

High Stakes Compliance

High Stakes Compliance

The bill introduces severe penalties ranging from $50,000 to $100,000 per violation, requiring developers and deployers to conduct annual impact assessments and publish detailed reports on training data and model limitations.

The bill introduces severe penalties ranging from $50,000 to $100,000 per violation, requiring developers and deployers to conduct annual impact assessments and publish detailed reports on training data and model limitations.

トピック

AIの責任、アカウンタビリティフレームワーク、ヨーロッパ法、民事責任

トピック

テキサス州議会議員であるジョバンニ・カプリグリオーネ氏が、1月初旬にテキサスAIガバナンス法(TRAIGA)をHB 1709として導入しました。コロラドAI法と同様に、TRAIGAは産業全体に適用されるリスクベースのフレームワークを使用しています。しかし、もし制定されると、TRAIGAはコロラドの法律よりも重要になります。これはテキサスの経済規模の大きさとTRAIGAの厳格さによる要件のためです。

差別を防ぐためのリスクベースアプローチ

コロラド法と同様に、TRAIGAの主目的は、保護されているクラスに基づく差別を防ぐためにAIユーザーが「合理的なケア」を行うことを求めることです。

TRAIGAは、他のものの中で、人間の行動の操作、社会スコアリング、特定の有害コンテンツの生成、指定された生体認証マーカーの取得などのAI使用例を禁止します。

高リスクとみなされるAIシステムに対して、TRAIGAは開発者、展開者、および流通者に要件を課します。

高リスクシステムは「結果を左右する決定における重要な要素」と定義されますが、この定義から除外される使用例もいくつかあります。

重要な要素は、a)「結果を左右する決定を行う際に考慮される」、b)「結果を左右する決定の結果を変える可能性がある」、c)「結果を左右する決定に寄与する他の要素よりも重視される」と定義されています。

結果に影響する決定は「消費者のアクセス、コスト、または条件に対する実質的、合法的、または類似の重要な効果を持つ」と定義され、a)刑事事件の評価、判決または求刑合意の分析、または恩赦、仮釈放、保護観察、または釈放決定、b)教育登録または教育機会、c)雇用または雇用の機会、d)金融サービス、e)必須政府サービス、f)住宅ユーティリティサービス、g)医療サービスまたは治療、h)住宅、i)保険、j)法律サービス、k)輸送サービス、l)憲法上保護されたサービスまたは製品、m)選挙または投票プロセスを含みます。

リスク管理と報告

高リスク報告:展開者はAIシステムの使用方法、その差別を引き起こす可能性のある制限の概要、およびトレーニングデータの要約を含む報告書を展開者に提供しなければなりません。

影響評価:展開者は高リスクシステムに対して毎年および重要な変更から90日以内にこれらを実施しなければなりません。ただし、「単一の影響評価が、類似のセットの高リスクAIシステムに対する評価を補うことができる。」

管理方針:開発者および展開者は、自社のAI開発または展開を管理するための組織方針を実施しなければなりません。

TRAIGAには違反ごとに50,000ドルから100,000ドルの罰金が含まれています。

テキサス人工知能評議会

TRAIGAは知事室に附属するAI評議会を設立します。その他の責任の中には、AI評議会がAIシステムが公衆の利益に適合して動作していることを確証すること、AIの革新を妨げる法律の改革を特定して提案すること、そして規制の取り込む可能性がある事例を調査し評価することが含まれます。テキサスのような重要な管轄でAI評議会にこのような広範な権限を持たせることにより、TRAIGAはこの評議会をAIの最も重要な規制当局の一つにしようとしています。

TRAIGAの未来

TRAIGAの支持者はこの法案を、一般常識的なリスクベースアプローチを取り、異なる政治的背景を持つ支持者がいる法案として描きます。一方批評家は、小規模企業やオープンソースAIに対して友好的ではなく(特定の除外にもかかわらず)、革新に反し、技術ではなく危機に集中し過ぎていると評するでしょう。

テキサス州議会がこの法案の影響を検討する中で、TRAIGAは2025年のAI政策の議論の中心になることを約束しています。

Enzaiがサポートします

EnzaiのAI GRCプラットフォームは、貴社のAI導入をEU AI法、コロラドAI法、NIST AI RMF、ISO/IEC 42001などのベストプラクティスや新しい規制、基準、フレームワークに合わせて支援します。詳しくはこちらにお問い合わせください

さらに詳しく見る

さらに詳しく見る

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

当社のニュースレターにご登録ください

サインアップすることにより、Enzaiのプライバシーポリシーに同意することになります

設計に伴うコンプライアンス

設計に伴うコンプライアンス

ISO 27001

EnzaiISO 270012023NQAInstil

一般データ保護規則 (GDPR)

ISO 27001

EnzaiISO 270012023NQAInstil

一般データ保護規則 (GDPR)

AI

AI

インフラストラクチャ

インフラストラクチャ

信頼を構築するために設計されています。

信頼を構築するために設計されています。

組織がAIを採用し、管理し、監視する能力を、企業レベルの信頼性で強化します。規模で運営する規制対象の組織向けに構築されています。

既存のシステム、ポリシー、AIワークフローを、すべて1つの統合プラットフォームでシームレスに接続します。

既存のシステム、ポリシー、AIワークフローを、すべて1つの統合プラットフォームでシームレスに接続します。