
AICPAは潜在的な差別を防ぐためにリスクベースのアプローチを採用しています。
•
•
6 最小読了時間
トピック
トランプ政権のAI政策へのアプローチに対する不確実性にもかかわらず、州は新しいAI法を推進しています。これらの中には、従業員の給与を設定するために自動意思決定ツールの使用を禁止するジョージア州のSB 164のような、特定の使用例に焦点を当てたものもあります。他には、最前線のAIシステムのリスクに焦点を当てたものもあり、例えばイリノイ州のHB 3506は、最先端のモデルの開発者に対して評価と監査要件を導入しています。
国会議員はまた、消費者保護や差別を排除する視点からAIの利用に着目する傾向にあります。コロラド州がAI関連の消費者保護法を施行した唯一の州ですが、テキサス州議会は包括的な提案を検討しています。類似の法案は、増加する州で検討されています。
1月には、ニューヨーク州議会に類似の立法が導入されました (A768)。ニューヨークAI消費者保護法 (AICPA) は主に差別を排除することに関心を持っており、その一般的な構造はコロラド州法とテキサス州提案に従っています。開発者と展開者の間の要件を分割し、高リスクAIシステムのリスクに焦点を当て、責任あるAI利用のための組織方針を要求しています。
最近の連邦レベルの政策の逆転を受けて、一部の論評者は、この法案を歓迎していますが、他の人々は手続きに過度に焦点を当てていると批判しています。例えば、ジェフリー・ソネンフェルドとスティーブン・ヘンリークスは既存の消費者保護法をAIシステムに適用することにもっと焦点を当てるべきだと考えています。
AICPAは何をカバーしていますか?
AICPAは「高リスク」AIシステムの開発者と展開者を規制します。高リスクシステムを、展開時に「重大な決定」に対して「重要な要因」になるものとして定義し、以下を含む「重要な法的または類似の影響」を持つものを含みます:
-教育への登録または教育機会
-雇用または雇用機会
-金融または貸付サービス
-必須政府サービス
-医療サービス
-住宅または住宅機会
-保険
-法律サービス
いくつかのAIの使用は、この高リスクシステムの定義から例外として除外されています。
開発者の要件
AICPAは、開発者に「合理的な注意」を払ってアルゴリズムによる差別に関連するリスクから消費者を保護し、彼らのAIシステムとアルゴリズム差別の防止アプローチを公表する必要があります。また、高リスクシステムに対する意図された使用、害や不適切な使用、訓練データ、および予想される出力を含む文書を展開者に提供する必要があります。
独立した第三者による政府承認の監査を受ける場合、開発者は「合理的注意」の反駁可能な推定を受けることがあります。このような監査は、保護されたクラスに対する差別の可能性に焦点を当てています。
展開者の要件
展開者の要件としては、AI利用の類似の声明の公表、高リスクAIシステムに対するリスク管理方針とプログラムの確立(NIST AIリスク管理フレームワークまたはISO/IEC 42001に相当する)、高リスクAIシステムに対する毎年のAI影響評価の完了、および意思決定においてAIシステムが重要な要因となる場合の消費者への通知があります。
不利な決定の場合、展開者は決定の主な理由を提供し、意思決定時に使用された誤った個人情報を更新する機会を影響を受けた消費者に提供する必要があります。特定の状況において、展開者は開発者と契約し、後者がいくつかのコンプライアンス要件を引き受けることができます。
次のステップ
この法案が可決されれば、2027年1月1日に発効することになります。AICPAはまだ立法過程の初期段階にありますが、ニューヨークが検討する一連のAI関連法案の最初のものになる可能性があります。
Enzaiはお手伝いします
EnzaiのAI GRCプラットフォームは、EU AI Act、コロラドAI Act、NIST AI RMF、ISO/IEC 42001などのベストプラクティスや新興の法律、規格、フレームワークに従ってAIを実装することで、御社をサポートすることができます。詳細についてはこちらからお問い合わせください.
組織がAIを採用し、管理し、監視する能力を、企業レベルの信頼性で強化します。規模で運営する規制対象の組織向けに構築されています。