
最初の草案は有用であり、構造が整っていますが、一部の分野では詳細が不足しています。
•
•
6 最小読了時間
トピック
この夏に施行されたEU AI法 (AIA)は、一般目的AI (GPAI) モデルの提供者向けの原則を示しています。これらの原則に関する具体的かつ実行可能な解釈は、2025年5月に欧州AIオフィスがGPAI実施規範を公表する際に利用可能になります。GPAI実施規範に準拠することで、GPAIの提供者は、欧州AIオフィスが調和基準を発表するまでの間、AIAの一部における「適合推定」を得る可能性があります。
そのため、GPAI提供者にとって、11月14日に欧州委員会のウェブサイトで公表されたGPAI実施規範の最初のドラフトにアクセスすることは有意義でした。このドラフトは、9月30日以来、四つの作業グループの協力作業の成果です。
1: 透明性と著作権関連の規則
2: 系統的リスクの識別と評価
3: 系統的リスクの技術的リスク緩和
4: 系統的リスクのガバナンスリスク緩和
これは2025年5月の最終テキストに向けた反復プロセスにおける四つのドラフトの中で最初のものであるという解説と共に、36ページのドラフト実施規範は少なくとも3つの点で注目に値します。
1. 提供者の決定
まず、GPAI提供者の決定の重要性を認識しています。OpenAI、Google、Anthropic、Meta、Cohere、そしてMistralはGPAI提供者の最も明白な例ですが、AIAはGPAIモデルを使用する組織が提供者と見なされる状況についても説明しています(例えば、彼らがそのようなモデルに自社名や商標を付けた場合)。AIAのグレーゾーンは、そうしたモデルを「微調整」する組織が提供者となるかどうかです。ドラフト実施規範は、このトピックに関するガイドラインを最終版で提供することを示唆しつつ、もし組織が微調整によって提供者と見なされたとしても、その提供者義務は微調整の影響に限定されることを共有しています。
2. システムリスク分類
第二に、GPAIシステムからの系統的リスクの高レベルの分類を概説しています。AIAは、特定のAIシステムを系統的リスクを引き起こすものとして分類しています(例えば、「トレーニングに使用される累積の計算量が 10(^25) フローティングポイント操作を超える場合」)。ドラフト実施規範で概説された分類法は、a) リスクタイプの分野が『サイバー犯罪』から『大規模差別』に至るまで、b) リスクの性質の分野に起源、リスクを引き起こすアクター、および意図を含む、そしてc) リスク源の分野として「危険なモデルの能力」などを挙げています。この分類法は高レベルで概説されていますが、欧州AIオフィスが関心を持ちそうなシステムリスクの考慮事項についての洞察を提供します。
3. 透明性
第三に、技術文書や情報をAIAの第53条に基づいて配備者および欧州AIオフィスに共有する必要があるGPAI提供者に対して、一程度の明確性を提供しています。これらは『許容使用ポリシー』から『アーキテクチャおよびパラメータの数』まで多岐にわたります。 これらの要素がAIAの付録と照合され、詳述されている点は助けになりますが、各要素に提供される詳細のレベルは大きく異なります。
この文書はまた、著作権の問題や系統的リスクを引き起こすGPAIシステムに対するリスク評価と緩和についても掘り下げています。
欧州AIオフィスがこの最初のドラフトを公開したことも注目に値します。これは大幅に進化する可能性があるためです。これは、組織がドラフトプロセスに遅れないように公表され、公開、協力、および反復的なドラフトアプローチの本質を強調するために行われた可能性があります。このために、文書は「最初のドラフトが詳細に乏しくても、このアプローチは最終的なコードの潜在的な形と内容について関係者に明確な方向性を提供することを目的としている」と記録しています。
エンザイがサポートします
エンザイのAI GRCプラットフォームは、EU AI法、コロラドAI法、NIST AI RMF、ISO/IEC 42001などのベストプラクティスや新興規制、規格、フレームワークに従ってAIを展開する際に貴社を支援します。詳細についてはこちらからお問い合わせください。
組織がAIを採用し、管理し、監視する能力を、企業レベルの信頼性で強化します。規模で運営する規制対象の組織向けに構築されています。