Der erste Entwurf ist nützlich und gut strukturiert, auch wenn er in einigen Bereichen wenig detailliert ist.
•
•
3 Minuten Lesezeit
Themen
Das EU AI Gesetz (AIA), das diesen Sommer in Kraft trat, skizziert Prinzipien für Anbieter von KI-Modellen für allgemeine Zwecke (GPAI). Spezifische, umsetzbare Interpretationen dieser Prinzipien für GPAI-Anbieter werden im Mai 2025 verfügbar sein, wenn das Europäische KI-Büro seinen GPAI-Verhaltenskodex veröffentlicht. Die Ausrichtung am GPAI-Verhaltenskodex kann GPAI-Anbietern eine „Vermutung der Konformität“ mit Teilen des AIA geben, bis das Europäische KI-Büro harmonisierte Standards veröffentlicht.
Es war daher aufschlussreich für GPAI-Anbieter, auf den ersten Entwurf des GPAI-Verhaltenskodex zugreifen zu können, veröffentlicht auf der Website der Europäischen Kommission am 14. November. Der Entwurf ist das Produkt einer Zusammenarbeit innerhalb und zwischen vier Arbeitsgruppen seit dem 30. September:
1: Transparenz- und urheberrechtsbezogene Regeln
2: Risikoidentifikation und Bewertung für systemisches Risiko
3: Technische Risikominderung für systemisches Risiko
4: Governance Risikominderung für systemisches Risiko
Mit dem Vorbehalt, dass dies nur der erste von vier Entwürfen in einem iterativen Prozess ist, der zum endgültigen Text im Mai 2025 führt, ist der 36-seitige Entwurf des Verhaltenskodex in mindestens drei Punkten bemerkenswert.
1. Anbieterbestimmung
Zunächst erkennt er die Bedeutung der Bestimmung des GPAI-Anbieters an. Während OpenAI, Google, Anthropic, Meta, Cohere und Mistral die offensichtlichsten Beispiele für GPAI-Anbieter sind, beschreibt das AIA auch Situationen, in denen Organisationen, die GPAI-Modelle verwenden, als Anbieter angesehen werden können (zum Beispiel, wenn sie ihren eigenen Namen oder ihre Marke auf ein solches Modell setzen). Ein Graubereich im AIA ist, ob eine Organisation, die solche Modelle „fein abstimmt“, zu einem Anbieter wird. Während der Entwurf des Verhaltenskodex darauf hinweist, dass seine endgültige Version zu diesem Thema Richtlinien bieten wird, teilt er mit, dass auch wenn eine Organisation aufgrund der Feinabstimmung als Anbieter gilt, ihre Anbieterpflichten auf die Auswirkungen der Feinabstimmung beschränkt sein werden.
2. Taxonomie systemischer Risiken
Zweitens skizziert er eine hochrangige Taxonomie systemischer Risiken von GPAI-Systemen, die Typen, Natur und Quelle umfasst. Das AIA klassifiziert bestimmte KI-Systeme als systemische Risiken (zum Beispiel, wenn „die kumulative Menge der für sein Training verwendeten Berechnung, gemessen in Gleitkommaoperationen, größer als 10(^25) ist“). Die Taxonomie, die durch den Entwurf des Verhaltenskodex skizziert wird, umfasst a) Risikoartfelder, die von „Cyberangriff“ bis „diskriminierung in großem Maßstab“ reichen, b) Risikonaturfelder, die Herkunft, Akteur(e), die das Risiko antreiben, und Absicht einschließen, und c) Risikofelder wie „gefährliche Modellfähigkeiten.“ Obwohl die Taxonomie auf hohem Niveau skizziert ist, bietet sie Einblicke in die Systemrisikobewertungen, die dem Europäischen KI-Büro wahrscheinlich Sorgen bereiten.
3. Transparenz
Drittens bietet es ein Maß an Klarheit über die Art der „technischen Dokumentation“ und „Informationen“, die GPAI-Anbieter mit den Einsatzorganisationen und dem Europäischen KI-Büro gemäß Artikel 53 des AIA teilen müssen. Diese reichen von „Akzeptable Nutzungsrichtlinien“ bis „Architektur und Anzahl der Parameter.“ Obwohl es hilfreich ist, dass diese Elemente ausgearbeitet und im Kontext der Anhänge des AIA referenziert werden, variiert der Detailgrad der für jedes Element bereitgestellten Informationen erheblich.
Das Dokument geht auch auf Urheberrechtsfragen und auf Risikobewertungen und -minderungen für GPAI-Systeme ein, die systemische Risiken darstellen.
Es ist auch bemerkenswert, dass das Europäische KI-Büro diesen ersten Entwurf veröffentlicht hat, da er sich wahrscheinlich erheblich ändern wird. Dieser Schritt wurde möglicherweise unternommen, um Organisationen zu helfen, mit dem Entwurfsprozess Schritt zu halten, während sie ihre AIA-Konformität entwickeln, und um die öffentliche, kollaborative und iterative Natur des Entwurfsansatzes zu betonen. Zu diesem Zweck merkt das Dokument an, dass „obwohl der erste Entwurf detailliert leicht ist, dieser Ansatz darauf abzielt, den Interessengruppen einen klaren Eindruck von der möglichen Form und dem Inhalt des endgültigen Kodex zu geben.“
Enzai ist hier, um zu helfen
Die AI GRC-Plattform von Enzai kann Ihrem Unternehmen helfen, KI gemäß den besten Praktiken und aufkommenden Vorschriften, Standards und Rahmenwerken bereitzustellen, wie das EU AI Gesetz, das Colorado AI Gesetz, der NIST AI RMF und ISO/IEC 42001. Um mehr zu erfahren, kontaktieren Sie uns hier.
Ermöglichen Sie Ihrer Organisation die Einführung, Steuerung und Überwachung von KI mit unternehmensgerechtem Vertrauen. Entwickelt für regulierte Organisationen, die im großen Maßstab operieren.

