Der AI Action Summit fand diese Woche in Paris statt. Ryan teilt seine Gedanken und Erkenntnisse von der Veranstaltung.
•
•
6 Minuten Lesezeit
Themen
Zur selben Zeit, als der US-Vizepräsident JD Vance im Grand Palais seine Ausführungen auf dem AI Action Summit machte, war ich bei der OECD zu einem Tag mit Roundtables über KI-Sicherheit, Governance und Ethik. Es war dieselbe Stadt, nur durch wenige Straßen getrennt, und doch fühlte es sich wie eine andere Welt an. Im Grand Palais war der Gedanke einer Regulierung von KI ein politisches Piñata-Spielzeug, während amerikanische Innovation und Dynamik im Mittelpunkt standen. Bei der OECD hingegen galt der Bedarf an KI-Regulierung als dringlicher denn je.
Dies war anders als jeder andere AI Summit, an dem ich bislang teilgenommen habe. Die Stimmung war anders und gespalten, und ich glaube, dies ist größtenteils lediglich ein Spiegel des gegenwärtigen westlichen Zeitgeists. Derzeit erleben wir weltweit einen massiven Wandel in der öffentlichen Meinung – Debatten über Migration, internationalen Handel und die Rolle des Staates schaffen (oder verschärfen, je nach Perspektive) tiefe gesellschaftliche Spaltungen in den westlichen Demokratien.
Regulatorische Gegenreaktion
Diese Kluft wurde in Paris sehr deutlich sichtbar, wo Regierungsvertreter und Branchenexperten zusammenkamen, um die neuesten Entwicklungen im Bereich KI zu erörtern. Im deutlichen Gegensatz zum ersten britischen Gipfel mit dem Titel AI Safety Summit standen in Paris rasante Innovation und die Angst, den Anschluss zu verlieren, im Mittelpunkt. Die Stimmung ist klar – es ist an der Zeit für „plug, baby, plug“1, und der Gedanke, Grenztechnologien zu regulieren, steht unmissverständlich im Fadenkreuz. Ist dies lediglich Opportunismus par excellence, oder ist es etwas deutlich Gefährlicheres?
Ich verstehe nicht nur die Haltung hinter einem Großteil dieser regulatorischen Gegenreaktion, ich teile sie. Das mag von einem Gründer eines KI-Governance-Start-ups seltsam und kontraproduktiv klingen, aber ich glaube das tatsächlich. Ich bin außerordentlich begeistert vom Potenzial von KI-Technologien, unser Leben zum Besseren zu verändern. Dafür brauchen wir unermüdliche Innovation, und ein Rahmenwerk aus schlecht gestalteten Regeln wird uns dorthin nicht bringen. Unsinnige Regeln, die Marktteilnehmern unnötige und oft unrealistische Lasten auferlegen, helfen niemandem und stellen sehr wohl eine legitime Bedrohung für Fortschritt und Innovation dar.
Betrachten wir für einen Moment ein alternatives Universum, denn das Adjektiv „schlecht gestaltet“ im obigen Absatz trägt hier die gesamte argumentative Last. Was, wenn wir stattdessen einige hilfreiche Regeln entwerfen? Der Spruch „gute Gesetze sind gut und schlechte Gesetze sind schlecht“ war nie zutreffender als im digitalen Zeitalter. Wenn KI-Regulierungen kontextbezogen formuliert würden und die einzigartigen Eigenschaften der Technologien sowie den gesellschaftlichen Kontext, in dem sie eingesetzt werden, berücksichtigen, wäre das dann nicht insgesamt positiv für die Gesellschaft? Gute Regulierung sorgt dafür, dass schlechte Akteure kontrolliert und bei Verstößen sanktioniert werden, und dass Organisationen, die Gesellschaft positiv voranbringen wollen, dies innerhalb eines starken Rahmens hoher Standards tun können. Mit dem richtigen Rahmen kann Innovation gedeihen, weil alle Beteiligten dasselbe Spiel nach denselben Regeln spielen.
Regeln sind nicht durchweg schlecht
Noch nicht von dieser neuen Betrachtungsweise überzeugt? Dann betrachten Sie einige dieser Grundsätze einmal isoliert. Das Rugbyspiel ist genau deshalb das, was es ist, weil die beiden gegnerischen Mannschaften unter bestimmten Regeln spielen. Über den Nutzen mancher dieser Regeln können und sollten wir durchaus diskutieren (ich finde, die Regel des „held up over the line“ ist für angreifende Teams zu hart und nimmt dem Spiel die Spannung), doch niemand fordert, die Regeln des Spiels vollständig abzuschaffen. Die jüngsten Regeln zum Schutz des Kopfes eines Spielers im Tackle waren in der Umsetzung schwierig, sind jedoch sowohl für das Wohlergehen der Spieler als auch für das langfristige Überleben des Spiels entscheidend. Tatsächlich ermöglichen diese neuen Regeln dem Spiel nicht nur zu überleben, sondern zu gedeihen.
Die Ära der sozialen Medien liefert eine ernüchternde Lehre über die Kosten regulatorischer Untätigkeit. Über mehr als ein Jahrzehnt konnten Plattformen auf Milliarden von Nutzern skalieren, nahezu ohne Aufsicht über ihre Datenpraktiken, Inhaltsalgorithmen oder ihre Auswirkungen auf die psychische Gesundheit junger Menschen. Dies war ein Ansatz, bei dem Innovation an erster Stelle stand, und dessen Mantra wörtlich lautete: „move fast and break things“. Die Folgen dieses Ansatzes wurden schmerzlich deutlich: beispiellose Datenschutzverletzungen wie Cambridge Analytica, unter Druck geratene demokratische Institutionen und dokumentierte Schäden für die psychische Gesundheit von Jugendlichen. Als die Regulierungsbehörden zu handeln begannen, waren diese Probleme tief verankert und deutlich schwerer zu lösen.
Diese Analyse auf die KI-Regulierung anwenden
Und wir können sehen, wie sich dieses Muster mit KI erneut wiederholen könnte. Wenn wir Geschwindigkeit über Verantwortungsstrukturen stellen, riskieren wir, genau die Grundlagen zu untergraben, die Fortschritt überhaupt erst ermöglichen. Eine der beständigsten Kritiken an der KI-Regulierung lautet, sie lege zusätzliche, komplexe regulatorische Lasten auf Schultern, die dieses Gewicht nicht tragen können. Auch dies klingt auf den ersten Blick nach einer berechtigten Kritik, aber im Fall des EU AI Act trifft es schlicht nicht zu. Die Einführung von Dingen wie eines Risikomanagementsystems (Artikel 9) („RMS“) und eines Qualitätsmanagementsystems (Artikel 17) („QMS“) für KI-Technologien, die offensichtlich sehr risikobehaftet sind, ist keineswegs zu viel verlangt. In der Tat werden hochwertige Unternehmen dies ohnehin tun, weil es in ihrem kommerziellen Interesse liegt – es stärkt das Kundenvertrauen. Und wenn Sie meinen, der EU AI Act benachteilige kleinere Unternehmen ungerecht, richten Sie Ihren Blick bitte auf die kluge KMU-Formulierung in Artikel 99 Absatz 6 zu Sanktionen. Vor allem aber – so wie KI Medizin, Recht und Finanzwesen transformieren kann, kann sie auch bei der Einhaltung regulatorischer Vorgaben helfen. Enzais KI-Governance-Plattform ermöglicht es Organisationen, umfassende KI-Compliance-Programme effizient und in großem Maßstab umzusetzen.
Die KI-Haftungsrichtlinie ist ein besonders beklagenswertes Opfer des diesjährigen AI Summit. Zur Erinnerung: Die Richtlinie sollte sicherstellen, dass eine klagende Partei, die infolge eines KI-Systems Schaden erlitten hat, nicht die tiefgehende Kausalität zwischen dem KI-System und dem verursachten Schaden nachweisen muss. Die Richtlinie sah außerdem eine starke widerlegbare Vermutung zugunsten jedes Beklagten vor, der sein QMS und RMS nachweisen konnte. Der Kern der Sache ist jedoch, dass dies zwar wie eine pro-innovative Maßnahme erscheinen mag, tatsächlich aber genau das Gegenteil ist. Das Ergebnis ist Rechtsunsicherheit, die der Sache der Deregulierung nicht hilft, sondern ihre Schwachstellen weiter vergrößert.
Ein Blick in die Zukunft
Am Tag nach dem AI Action Summit veranstaltete Anthropic in Paris seinen ersten AI Builders Summit. Es war beruhigend zu hören, wie Anthropic-CEO Dario Amodei die „verpasste Gelegenheit“ des Gipfels beschrieb und die Debatte wieder auf Sicherheit, Transparenz und darauf lenkte, dass alle am wirtschaftlichen Aufschwung durch sehr leistungsfähige KI teilhaben. Die Zukunft der KI wird nicht von denen entschieden, die in prächtigen Palästen am lautesten schreien. Sie wird von jenen gestaltet, die bereit sind, die ruhige, methodische Arbeit zu leisten, herauszufinden, wie diese leistungsstarken Werkzeuge zuverlässig und verantwortungsvoll eingesetzt werden können.
1 Der französische Präsident Emmanuel Macron prägte diesen Ausdruck in einer Rede beim AI Action Summit
Enzai ist die führende Enterprise-KI-Governance-Plattform, speziell entwickelt, um Organisationen den Übergang von abstrakter Richtlinienarbeit zu operativer Aufsicht zu erleichtern. Unsere Plattform für KI-Risikomanagement bietet die spezialisierte Infrastruktur, die erforderlich ist, um agentische KI-Governance zu steuern, ein umfassendes KI-Inventar zu pflegen und die Einhaltung des EU AI Act sicherzustellen. Durch die Automatisierung komplexer Workflows ermöglicht Enzai Unternehmen, die Einführung von KI souverän zu skalieren und zugleich die Übereinstimmung mit globalen Standards wie ISO 42001 und NIST zu wahren.
Ermöglichen Sie Ihrer Organisation die Einführung, Steuerung und Überwachung von KI mit unternehmensgerechtem Vertrauen. Entwickelt für regulierte Organisationen, die im großen Maßstab operieren.

