Entdecken Sie das vollständige Sortiment an KI-Governance-Produkten von Enzai, das darauf ausgelegt ist, Organisationen dabei zu helfen, KI mit Vertrauen zu verwalten, zu überwachen und zu skalieren. Von strukturierten Aufnahmen und zentralisierten KI-Inventaren bis hin zu automatisierten Bewertungen und Echtzeitüberwachung bietet Enzai die Bausteine, um Governance direkt in alltägliche KI-Workflows einzubetten — ohne die Innovation zu verlangsamen.

Enzai

Vorschriften für KI

Die Zukunft der KI-Governance: Einblicke von den KI-Experten

Vorschriften für KI

Die Zukunft der KI-Governance: Einblicke von den KI-Experten

Vorschriften für KI

Die Zukunft der KI-Governance: Einblicke von den KI-Experten

Unser Expertenpanel für AI-Governance äußert sich zu Vorschriften und Standards, Verantwortlichkeit, den drei Verteidigungslinien und mehr.

Belfast

Belfast

25 Minuten Lesezeit

Von

Von

Karen Waserstein

Karen Waserstein

Die „Drei Verteidigungslinien“ entschlüsseln

Die „Drei Verteidigungslinien“ entschlüsseln

Branchenexpertinnen und -experten von Ada Lovelace, SWIFT und Enzai betonen die Anwendung des bewährten Drei-Linien-Modells der Verteidigung (Geschäftsverantwortliche, Rechts-/Risikopartner und unabhängige Prüfer), um Risiken entlang der komplexen KI-Wertschöpfungskette wirksam zu steuern.

Branchenexpertinnen und -experten von Ada Lovelace, SWIFT und Enzai betonen die Anwendung des bewährten Drei-Linien-Modells der Verteidigung (Geschäftsverantwortliche, Rechts-/Risikopartner und unabhängige Prüfer), um Risiken entlang der komplexen KI-Wertschöpfungskette wirksam zu steuern.

Globale Vorgaben navigieren

Globale Vorgaben navigieren

Das Panel unterstreicht die dringende Notwendigkeit, lokale Anforderungen zu verstehen – von den Rechenschwellenwerten für Modelle mit „systemischem Risiko“ im EU AI Act bis hin zur umfassenden Umsetzung der US-Executive Order.

Das Panel unterstreicht die dringende Notwendigkeit, lokale Anforderungen zu verstehen – von den Rechenschwellenwerten für Modelle mit „systemischem Risiko“ im EU AI Act bis hin zur umfassenden Umsetzung der US-Executive Order.

Themen

NIST KI RMF
Risikomanagement
US-Standards
Governance-Rahmenwerke

Themen

Wir freuen uns, die Erkenntnisse aus unserem jüngsten Webinar mit einer Expertengruppe zu teilen, in der Connor Dunlop (CD), Leiter der europäischen öffentlichen Politik am Ada Lovelace Institute, Martin Koder (MK), Leiter der KI-Governance bei SWIFT, Chloe Autio (CA), Beraterin für KI-Politik und Governance, und Ryan Donnelly (RD), CEO von Enzai, einer KI-Governance-Lösung, vertreten waren. 

Die Antworten der Podiumsteilnehmer wurden aus Gründen der Länge und Klarheit bearbeitet. 

Nach der letzten Runde der Diskussionen über das EU-KI-Gesetz in der vergangenen Woche: Was sehen Sie als die wichtigsten Streitpunkte und welche Entwicklungen erhoffen Sie sich vom nächsten Jahr in der EU? 

CD: Dies ist ein bedeutender Moment für Brüssel und die EU - es gibt eine politische Einigung über das KI-Gesetz. Dies wäre die erste horizontale Regulierung von KI weltweit. Es war ein großer Moment. Hoffentlich wird es nicht viele Streitpunkte geben, aber wir werden einige in der technischen Ausarbeitung sehen. Bevor ich jedoch über Streitpunkte und Entwicklungen für das nächste Jahr spreche, möchte ich kurz erläutern, warum das KI-Gesetz wichtig ist und warum wir uns über die politische Einigung freuen sollten. Wie ich bereits erwähnt habe, wäre es die erste horizontale Regulierung von KI weltweit. Das ist interessant, weil tatsächlich der Einsatz einiger KI-Systeme verboten wird. Beispielsweise wäre die Echtzeit-Fernbiometrie-Identifikation in öffentlichen Räumen vollständig verboten, mit einigen Ausnahmen für den Einsatz durch Strafverfolgungsbehörden. Diese Woche richtete sich der Fokus darauf, wie weitreichend diese Ausnahme sein würde. 

Hochrisiko-KI-Systeme - laut Europäischer Kommission - könnten 5 bis 15% der Systeme ausmachen. Dies würde viele Nutzungsszenarien des öffentlichen Sektors erfassen, beispielsweise im Rechtssystem oder bei der Strafverfolgung, zusammen mit anderen Sektoren mit hoher Auswirkung: Bildung, Gesundheitswesen usw. Das Gesetz wird einige Regeln zum Risikomanagement, zur Daten-Governance und zur Gewährleistung der menschlichen Aufsicht festlegen.  Möglicherweise gibt es eine neue Kategorie, die erst letzte Woche vereinbart wurde - wir wissen, dass der Entwurf des Gesetzes Systeme in verbotene Systeme, Hochrisiko-Systeme und Niedrigrisiko-Systeme einteilt, und jetzt wurde eine Kategorie 'systemisches Risiko' eingeführt. Diese Kategorie betrifft allgemeine KI-Modelle. Hier könnte es einen Streitpunkt geben - insbesondere der rechnerische Schwellenwert, um ein KI-System als risikoarm zu klassifizieren. Derzeit ist dieser Schwellenwert - unserer Meinung nach - ziemlich hoch. Der vorgeschlagene Schwellenwert von 10^25 FLOPs erfasst nur ein Modell auf dem Markt, GPT-4. Gemini von Google Deepmind könnte ebenfalls erfasst werden, es ist jedoch noch nicht klar.

In Bezug auf die Frage, was im Jahr 2024 kommt, wird im ersten Quartal des Jahres immer noch der Fokus auf die Ausarbeitung der technischen Sprache der Gesetzgebung liegen. Interessengruppen werden weiterhin versuchen, diesen Prozess zu beeinflussen - die Erwägungen des KI-Gesetzes und die Klarstellungen zum rechtlichen Text werden entscheidend sein. Diese Arbeit darf nicht zu Beginn des nächsten Jahres übersehen werden. Eine potenziell interessante Entwicklung ist die Einigung über einen Verhaltenskodex für systemische allgemeine KI-Modelle. Anfänglich wird dies in Form einer unverbindlichen Leitlinie für allgemeine Anbieter sein. Dies ist ein Weg für die Zivilgesellschaft, sich zu engagieren, was wirklich wichtig ist. Ab Q2 des nächsten Jahres wird der Fokus stark auf dem Verhaltenskodex liegen. Wenn dies gut gemacht wird, könnte es das Demokratiedefizit des Standardisierungsprozesses ansprechen. Die letzte Anmerkung wäre die Arbeit der EU an einer KI-Haftungsrichtlinie - auch wenn sie durch die EU-Wahlen im nächsten Jahr unterbrochen wird.

Wir haben über das Thema KI-Sicherheit im europäischen Kontext diskutiert. Und einige Zeit lang spielte die USA keine führende Rolle in der Regulierung, aber das hat sich jetzt mit der Exekutivanordnung von Präsident Biden zu KI geändert. Wie ist die Stimmung in den USA? Wie sehen Sie die Umsetzung der Exekutivanordnung im kommenden Jahr?

CA: Als kurze Zusammenfassung: Die Exekutivanordnung wurde am dreißigsten Oktober, kurz vor dem UK AI-Gipfel, herausgegeben. Die Anordnung war die längste und umfassendste Exekutivanordnung der Biden-Administration bisher - mit 111 Seiten - die jemals im Zusammenhang mit technischer oder digitaler Politik erstellt wurde. Sie zeigt wirklich, wie zielstrebig die Verwaltung bei diesem Thema ist und wie proaktiv sie dabei vorgehen möchte.

Die Anordnung aktiviert 50 verschiedene Einheiten, wobei das Handelsministerium eine Menge der Umsetzung leitet, insbesondere bei NIST, dem National Institute for Standards and Technology, das Sie im Zusammenhang mit ihrer Arbeit am Rahmenwerk für das KI-Risikomanagement möglicherweise kennen, das ein führender freiwilliger Standardrahmen für KI-Governance war. Es hat auch über 150 neue Richtlinien erstellt, das heißt, Maßnahmen, Berichte, Leitlinien, jede Art von Regeln oder Richtlinien, die Agenturen dazu bringen, ihre eigenen Berichte innerhalb der nächsten 30 bis 365 Tage umzusetzen. Letztendlich gibt es hier viel Arbeit zu erledigen. Und der Empfang war wirklich sehr positiv.

In meinen Diskussionen mit Personen auf dem Capitol Hill - und der Verwaltung sowie der Industrie - gibt es viel Begeisterung für die Roadmap und den Weg, den die Exekutivanordnung vorgibt, und viel Neugier darauf, wie sie umgesetzt wird. 

Dies unterscheidet sich von vorherigen Exekutivanordnungen, insbesondere einer der Trump-Administration zu vertrauenswürdiger KI. In dieser Exekutivanordnung gab es viele Direktiven, die nicht ganz über die Ziellinie getragen wurden. Und einige davon beinhalten, Sie wissen schon, die Katalogisierung von KI-Anwendungsfällen, die Entwicklung verschiedener Arten des Risikomanagements für unterschiedliche Agenturen, das Office of Management and Budget, das einen Leitfaden erstellt, wie man KI verantwortungsvoll übernehmen und umsetzen kann. Nichts davon wurde abgeschlossen. Und so denke ich, dass wir mit dieser Exekutivanordnung einen stärkeren Fokus auf die Umsetzung sehen werden und einen gesamtstaatlichen Ansatz bei deren Realisierung.  

Es ist wichtig zu verstehen, dass die US-Regierung tatsächlich viel Arbeit an der KI-Governance geleistet hat, bevor die Exekutivanordnung herauskam. Es stimmt zwar, dass der Kongress noch kein breites Omnibus-Gesetz oder ein horizontales KI-Gesetz zur KI-Governance verabschiedet hat, wie wir es in der EU gesehen haben, aber viele Agenturen innerhalb und außerhalb der Regierung (die EEOC, die Equal Employment Opportunity Commission; NIST selbst mit dem KI-Risikomanagement-Rahmenwerk; die CFPB, das Consumer Financial Protection Bureau) haben verschiedene Arten von Leitlinien veröffentlicht, um bekannte KI-Schäden anzugehen. Die Exekutivanordnung baut auf der großartigen Arbeit auf, die viele dieser Agenturen bereits geleistet haben. Diese Arbeit trug zur Richtung dieser Exekutivanordnung bei.

Die Anordnung betrifft eine Vielzahl von Themen - sie konzentriert sich auf die nationale Sicherheit in Bezug auf Modellzugänge und Schutz vor zukünftigen Risiken. Es gibt viel Augenmerk auf Datenschutz und Verbraucherschutz sowie geistiges Eigentum. 

Eine Anforderung für Agenturen in diesem Kontext ist das Katalogisieren unterschiedlicher Datenquellen, einschließlich solcher von Datenmaklern, um wirklich die Datenschutzimplikationen zu verstehen - das heißt, woher die Daten für diese Modelle stammen. Ich denke, viele Personen aus der Zivilgesellschaft und Befürworter, ich persönlich, bin sehr gespannt darauf, wohin das führt. Das US-amerikanische Patent- und Markenamt wird hier neue Leitlinien zu IP-Vorschriften und Leitlinien zur KI-Erfinderschaft herausgeben. Das wird ebenfalls sehr interessant sein. 

Die Exekutivanordnung konzentriert sich auch stark auf Fragen der Gleichberechtigung und Nichtdiskriminierung. Es beauftragt führende Regulierungsbehörden in der US-Regierung, das DOJ, die EOC und andere im DHS zusammenzuarbeiten und zu entscheiden, wie sie investieren werden und möglicherweise neue Leitlinien für die Durchsetzung gegen KI-Schäden erstellen wollen. Es gab bislang keinen koordinierten Versuch, dies zu tun. Die Exekutivanordnung hat dies wirklich formalisiert. Wir schauen auf Themen wie Nichtdiskriminierung im Wohnungswesen, Verfügbarkeit von Krediten, Dinge, die wir alle schon lange kennen sind gut dokumentierte KI-Schäden. Es wird wirklich interessant zu sehen, wie die Regierung eine Durchsetzungsstrategie rund um diese Themen entwickelt.

Die Anordnung behandelt auch Rechte der Arbeitnehmer und Arbeitskräfte. Es fordert Agenturen auf, Leitlinien dafür bereitzustellen, wie sie möglicherweise KI-Systeme einsetzen oder wie Bundesauftragnehmer KI-Systeme in Einstellungsverfahren verwenden. Wir haben alle vom UK AI Safety Institute gehört. NIST selbst hat auch ein AI Safety Institute eingerichtet, wo sie viel Arbeit leisten werden, um die Sicherheit und Robustheit von grundlegenden Modellen, KI-Modellen, zu untersuchen, Prozesse zum Red-Teaming zu entwickeln und auf bestehenden Risikomanagement-Prozessen aufzubauen, um die Sicherheit dieser Modelle wirklich zu verbessern.

Und schließlich konzentriert sich die Exekutivanordnung wirklich, wirklich auf die Stärkung des KI-Talents in der US-Regierung. Dies ist eine traurige Statistik, aber es ist eine wahre. Nur 1% der Absolventen im Bereich Informatik und KI promovieren in den USA und treten in den Bundesdienst ein. Wir haben eine riesige Anzahl sehr talentierter KI-Profis, die in den privaten Sektor oder an Akademien oder große Labors gehen. Aber nur ein kleiner Teil dieser Personen arbeitet letztendlich im öffentlichen Sektor und trägt zu den Zielen und Bedürfnissen im öffentlichen Sektor bei, verbessert öffentliche Dienstleistungen. Die Exekutivanordnung schafft einige neue Regeln und Änderungen - kleine Anpassungen der Einwanderungspolitik, um ausländische, in den USA ausgebildete Personen im Bereich KI in den USA bleiben und zum US-Ökosystem beitragen zu lassen. Dies ist ein sehr hochrangiger Überblick über die wichtigen Themen, die sich durch diese Exekutivanordnung ziehen.

Was passiert im Vereinigten Königreich? Ich weiß, Sie waren eng in die Diskussionen hier eingebunden, sowohl mit leitenden KI-Führern als auch mit der Regierung in der Downing Street. Gab es Fortschritte seit dem AI Safety Summit?

RD: Zum schnellen Überblick über die Entwicklungen im Vereinigten Königreich: Die Regierung hat mit einem pro-innovativen Ansatz zur Regulierung künstlicher Intelligenz begonnen. Die Idee war, das Vereinigte Königreich als weltweiten Führer in der künstlichen Intelligenz zu etablieren. Es greift viele der angesprochenen Punkte auf, wie die Förderung von Talenten und die Sicherstellung, dass Organisationen nicht übermäßig belastet werden; wie die Regierung eine Infrastruktur aufbauen kann, die Innovationen rund um diese unglaublichen Technologien wirklich fördert. Das erste Weißbuch dazu wurde vor ein paar Jahren veröffentlicht. Wir als Unternehmen haben Feedback dazu direkt gegeben. Es begann früh als Leitlinie und als sich die Zeit entwickelte, erhielt das Feedback, dass der pro-innovative Ansatz zur Regulierung künstlicher Intelligenz keine Durchsetzungskraft hatte. Und sie haben dieses Feedback aufgenommen - die Regierung hatte eine Entscheidung zu treffen: Regulieren sie KI oder tun sie es nicht? 

Der zweite Entwurf des pro-innovativen Ansatzes war ziemlich kreativ. Ich habe gesagt, es gab zwei Optionen. Möglicherweise gab es eine dritte: Der Plan zur KI-Regulierung im Vereinigten Königreich besteht darin, die Regulierungslast auf bestehende Sektorregulierer zu verlagern und zu sagen, „Sie sind die Finanzmarktaufsicht oder die Wettbewerbsbehörde, Sie regulieren bereits Ihren Bereich. Sie sollten auch prüfen, wie KI innerhalb Ihres bestehenden Mandats verwendet wird.“ Das wird sicherstellen, dass KI-Systeme mit sektorenübergreifenden Prinzipien konform sind. Dieser Ansatz legt eine Verpflichtung auf die Industrie.

Es gab Gespräche darüber, noch weiter zu gehen und ein KI-Gesetz einzuführen, und ich denke, die Regierung hat dies definitiv eingehend erwogen. Es war eine offene Frage beim AI Safety Summit. Nach dem AI Safety Summit wurde beschlossen, nicht zu versuchen, zusätzliche Regulierungen in Großbritannien einzuführen. Es gab ein zusätzliches Gesetz über selbstfahrende Autos und deren Außerkraftsetzung, aber es gibt keine Art von Regulierung wie das EU-KI-Gesetz, die möglicherweise derzeit betrachtet wurde. Es wird einen neuen Entwurf dieses pro-innovativen Ansatzes im neuen Jahr geben, und ich habe ziemlich eng mit einigen der Menschen in DSIT darüber gesprochen. Es ist sehr unwahrscheinlich, dass eine horizontale Gesetzgebung wie wir sie in Europa gesehen haben im Vereinigten Königreich herauskommt.

Der Ansatz ist in vielerlei Hinsicht anders. Eine der größten Kritiken am pro-innovativen Ansatz, der die Last auf sektorale Regulierer legt, ist das Fehlen einer koordinierenden Funktion. Ohne eine zentrale Funktion, die alles hinter den Kulissen zusammenführt, könnte ein Regulierer eine Interpretation eines Aspekts der Wertschöpfungskette vornehmen, während ein anderer Regulierer eine gegensätzliche Interpretation derselben Frage vornimmt. Das schafft viel Unsicherheit auf dem Markt, sodass die Regierung daran arbeitet, dieses Feedback in ihrer neuesten Version des Weißbuchs zu berücksichtigen. Im gleichen Sinne ist die Kritik am EU-KI-Gesetz fast das Gegenteil, dass es zu horizontal ist und dass spezifische Sektoren und die damit verbundenen Nuancen berücksichtigt werden müssen. 

Wir haben nun verschiedene regulatorische Ansätze in den USA, der EU, dem Vereinigten Königreich besprochen, und wir wissen auch, dass es ähnliche Bemühungen in Brasilien, China und weltweit gibt. Warum wäre internationale Kohäsion so wertvoll und welche Vorteile sehen Sie in der Festlegung globaler Standards?

MK: Ich freue mich, über SWIFT und den Ansatz, den wir ergreifen, um einige dieser Themen zu bewältigen, zu sprechen. Als Einführung: SWIFT ist die Society for Worldwide Interbank Financial Telecommunications. Wir sind eine neutrale, gemeinnützige Organisation, die die Infrastruktur für internationale Zahlungsnachrichten verwaltet. Wir sind sehr auf Governance fokussiert. Der Weg, wie wir mit unseren Kunden, großen Finanzinstituten, sprechen, zeigt auf die äußerst umfassenden und ausgereiften Risikomanagementkapazitäten, die bereits bei etablierten Finanzdienstleistern vorhanden sind. Unter dem Modell der drei Verteidigungslinien haben wir Lieferantenmanagement, Produkt-Governance, Daten-Governance, Sicherheitskontrollen, Datenschutzbewertungen usw. Wir haben unzählige Komitees und Prozesse und Legionen von Menschen, die sich damit befassen. Das bringt uns bereits zu 70% in Einklang mit dem, was die politischen Entscheidungsträger sehen möchten. 

Es könnte in einigen Bereichen eine oder zwei Lücken geben. Aber es könnte eine Frage sein, die Begrifflichkeit der KI-Governance-Regulierung zu verwenden - Erklärbarkeit, was in rechtlichen Begriffen bedeutet, was eine Haftung für Risiken ist. Und Prinzipien wie Fairness existieren bereits als Nichtdiskriminierung usw. 

Es könnte also der Fall sein, dass aus all den vielen Prozessen, die man bereits hat - Risikoanalyse, Identifikation, Auswirkungen-Überwachung usw. - die Managementinformationen extrahiert werden, die gegen einige definierte Metriken bereitgestellt werden, die Regulierer für verantwortungsbewusste KI und KI-Risikomanagement zu sehen wünschen. Diese Metriken erstrecken sich über verschiedene Dimensionen: Fairness, Auditierbarkeit, Verantwortlichkeit, Genauigkeit. Und dann werden diese Informationen in standardisierter Weise präsentiert, sodass hochrangige Entscheidungsträger im Unternehmen (auf Führungsebene, im Vorstand, beim Chief Risk Officer, bei General Counsel usw.), die nicht unbedingt über Daten- oder KI-Expertise verfügen, verstehen können. Es sollte auf eine Weise geschehen, die wiederholbar ist und die der Führung Versicherung gibt, dass sie Entscheidungen treffen können und dass Gewährleistungen bereitgestellt werden können, die für jeden zugänglich sind, der sie wünscht - sei es der Regulierer, seien es Kunden oder andere Arten von Interessengruppen.

Was ich den Kunden sagen würde, ist: keine Panik. Wenn Sie eine etablierte Institution sind, haben Sie bereits eine große Risikomanagementkapazität, um mit KI-Governance umzugehen.

Zu globalen Standards: Die Unternehmenskultur, die Fähigkeit, generische Risikomanagement-Prozesse durchzuführen, sowie die Infrastruktur, die man schaffen kann, um sicherzustellen, dass die Versicherungsleistungen verfügbar sind. Stellen Sie innerhalb Ihres eigenen Kontextes Ihre eigenen Standards auf. Sie können sie dann in Bezug auf die Anforderungen der lokalen Gerichtsbarkeiten umgestalten durch verschiedene Strategien: Partnerschaften mit Menschen in verschiedenen Teilen der Welt, zum Beispiel innerhalb Ihrer Kundenbasis, innerhalb Ihrer Lieferantengruppe, mit Akademikern, mit Regulierungsbehörden. Sie können in Gremien von Arbeitsgruppen sitzen und sich neue Bereiche wie Pet-Technologien ansehen, um zu verstehen, welche Standards sie befolgen, um den lokalen Kontext für bestimmte Bereiche zu lernen und die gewährten Versicherungen auf lokale Anforderungen umzuverpacken. 

Ich denke, Connor sprach über Kategorien und Schwellenwerte. Leider ist genau das die Funktionsweise der Regulierung. Regulierer schaffen immer Kategorien. Und dann stimmen die Leute darüber, dass Dinge im falschen Eimer sind oder dass der Schwellenwert auf der falschen Ebene liegt, aber sie ändern sich im Laufe der Zeit. Ich denke, Regulierungsbehörden haben weltweit einen ziemlich guten Job gemacht, wenn man bedenkt, dass die meisten politischen Entscheidungsträger nicht viel Expertise im maschinellen Lernen haben. NIST ist eine Schlüsselinstitution, die man im Auge behalten sollte. Es gibt so viel Lärm darüber, was als Best Practice zur KI-Governance gilt, wie man mit all den verschiedenen aufkommenden Regulierungsstandards umgeht. Es ist tatsächlich im letzten Jahr viel schlimmer geworden in Bezug auf das Signal zum Rauschen. Es ist viel schwieriger geworden, zu durchdringen, um zu sehen, welchen Organisationen man tatsächlich vertrauen sollte. Das Beste, was man tun kann, ist, das zu nutzen, was man bereits hat – zum Beispiel die drei Verteidigungslinien.

Zu Ryans Punkten über das Vereinigte Königreich denke ich, dass das Vereinigte Königreich in drei Dimensionen ziemlich klug war. Erstens haben sie das AI Safety Institute eingerichtet. Das Vereinigte Königreich wird in der Lage sein, alle fortschrittlichen Grundmodelle von US-Unternehmen zu sehen, da diese von US-amerikanischen und britischen Behörden überprüft werden. Zweitens ist das Vereinigte Königreich immer noch Mitglied des standardsetzenden Gremiums, das ermächtigt ist, die Standards für die EU-Regulierung festzulegen. In gewisser Hinsicht hat das Vereinigte Königreich immer noch einen Sitz am Tisch, wenn es um die Standardisierungsphase des EU-Gesetzes geht. Drittens werden die Anforderungen des EU-Gesetzes an Unternehmen, zu demonstrieren, dass sie ein Risikomanagementsystem in place haben, ein Bonanza für die Beratungsfirmen sein, von denen viele in London ansässig sind. So könnten wir sehen, dass einige von ihnen einen anständigen Geschäftswert aus dem Gesetz ziehen werden.

Sie erwähnen die drei Verteidigungslinien. Dies ist ein Konzept, das im Finanzdienstleistungs- und Versicherungssektor wirklich bekannt ist, in anderen Branchen jedoch nicht so sehr. Wie anwendbar sind die drei Verteidigungslinien bei dem Versuch, KI-Risiken zu managen, und denken Sie, dass andere Organisationen da hineinblicken sollten?

MK: Es hängt davon ab, in welchem Sektor Sie sich befinden. Allgemein war die Botschaft, die aus dem AI Safety Summit hervorging, dass es im Laufe der Geschichte der Welt bestimmte Sektoren gab, die als etwas unsicher galten, deren Einsatz die Menschen nervös machte, aber sie sind es nicht mehr. Durch Sicherheitsstandards haben wir diese Risiken gemanagt und das Vertrauen der Gesellschaft gewonnen. Wenn wir auf die Luftfahrt oder den Transport im Allgemeinen schauen, macht sich niemand Sorgen, in ein Flugzeug zu steigen, weil sie wissen, dass es strenge Sicherheitsprüfungen und Vorschriften gibt. Wenn wir auf die Pharmaindustrie und den stufenweisen Ansatz zu klinischen Studien blicken, ist dies ein Ansatz, den einige Leute vorschlagen, den wir für Grundmodelle anwenden sollten. Ein Teil der Mission, die die Sicherheitsinstitute haben, ist es, auf die Übertragbarkeit von Standards aus diesen hochregulierten Sektoren in das KI-Universum zu schauen. 

Die drei Verteidigungslinien sind recht spezifisch für den Finanzdienstleistungssektor. Aber das Wesentliche macht trotzdem auch für andere Industrien Sinn. Die erste Linie ist das Unternehmen, die Produkteigentümer. Sie besitzen das Risiko und tragen die Verantwortung, die Risiken zu identifizieren, die Kontrollen zu identifizieren, die Minderungen zu implementieren und die Ergebnisse zu überwachen. Die Verantwortung liegt beim Unternehmen. Die zweite Linie sind all Ihre Unterstützungspartner - die Risikomanager, die Anwälte, das Daten-Governance-Team, das Cybersicherheitsteam usw. Sie geben Fachexpertise, durch interdisziplinäre Workshops, um alle Fragen zur Unternehmenslösung zu identifizieren, helfen dem Unternehmen, alle Risiken quantitativ zu registrieren und zu bewerten gegen die typische Risikobereitschaft für ein bestimmtes Projekt. Die zweite Linie hilft Ihnen bei der Überwachung. Die dritte Linie sind die Auditoren, die hereinkommen und periodisch überprüfen, dass all die Arbeit, die Sie in Bezug auf die Identifizierung und das Management von Risiken getan haben, wie Sie gesagt haben, gemacht wurde. Allgemein handelt es sich um diesen Punkt, sich Branchen anzuschauen, in denen sie bereits fortgeschrittene Sicherheitsmaßnahmen im Einsatz haben, und welche Übertragbarkeit sie auf diesen Sektor haben. 

Es ist entscheidend, dass die Maßnahmen spezifisch zu dem sind, was Sie tun. Wenn Sie ein B2B-Unternehmen betreiben, das tabulare Daten Backoffice, logistische Regression und Erkennung von Anomalien betreibt, sind die grundlegendsten Menschenrechtsfragen nicht notwendigerweise die größten Risiken der Nutzung Ihrer KI. 

Wir haben dort einen wirklich interessanten Punkt berührt über die Risikoverantwortung. Das führt uns direkt zu Fragen rund um Rechenschaftspflicht. Wo denken Sie, liegt die ultimative Rechenschaftspflicht beim Management von KI-Risiken über die gesamte Wertschöpfungskette hinweg?

CD: Wir haben im Ada Lovelace Institute viel über diese Frage nachgedacht. Zusammen mit dem, was Martin sagt, lässt sich das Konzept mehrerer Verteidigungslinien gut auf die KI-Wertschöpfungskette übertragen. Eine der Herausforderungen, die wir mit dem EU-KI-Gesetz hatten, ist der Fokus auf die Einsatzphase, weil es die Produktsicherheitsperspektive eingenommen hat. In unserer Forschung am Institut finden wir ständig, dass es viel komplexer ist als das. Risiken können an jedem Punkt der Wertschöpfungskette entstehen, also gibt es keine einheitliche Antwort darauf, wo die Rechenschaftspflicht zugewiesen werden sollte. 

Klar ist jedoch, dass die Rechenschaftspflicht entlang der Wertschöpfungskette zugewiesen werden sollte. Zum Beispiel werden Entscheidungen, die in der Design- und Entwicklungsphase oder darüber, welche Daten in das Modell eingespeist werden, getroffen werden, definitiv einige Auswirkungen auf die Ausgaben haben, auch auf die Anwendungsebene, wenn dieses bereitgestellt wird. Darüber nachzudenken, wo das Risiko entsteht, ist ein nützliches Konzept, sich darauf zu fokussieren. Die Entstehung von Risiko ist sehr wichtig. Die Risikovermehrung ist auch etwas, worauf sich Regulierungsbehörden konzentrieren sollten. Risiko kann sich vermehren, zum Beispiel, wenn es in einen Cloud-Hosting-Dienst hochgeladen wird, wenn es über API-Zugriff bereitgestellt wird, dann ist wirklich, wenn etwas potenziell Schädliches durch breiteren Zugang stark vergrößert werden kann. Dies kann ein nützlicher Interventionspunkt für Regulierungsbehörden sein, um zu fragen, wo das Risiko entsteht und wie es gemindert werden kann.

Wir können nicht klar sagen, wo die Rechenschaftspflicht liegt - sie muss geteilt und sehr gezielt dort zugeteilt werden, wo das Risiko entsteht. Es gibt einige interessante Governance-Modelle, aus denen wir in anderen Sektoren lernen können. Zum Beispiel die drei Verteidigungslinien. Die Regulierung der Biowissenschaften in den USA ist eine, die wir uns kürzlich angeschaut haben - im Grunde genommen, wie eine FDA für KI aussehen könnte. Wir werden in den nächsten Tagen Forschung dazu veröffentlichen. Der entscheidende Punkt ist, Zugang zu hochwertigen Informationen zu erhalten, um das Informationsasymmetrie zu adressieren, die wir zwischen Entwicklern und Regulierungsbehörden sehen. Die Food and Drug Administration (FDA) hat Zugang zu Informationen, um medizinische Geräte zu regulieren, zum Beispiel. Es gibt eine laufende Beziehung zwischen Entwickler und Regulierungsbehörde während des Lebenszyklus des Produkts. Es gibt Optionen für gezielte Prüfungen basierend auf bestimmten Standards. Dies ist eine gute Möglichkeit, Wertschöpfungsketten anzugehen, bei denen die Risikoverursachung unklar ist, und es ist auch eine gute Möglichkeit für Regulierungsbehörden, zu lernen und über die Zeit zu expandieren, indem sie Prüfungsstellen finden, wo sie Zugang zu hochwertigen Informationen erhalten können. 

Es gibt signifikante Verantwortung vor dem Markteintritt auf den Entwicklern und Arbeitgebern. Dann gibt es in der Nachmarktphase einen Bedarf für eine starke Regulierungsbehörde, die Risiken während des Lebenszyklus überprüfen kann. Dies erreicht wahrscheinlich die zweite und dritte Verteidigungslinie, die durch das unterstützt werden sollten, was wir als Inspektionsökosystem bezeichnen. Das bedeutet Zugang für Auditoren, wie Martin erwähnt, oder Zugang für anerkannten „Red Teamern“.

Die Hauptherausforderung ist eine Frage der Anreize. Das KI-Gesetz wird wahrscheinlich keine Verpflichtungen setzen, unabhängige Prüfungen oder Angriffsversuche durch anerkannten „Red Team“ zu haben. Die Frage ist, welche Anreize es für Anbieter gibt, die sich möglicherweise nicht dieser Art von Prüfung ohne einen regulatorischen Haken öffnen würden. Darüber werden wir in Zukunft nachdenken.

Wir haben eine Frage aus dem Publikum, die lautet: Arbeiten Sie an einem Mapping-Dokument, das den NIST-Risikomanagement-Rahmen auf das EU-KI-Gesetz abbildet?

CA: Es gibt so viele verschiedene Mapping-Übungen mit dem Risikomanagement-Rahmen (RMF), mit dem EU-KI-Gesetz, mit verschiedenen anderen Vorschlägen, und ich bin glücklich, einige Ressourcen zu ziehen und sie mit Ihnen zu teilen, damit Sie sie haben können. 

MK: Selbst wenn ein solches Dokument existierte, wird es keinen Zeitpunkt in der Zukunft geben, an dem wir vollständige rechtliche Sicherheit über die Anforderungen haben, die jeder in einer bestimmten Gerichtsbarkeit hat. Es wird immer dynamisch sein. Wir werden immer mit einem gewissen Maß an Unsicherheit arbeiten und uns daran gewöhnen müssen. Teil der Lösung ist es, eigene Standards zu entwickeln, die spezifisch für Ihren eigenen Kontext sind. Gehen Sie zurück zum Anfang und legen Sie es nicht den politischen Entscheidungsträgern überlassen, arbeiten Sie es selbst in Ihrem eigenen Kontext aus. Definieren Sie einige Ihrer eigenen Standards und erstellen Sie einen Prüfpfad dazu. Sie können diesen Prüfpfad verwenden, wenn Sie Transparenz für Rechenschaftspflicht geben wollen, für jede Phase des Lebenszyklus.

Aber ich würde jeden von der Vorstellung abraten, dass, wenn sie nur die Standards und Anforderungen der verschiedenen Gerichtsbarkeiten in ein LLM oder eine Plattform werfen und eine Organisation alles nur abhaken muss, um gut zu sein, nicht realistisch ist, weil dies eine dynamische Umgebung bleiben wird. 

RD: Ich stimme völlig zu. Wir veröffentlichen sehr bald eine kostenlose KI-Richtlinienanleitung, die genau auf diese Punkte eingeht, bei denen Sie einige dieser Rahmen an Ihre Organisation anpassen müssen und durchgehen und verstehen, was für Sie wichtig ist. Es geht nicht darum, Dinge nur von der Stange zu nehmen. 

Es gibt eine Frage zu geistigem Eigentum und wie sich das in diesem Bereich entwickeln wird. 

Ryan: Anreize sind in all dem auch ein zentraler Punkt, und die Anreize sind nicht immer das, was man denken könnte. Um ein Beispiel zu geben, wie sich das derzeit entwickelt, mit vielen dieser großen Grundmodelle gibt es tiefe Bedenken betreffend geistigem Eigentum, weil ihre Daten von überallher stammen. Was einige der größeren Anbieter tun - diejenigen, die bereits große Datensätze besitzen - ist, geistige Eigentumsentschädigungen anzubieten und zu sagen: „Wir werden Sie gegen jede Art von Anspruch schützen, den jemand jemals bringen könnte, dass Sie gegen geistiges Eigentumsrecht irgendwo in der Welt verstoßen haben, weil wir so sicher sind, dass wir alle Daten besitzen, auf denen dieses Modell trainiert wurde, dass wir glauben, dass dies niemals passieren wird, somit können wir Ihnen sicher diese Schadloshaltung geben“. Das inspiriert Vertrauen in diese Art von Produkten.

Anstatt auf spezielle Regeln zum geistigen Eigentum und diese großen Modelle zu warten, ergreifen Organisationen die Initiative und sagen, wir werden dieses Risiko komplett aus der Hand der Kunden nehmen. Wir werden unsere Tools vertrauenswürdig machen. Ich denke, das ist wirklich überzeugend, und es zeigt, wie die Anreize manchmal anders sind, als man zunächst denkt. Ebenso kann man auf den Bereich Cybersecurity blicken, in dem es viele hohe Standards gibt, die SaaS-Unternehmen (Software as a Service) erfüllen müssen, wie z.B. ISO/IEC 27001 und SOC 2, die nicht von Regulierungsbehörden gefordert werden. 

Aber es gibt Marktanreize für Organisationen, Standards zu erfüllen, weil niemand Ihre Software kauft, wenn Sie nicht die höchstmöglichen Sicherheitsstandards zum Schutz ihrer Daten erfüllen. Dieser Marktanreiz wird manchmal übersehen.

Die Exekutivanordnung wird große Auswirkungen haben, aber es gibt auch viele Initiativen auf staatlicher Ebene in den USA, nicht wahr? Ich denke zum Beispiel an das New Yorker Lokalgesetz 144, es gibt anscheinend Initiativen auf staatlicher Ebene, die sich auf spezifische Branchen konzentrieren. Wie denken Sie, dass all diese Bewegungen mit dem umfassenderen Bundesstück interagieren werden?

CA: Es ist ein wirklich guter Punkt, den Sie erwähnt haben. Wir werden im nächsten Jahr tonnenweise staatliche Aktivitäten sehen, insbesondere bei fehlender Kongressaktion. Es gab viel Fokus auf die AI Insight-Foren des Mehrheitsführers Chuck Schumer im Senat. Er hat etwa 10 verschiedene Fokus-Rundtische mit führenden KI-Experten veranstaltet, mit weiteren Diskussionen zu speziellen Themen wie Transparenz und Erklärbarkeit sowie nationale Sicherheit, Voreingenommenheit und Bürgerrechte. Aber die politischen Realitäten in Washington sind, wie sie sind. Wir haben im nächsten Jahr eine große Wahl. Eine sehr entscheidende Wahl. Selbst wenn wir Fortschritte im Senat zu den durch die Insight-Foren und der Umsetzung der Exekutivanordnung informierten Gesetzgebungen machen, ist es sehr unwahrscheinlich, dass wir einen umfassenden Gesetzesentwurf zum Abschluss bringen oder viele der KI-Schäden ansprechen, über die wir uns Sorgen machen. 

In diesem Vakuum haben viele Staaten bereits begonnen, einzuspringen. Die Stadt New York hat das Lokalgesetz 144 verabschiedet, das Voreingenommenheitsprüfungen für jeglichen Einsatz der KI-Technologie bei Einstellungen sowohl für Einstellungen als auch für die Beschäftigung erfordert. Wenn Ihr Unternehmen jegliche Art von Mitarbeiterüberwachung oder Interviews oder Check-Ins durch KI-Technologie durchführt, müssen Sie eine Voreingenommenheitsprüfung durchführen. Die Implementierung wird gerade noch geklärt. Wir werden viele sektorspezifische Gesetze sehen, ebenso wie Gesetze zur Förderung von KI-Talenten und Effizienz in der staatlichen Regierung. Zu den sektorspezifischen Gesetzen gibt es in Colorado ein Versicherungsgesetz, das untersucht, wie Datenquellen verwendet werden und wie Daten durch KI für Versicherungsentscheidungen analysiert werden. Dieses Gesetz steht jetzt im Gesetzbuch, mit einer gerade stattfindenden Implementierung. In Connecticut hat der Staatssenator James Maroney eine zwischenstaatliche Arbeitsgruppe zu KI eingeführt, die eine Gruppe verschiedener Gesetzgeber auf staatlicher Ebene zusammenbringt, die diese Themen ernst nehmen, sei es im Kontext von Voreingenommenheit und Diskriminierung oder Wahlintegrität.

Und könnten Sie uns sagen, wie könnte die Präsidentschaftswahl 2024 die Umsetzung der Exekutivanordnung von Präsident Biden zu KI beeinflussen? 

CA: Ich bin mir sehr bewusst, dass die Biden-Administration sehr darauf focused ist, so viel wie möglich dieser Exekutivanordnung zu implementieren, da wir in das Wahljahr gehen. Insbesondere im Kontext der letzten Exekutivanordnung zu KI, die in Bezug auf die Umsetzung nicht ganz ins Schwarze getroffen hat. Es wird wirklich interessant sein zu sehen, was nächstes Jahr passiert. Trump selbst hat bereits tatsächlich im Wahlkampf gesagt, dass er am ersten Tag die „Woke“-KI-Exekutivanordnung von Präsident Biden aufheben wird, um die Meinungsfreiheit zu schützen. Unabhängig von Ihren politischen Neigungen denke ich, dass dies sehr vorhersehbare Diskussionspunkte und Positionen sind und meine Erkenntnis hier ist, dass KI-Governance ein politisches Thema in den USA ist und dies auch weiterhin sein wird, insbesondere da wir uns auf diese Wahl zubewegen. Es gibt viel zu beobachten auf Bundesebene. Aber noch wichtiger, achten Sie darauf, was auf staatlicher Ebene passiert, denn es gibt viele aufstrebende gewählte Beamte, die wirklich daran interessiert sind, an diesen Themen zu arbeiten.

Nächstes Jahr sind auch Wahlen in Europa. Wie wird das den Zeitplan für das EU-KI-Gesetz beeinflussen, insbesondere für seine Inkraftsetzung?

CD: Ich hoffe, es wird es überhaupt nicht beeinflussen. Es besteht eine geringe Chance, dass es dies beeinflussen könnte. Wenn ja, müssen sie die technische Ausarbeitung des Textes bis spätestens März abschließen, damit es nicht durch die Wahl beeinträchtigt wird. Die Arbeit wird also im Wesentlichen ab März beginnen. Im Moment sieht es so aus, als hätten sie mehr als genug Zeit. Ich erwarte keine Probleme. Es könnte welche geben, wenn es erheblichen Widerstand gibt. Frankreich könnte in irgendeiner destruktiven Weise intervenieren, um das Gesetz zu blockieren. Wenn das passieren sollte, besteht das Risiko, dass bis März keine Einigung erzielt wird. In der Praxis würde das bedeuten, dass die Arbeit bis 2025 verschoben wird, was sehr kompliziert wäre, um es milde auszudrücken, da dann neue Abgeordnete gewählt würden. Es könnten nicht dieselben Personen im Parlament sein, sodass neue Personen die Akte mit unterschiedlichen Prioritäten aufnehmen.

Angenommen, sie machen weiter, gibt es eine zweijährige Anwendungsfrist nach der Veröffentlichung im Amtsblatt der EU. Sie werden den Text wahrscheinlich Anfang 2024 veröffentlichen, sodass 2026 das Jahr sein wird, in dem die meisten KI-Anwendungen konform sein müssen. Für allgemeine KI-Modelle mit systemischen Risiken ist das Ziel, ein Jahr nach Veröffentlichung in die Anwendungsphase zu treten.

Damit endet eine sehr aufschlussreiche Diskussion über die verantwortungsvolle Entwicklung und Governance von KI-Systemen. Ich möchte unseren Podiumsteilnehmern Connor, Martin, Chloe und Ryan herzlich für das Teilen ihrer Expertise und Perspektiven danken. Ein großer Dank auch an alle unsere Teilnehmer, dass Sie bei uns waren - ich lade Sie ein, diesen Dialog auf unserer Veranstaltungsseite und in den sozialen Medien fortzusetzen. 

Die volle Webinar-Aufzeichnung ist auf YouTube verfügbar.

Erkunden Sie mehr

Erkunden Sie mehr

Abonnieren Sie unseren Newsletter

Indem Sie sich anmelden, stimmen Sie der Enzai Datenschutzerklärung zu.

Abonnieren Sie unseren Newsletter

Indem Sie sich anmelden, stimmen Sie der Enzai Datenschutzerklärung zu.

Abonnieren Sie unseren Newsletter

Indem Sie sich anmelden, stimmen Sie der Enzai Datenschutzerklärung zu.

Abonnieren Sie unseren Newsletter

Indem Sie sich anmelden, stimmen Sie der Enzai Datenschutzerklärung zu.

Konformität durch Design

Konformität durch Design

ISO 27001

Enzai ist nach ISO 27001 zertifiziert und ist dies seit 2023. Wir verpflichten uns zu jährlichen Audits, die von NQA durchgeführt werden, und arbeiten eng mit unserem Sicherheitsberatungspartner Instil zusammen, um unsere Sicherheitslage kontinuierlich zu aktualisieren und zu verbessern.

DSGVO

ISO 27001

Enzai ist nach ISO 27001 zertifiziert und ist dies seit 2023. Wir verpflichten uns zu jährlichen Audits, die von NQA durchgeführt werden, und arbeiten eng mit unserem Sicherheitsberatungspartner Instil zusammen, um unsere Sicherheitslage kontinuierlich zu aktualisieren und zu verbessern.

DSGVO

KI-Governance

KI-Governance

Infrastruktur

Infrastruktur

Entwickelt für Vertrauen.

Entwickelt für Vertrauen.

Ermöglichen Sie Ihrer Organisation die Einführung, Steuerung und Überwachung von KI mit unternehmensgerechtem Vertrauen. Entwickelt für regulierte Organisationen, die im großen Maßstab operieren.

Verbinden Sie nahtlos Ihre bestehenden Systeme, Richtlinien und KI-Workflows – alles auf einer einheitlichen Plattform.

Verbinden Sie nahtlos Ihre bestehenden Systeme, Richtlinien und KI-Workflows – alles auf einer einheitlichen Plattform.