Entdecken Sie das vollständige Sortiment an KI-Governance-Produkten von Enzai, das darauf ausgelegt ist, Organisationen dabei zu helfen, KI mit Vertrauen zu verwalten, zu überwachen und zu skalieren. Von strukturierten Aufnahmen und zentralisierten KI-Inventaren bis hin zu automatisierten Bewertungen und Echtzeitüberwachung bietet Enzai die Bausteine, um Governance direkt in alltägliche KI-Workflows einzubetten — ohne die Innovation zu verlangsamen.

Enzai

Vorschriften für KI

Förderung der Erklärbarkeit für generative KI-Systeme

Vorschriften für KI

Förderung der Erklärbarkeit für generative KI-Systeme

Vorschriften für KI

Förderung der Erklärbarkeit für generative KI-Systeme

Wie sollten Fachleute die Funktionsweise von generativen KI-Systemen erklären?

Belfast

Belfast

3 Minuten Lesezeit

Von

Von

Var Shankar

Var Shankar

Erklärbarkeit vs. Interpretierbarkeit

Erklärbarkeit vs. Interpretierbarkeit

Da Transparenz bei KI zunehmend zur gesetzlichen Pflicht wird, müssen Fachanwender zwischen Interpretierbarkeit (wie ein Modell technisch funktioniert) und Erklärbarkeit (warum es eine bestimmte Entscheidung in für Menschen verständlichen Begriffen getroffen hat) unterscheiden.

Da Transparenz bei KI zunehmend zur gesetzlichen Pflicht wird, müssen Fachanwender zwischen Interpretierbarkeit (wie ein Modell technisch funktioniert) und Erklärbarkeit (warum es eine bestimmte Entscheidung in für Menschen verständlichen Begriffen getroffen hat) unterscheiden.

Strategie für die Lebenszyklusdokumentation

Strategie für die Lebenszyklusdokumentation

Um unterschiedlichen Zielgruppen – von Aufsichtsbehörden bis hin zu betroffenen Endnutzern – angemessene Erklärungen bieten zu können, müssen Unternehmen eine strenge, hochwertige Dokumentation pflegen und neue Forschungstaxonomien übernehmen, die auf ihre jeweiligen Anwendungsfälle zugeschnitten sind.

Um unterschiedlichen Zielgruppen – von Aufsichtsbehörden bis hin zu betroffenen Endnutzern – angemessene Erklärungen bieten zu können, müssen Unternehmen eine strenge, hochwertige Dokumentation pflegen und neue Forschungstaxonomien übernehmen, die auf ihre jeweiligen Anwendungsfälle zugeschnitten sind.

Themen

KI-Durchsetzung
DOJ-Richtlinien
Unternehmensverantwortung
Regulierungsrisiken

Themen

Erklärbarkeit ist ein wesentlicher Faktor in der Vertrauenswürdigkeit eines jeden KI-Systems. Zunehmend ist es auch eine rechtliche Anforderung. Dennoch ist es bekanntermaßen schwierig, die Funktionsweise generativer KI-Systeme zu verstehen und zu erklären.

Organisationen, die an der Spitze der verantwortungsvollen KI-Einführung stehen, investieren zunehmend erhebliche Ressourcen in die Erklärbarkeit von KI. JP Morgan hat ein Explainable AI Center of Excellence geschaffen und ausgestattet, das seine Bemühungen in anderen Bereichen wie Fairness, Verantwortlichkeit und Compliance informiert. DARPA, die F&E-Behörde des US-Verteidigungsministeriums, hat bedeutende Anstrengungen unternommen, um die Erklärbarkeit von KI in Bereichen wie Medizin und Transportwesen voranzutreiben.

Was ist also die Erklärbarkeit von KI und wie sollten Organisationen sie für generative KI-Systeme angehen?

Was ist Erklärbarkeit?

Der NIST-Framework für das Management von KI-Risiken beschreibt Erklärbarkeit als "eine Darstellung der Mechanismen, die der Funktionsweise von KI-Systemen zugrunde liegen." Die entscheidende Frage bei der Erklärbarkeit von KI lautet also: "Warum hat das KI-System eine bestimmte Ausgabe erzeugt?" Genauer gesagt, warum hat die Kombination von Modellen und Daten eine bestimmte Ausgabe erzeugt?

Es gibt viele potenzielle Zielgruppen für die Erklärbarkeit von KI. Dazu gehören die Entwickler des KI-Systems, einsetzende Organisationen, menschliche Operatoren, Verkäufer/Käufer, Compliance-Teams, Regulierungsbehörden, betroffene Endnutzer und die Öffentlichkeit. Jede dieser Zielgruppen bevorzugt in der Regel Kommunikation auf unterschiedlichen Detailebenen.

Den Erklärungen zugrunde liegt etwas Technischeres - Interpretierbarkeit. Wenn Erklärbarkeit das „Warum“ ist, ist Interpretierbarkeit das „Wie“.

Beispiel eines Bankdarlehens

Nehmen Sie das Beispiel einer Bank, die ein KI-System verwendet, um Kreditbeantragungen zu genehmigen oder abzulehnen. In den USA muss eine Bank bei der Ablehnung eines Kredits dem Antragsteller eine Erklärung geben, warum die Entscheidung getroffen wurde. Der Zweck dieser Erklärung ist es, zu zeigen, dass genaue Informationen auf eine Art und Weise verwendet wurden, die den Entscheidungsprozessen der Bank entspricht. Sie gibt dem Antragsteller außerdem die Möglichkeit, fehlerhafte Informationen zu korrigieren oder die Strenge des Prozesses in Frage zu stellen.

Ein Kreditnehmer bevorzugt wahrscheinlich klar kommunizierte Informationen wie „Ihre Kreditwürdigkeit lag 20 Punkte unter der Schwelle für die automatische Genehmigung und zusätzlich waren die von Ihnen angegebenen Vermögenswerte um 8.000 Dollar zu gering, um das Darlehen sofort zu sichern.“

Doch um diese Art von klarer Aussage machen zu können, muss das Daten- und KI-Team der Bank verstehen, wie die Dateneingaben und die Modelle, die das KI-System bilden, zu den Ausgaben führen (KI-Interpretierbarkeit). Dies erfordert wiederum ein Verständnis dafür, wie die Modelle und Datensätze entwickelt wurden und welcher Art von Governance sie während ihres Lebenszyklus unterzogen wurden.

Erklärbarkeit für Generative KI

Da generative KI-Systeme auf massiven neuronalen Netzwerken basieren, die riesige Datenmengen trainieren und verarbeiten, sind ihre Funktionsweisen schwer zu verstehen und zu erklären. Selbst die Entwickler der leistungsfähigsten generativen KI-Systeme haben Schwierigkeiten, zu erklären, warum ihre Systeme in bestimmten Fällen fehlerhafte Ausgaben erzeugen.

Forscher haben verschiedene Ansätze zu diesem Problem verfolgt, und Wissenschaftler haben diese Ansätze untersucht. Zum Beispiel hat Johannes Schneider von der Universität Liechtenstein eine Taxonomie von Forschungsansätzen zur Erklärbarkeit generativer KI-Systeme entwickelt.

__wf_reserved_inherit

Was bedeutet das für Praktiker?

Führungskräfte innerhalb von Organisationen verstehen am besten ihre Anwendungsfälle, die Bedeutung ihrer Auswirkungen und ihre regulatorischen Anforderungen. Diese Überlegungen sollten die Ziele ihrer Erklärungsbemühungen für generative KI bestimmen. Die Standards werden höher sein, wenn die Einsätze höher sind – wie in bestimmten medizinischen und finanziellen Anwendungsfällen.

Die Zusammenarbeit über Funktionen hinweg, um eine qualitativ hochwertige Dokumentation während des gesamten Lebenszyklus eines jeden KI-Systems zu erhalten und zu entwickeln, ist eine Voraussetzung für Bemühungen um die Erklärbarkeit von KI. Darüber hinaus ist es wichtig, die Fähigkeit zu schaffen, die für die häufig verwendeten KI-Anwendungsfälle der Organisation relevanten Erklärbarkeitsmethoden für generative KI zu überwachen und anzuwenden.

Enzai ist hier, um zu helfen

Die Enzai AI GRC-Plattform kann Ihrem Unternehmen helfen, KI entsprechend bewährten Verfahren und aufkommenden Vorschriften, Standards und Frameworks, wie dem EU-KI-Gesetz, dem Colorado-KI-Gesetz, dem NIST AI RMF und der ISO/IEC 42001, einzusetzen. Um mehr zu erfahren, kontaktieren Sie uns hier.

Erkunden Sie mehr

Erkunden Sie mehr

Abonnieren Sie unseren Newsletter

Indem Sie sich anmelden, stimmen Sie der Enzai Datenschutzerklärung zu.

Abonnieren Sie unseren Newsletter

Indem Sie sich anmelden, stimmen Sie der Enzai Datenschutzerklärung zu.

Abonnieren Sie unseren Newsletter

Indem Sie sich anmelden, stimmen Sie der Enzai Datenschutzerklärung zu.

Abonnieren Sie unseren Newsletter

Indem Sie sich anmelden, stimmen Sie der Enzai Datenschutzerklärung zu.

Konformität durch Design

Konformität durch Design

ISO 27001

Enzai ist nach ISO 27001 zertifiziert und ist dies seit 2023. Wir verpflichten uns zu jährlichen Audits, die von NQA durchgeführt werden, und arbeiten eng mit unserem Sicherheitsberatungspartner Instil zusammen, um unsere Sicherheitslage kontinuierlich zu aktualisieren und zu verbessern.

DSGVO

ISO 27001

Enzai ist nach ISO 27001 zertifiziert und ist dies seit 2023. Wir verpflichten uns zu jährlichen Audits, die von NQA durchgeführt werden, und arbeiten eng mit unserem Sicherheitsberatungspartner Instil zusammen, um unsere Sicherheitslage kontinuierlich zu aktualisieren und zu verbessern.

DSGVO

KI-Governance

KI-Governance

Infrastruktur

Infrastruktur

Entwickelt für Vertrauen.

Entwickelt für Vertrauen.

Ermöglichen Sie Ihrer Organisation die Einführung, Steuerung und Überwachung von KI mit unternehmensgerechtem Vertrauen. Entwickelt für regulierte Organisationen, die im großen Maßstab operieren.

Verbinden Sie nahtlos Ihre bestehenden Systeme, Richtlinien und KI-Workflows – alles auf einer einheitlichen Plattform.

Verbinden Sie nahtlos Ihre bestehenden Systeme, Richtlinien und KI-Workflows – alles auf einer einheitlichen Plattform.