Wie sollten Fachleute die Funktionsweise von generativen KI-Systemen erklären?
•
•
3 Minuten Lesezeit
Themen
Erklärbarkeit ist ein wesentlicher Faktor in der Vertrauenswürdigkeit eines jeden KI-Systems. Zunehmend ist es auch eine rechtliche Anforderung. Dennoch ist es bekanntermaßen schwierig, die Funktionsweise generativer KI-Systeme zu verstehen und zu erklären.
Organisationen, die an der Spitze der verantwortungsvollen KI-Einführung stehen, investieren zunehmend erhebliche Ressourcen in die Erklärbarkeit von KI. JP Morgan hat ein Explainable AI Center of Excellence geschaffen und ausgestattet, das seine Bemühungen in anderen Bereichen wie Fairness, Verantwortlichkeit und Compliance informiert. DARPA, die F&E-Behörde des US-Verteidigungsministeriums, hat bedeutende Anstrengungen unternommen, um die Erklärbarkeit von KI in Bereichen wie Medizin und Transportwesen voranzutreiben.
Was ist also die Erklärbarkeit von KI und wie sollten Organisationen sie für generative KI-Systeme angehen?
Was ist Erklärbarkeit?
Der NIST-Framework für das Management von KI-Risiken beschreibt Erklärbarkeit als "eine Darstellung der Mechanismen, die der Funktionsweise von KI-Systemen zugrunde liegen." Die entscheidende Frage bei der Erklärbarkeit von KI lautet also: "Warum hat das KI-System eine bestimmte Ausgabe erzeugt?" Genauer gesagt, warum hat die Kombination von Modellen und Daten eine bestimmte Ausgabe erzeugt?
Es gibt viele potenzielle Zielgruppen für die Erklärbarkeit von KI. Dazu gehören die Entwickler des KI-Systems, einsetzende Organisationen, menschliche Operatoren, Verkäufer/Käufer, Compliance-Teams, Regulierungsbehörden, betroffene Endnutzer und die Öffentlichkeit. Jede dieser Zielgruppen bevorzugt in der Regel Kommunikation auf unterschiedlichen Detailebenen.
Den Erklärungen zugrunde liegt etwas Technischeres - Interpretierbarkeit. Wenn Erklärbarkeit das „Warum“ ist, ist Interpretierbarkeit das „Wie“.
Beispiel eines Bankdarlehens
Nehmen Sie das Beispiel einer Bank, die ein KI-System verwendet, um Kreditbeantragungen zu genehmigen oder abzulehnen. In den USA muss eine Bank bei der Ablehnung eines Kredits dem Antragsteller eine Erklärung geben, warum die Entscheidung getroffen wurde. Der Zweck dieser Erklärung ist es, zu zeigen, dass genaue Informationen auf eine Art und Weise verwendet wurden, die den Entscheidungsprozessen der Bank entspricht. Sie gibt dem Antragsteller außerdem die Möglichkeit, fehlerhafte Informationen zu korrigieren oder die Strenge des Prozesses in Frage zu stellen.
Ein Kreditnehmer bevorzugt wahrscheinlich klar kommunizierte Informationen wie „Ihre Kreditwürdigkeit lag 20 Punkte unter der Schwelle für die automatische Genehmigung und zusätzlich waren die von Ihnen angegebenen Vermögenswerte um 8.000 Dollar zu gering, um das Darlehen sofort zu sichern.“
Doch um diese Art von klarer Aussage machen zu können, muss das Daten- und KI-Team der Bank verstehen, wie die Dateneingaben und die Modelle, die das KI-System bilden, zu den Ausgaben führen (KI-Interpretierbarkeit). Dies erfordert wiederum ein Verständnis dafür, wie die Modelle und Datensätze entwickelt wurden und welcher Art von Governance sie während ihres Lebenszyklus unterzogen wurden.
Erklärbarkeit für Generative KI
Da generative KI-Systeme auf massiven neuronalen Netzwerken basieren, die riesige Datenmengen trainieren und verarbeiten, sind ihre Funktionsweisen schwer zu verstehen und zu erklären. Selbst die Entwickler der leistungsfähigsten generativen KI-Systeme haben Schwierigkeiten, zu erklären, warum ihre Systeme in bestimmten Fällen fehlerhafte Ausgaben erzeugen.
Forscher haben verschiedene Ansätze zu diesem Problem verfolgt, und Wissenschaftler haben diese Ansätze untersucht. Zum Beispiel hat Johannes Schneider von der Universität Liechtenstein eine Taxonomie von Forschungsansätzen zur Erklärbarkeit generativer KI-Systeme entwickelt.

Was bedeutet das für Praktiker?
Führungskräfte innerhalb von Organisationen verstehen am besten ihre Anwendungsfälle, die Bedeutung ihrer Auswirkungen und ihre regulatorischen Anforderungen. Diese Überlegungen sollten die Ziele ihrer Erklärungsbemühungen für generative KI bestimmen. Die Standards werden höher sein, wenn die Einsätze höher sind – wie in bestimmten medizinischen und finanziellen Anwendungsfällen.
Die Zusammenarbeit über Funktionen hinweg, um eine qualitativ hochwertige Dokumentation während des gesamten Lebenszyklus eines jeden KI-Systems zu erhalten und zu entwickeln, ist eine Voraussetzung für Bemühungen um die Erklärbarkeit von KI. Darüber hinaus ist es wichtig, die Fähigkeit zu schaffen, die für die häufig verwendeten KI-Anwendungsfälle der Organisation relevanten Erklärbarkeitsmethoden für generative KI zu überwachen und anzuwenden.
Enzai ist hier, um zu helfen
Die Enzai AI GRC-Plattform kann Ihrem Unternehmen helfen, KI entsprechend bewährten Verfahren und aufkommenden Vorschriften, Standards und Frameworks, wie dem EU-KI-Gesetz, dem Colorado-KI-Gesetz, dem NIST AI RMF und der ISO/IEC 42001, einzusetzen. Um mehr zu erfahren, kontaktieren Sie uns hier.
Ermöglichen Sie Ihrer Organisation die Einführung, Steuerung und Überwachung von KI mit unternehmensgerechtem Vertrauen. Entwickelt für regulierte Organisationen, die im großen Maßstab operieren.

