Glossar zur KI-Governance.

Verstehen Sie die wichtigsten Begriffe und Konzepte der KI-Governance mit einfachen Definitionen, die Ihnen die Navigation auf der Enzai-Plattform erleichtern.

Danke! Deine Einreichung ist eingegangen!
Hoppla! Beim Absenden des Formulars ist etwas schief gelaufen.
Reifegradmodell der Unternehmensführung

Ein abgestuftes Framework, das bewertet, wie fortgeschritten die KI-Governance-Praktiken einer Organisation sind, von ad hoc bis optimiert.

Reproduzierbarkeit

Die Fähigkeit, KI-Modellergebnisse unter Verwendung derselben Daten, Codes und Konfigurationen konsistent zu regenerieren und so Transparenz und Überprüfbarkeit zu gewährleisten.

Richtlinie zur sanktionierten Nutzung

Definierte Regeln und Kontrollen, die genehmigte Kontexte, Benutzer und Zwecke für den Betrieb des KI-Systems angeben, um Missbrauch zu verhindern.

Richtlinien zur Unternehmensführung

Ein formelles Dokument, das Regeln, Rollen und Verfahren für die KI-Entwicklung und -Überwachung innerhalb einer Organisation kodifiziert.

Risiko durch Dritte

Das Risiko, das sich aus der Abhängigkeit von externen Datenanbietern, Modellanbietern oder Serviceplattformen ergibt, die zu Compliance- oder Sicherheitslücken führen können.

Risikobeurteilung

Der Prozess der Identifizierung, Analyse und Priorisierung potenzieller Schäden oder Ausfälle in KI-Systemen zur Festlegung geeigneter Minderungsstrategien.

Risikomanagement für Lieferanten

Bewertung und Überwachung von Drittanbietern von KI-Komponenten oder -Diensten zur Identifizierung und Minderung potenzieller Compliance-, Sicherheits- oder ethischer Risiken.

Risikomanagement modellieren

Der strukturierte Prozess zur Identifizierung, Bewertung und Minderung von Risiken, die sich aus KI/ML-Modellen während ihres gesamten Lebenszyklus ergeben.

Robustheit

Die Fähigkeit eines KI-Systems, unter einer Vielzahl von schwierigen oder widrigen Bedingungen eine zuverlässige Leistung aufrechtzuerhalten.

Rotes Teaming

Ein proaktiver Testansatz, bei dem interne oder externe Experten Angriffe oder Missbrauchsszenarien simulieren, um Schwachstellen in KI-Systemen aufzudecken.

Rückverfolgbarkeit

Die Fähigkeit, jeden Schritt im KI-Lebenszyklus — von der Datenerfassung über die Modellentwicklung bis hin zur Bereitstellung — zu verfolgen und zu dokumentieren, um Audits und Forensik zu unterstützen.

Schadensbeurteilung

Bewertung potenzieller negativer Auswirkungen (physisch, psychisch, gesellschaftlich) von KI-Systemen und Definition von Minderungsstrategien.

Schwanzrisiko

Das Potenzial seltener, extremer Folgen im Verhalten oder bei der Entscheidungsfindung von KI, die außerhalb der normalen Erwartungen liegen und eine spezielle Planung zur Schadensbegrenzung erfordern.

Scorecard zur Unternehmensführung

Ein Dashboard oder eine Berichtskarte, die wichtige Kennzahlen (z. B. voreingenommene Vorfälle, Compliance-Audits) verfolgt, um die Effektivität der KI-Governance im Laufe der Zeit zu messen.

Sicherheit durch Design

Integration von Sicherheitskontrollen und Best Practices in KI-Systeme von den frühesten Entwurfsphasen an, um Sicherheitslücken und Datenschutzverletzungen zu verhindern.

Sicherheit im Netzwerk

Maßnahmen und Kontrollen (z. B. Segmentierung, Firewalls, Erkennung von Eindringlingen) zum Schutz der KI-Infrastruktur und der Datenleitungen vor unbefugtem Zugriff oder Manipulation.

Steuerbarkeit

Das Ausmaß, in dem Menschen die Entscheidungen und Verhaltensweisen eines KI-Systems steuern, beeinflussen oder außer Kraft setzen können.

Strategien zur Schadensbegrenzung

Geplante Maßnahmen (z. B. Korrektur von Verzerrungen, Umschulung, Neugestaltung von Funktionen) zur Behebung identifizierter KI-Risiken und Compliance-Lücken.

Suche nach neuronaler Architektur

Automatisierte Methoden für den Entwurf und die Optimierung neuronaler Netzwerkstrukturen, um die Modellleistung zu verbessern und gleichzeitig Komplexität und Ressourcenbeschränkungen auszugleichen.

Synthetische Daten

Künstlich generierte Datensätze, die reale Datenverteilungen nachahmen, werden verwendet, um Trainingseinheiten zu erweitern und gleichzeitig die Privatsphäre zu schützen.

Testen und Validieren

Der systematische Prozess der Bewertung von KI-Modellen anhand von Benchmarks, Randfällen und Stressbedingungen, um sicherzustellen, dass sie die Leistungs-, Sicherheits- und Compliance-Kriterien erfüllen.

Tiefes Lernen

Eine Teilmenge des maschinellen Lernens, an der neuronale Netze mit mehreren Schichten beteiligt sind und die Modellierung komplexer Muster in Daten ermöglichen.

Trainingsdatensatz

Die kuratierte Sammlung von beschrifteten oder unbeschrifteten Daten, die verwendet wird, um einem KI-Modell die Beziehungen und Muster beizubringen, die es lernen muss, um seine Aufgabe zu erfüllen.

Transferlernen

Eine Technik, bei der ein für eine Aufgabe entwickeltes Modell an eine verwandte Aufgabe angepasst wird, wodurch die Entwicklungszeit reduziert wird, aber ererbte Vorurteile berücksichtigt werden müssen.

Transparenz

Die Praxis, KI-Systemprozesse, Entscheidungslogik und Datennutzung für Interessengruppen klar und verständlich zu machen, damit sie zur Rechenschaft gezogen werden können.

Trennung der Arbeitslast

Trennung von KI-Rechenumgebungen (z. B. Entwicklung, Test, Produktion) und Datendomänen, um den Explosionsradius von Ausfällen oder Sicherheitslücken zu begrenzen.

Umgang mit fehlenden Daten

Techniken (z. B. Imputation, Löschung, Modellierung) zur Behebung von Lücken in Datensätzen zur Wahrung der Modellintegrität und Fairness.

Unausgeglichene Daten

Ein Datensatz, bei dem eine Klasse oder Kategorie anderen deutlich überlegen ist, was dazu führen kann, dass KI-Modelle sich der Mehrheitsklasse zuwenden, sofern nicht gemildert wird.

Unbeaufsichtigtes Lernen

Ein maschineller Lernansatz, bei dem Modelle Muster oder Gruppierungen in unbeschrifteten Daten ohne explizite Ergebnisorientierung identifizieren.

Unterausstattung

Ein Modellierungsproblem, bei dem ein KI-System zu einfach ist, um die zugrunde liegenden Datenmuster zu erfassen, was zu einer schlechten Leistung sowohl bei Trainingsdaten als auch bei neuen Daten führt.

Unternehmensführung

Die Reihe von Richtlinien, Verfahren, Rollen und Verantwortlichkeiten, die die ethische, rechtliche und effektive Entwicklung und den Einsatz von KI-Systemen leiten.

Unveränderliches Hauptbuch

Ein manipulationssicherer Aufzeichnungsmechanismus (z. B. Blockchain), der sicherstellt, dass einmal geschriebene Daten nicht unbemerkt geändert werden können — nützlich für KI-Audit-Trails.

Ursachenanalyse

Eine strukturierte Untersuchung, um die zugrunde liegenden Gründe für Ausfälle oder unerwartete Verhaltensweisen von KI-Systemen zu ermitteln und Abhilfemaßnahmen anzuleiten.

Validierung

Der Prozess, bei dem bestätigt wird, dass ein KI-Modell die vorgesehenen Aufgaben genau und zuverlässig erfüllt und definierte Leistungskriterien erfüllt.

Verantwortungsvolle KI

Die Praxis, KI-Systeme auf ethische, transparente und gegenüber Interessengruppen und der Gesellschaft rechenschaftspflichtige Weise zu entwerfen, zu entwickeln und einzusetzen.

Verarbeitung natürlicher Sprache (NLP)

Techniken und Werkzeuge, die es Maschinen ermöglichen, menschliche Sprache in Text- oder Sprachform zu interpretieren, zu erzeugen und zu analysieren.

Verlustfunktion

Eine mathematische Funktion, die den Unterschied zwischen vorhergesagten Ergebnissen und wahren Werten quantifiziert und als Richtschnur für Modelltraining und -optimierung dient.

Versionskontrolle

Die Praxis, Änderungen an KI-Code, -Modellen und -Datensätzen im Laufe der Zeit zu verwalten und zu verfolgen, um Reproduzierbarkeit und Überprüfbarkeit sicherzustellen.

Verteiltes Lernen

Ein maschineller Lernansatz, bei dem Trainingsdaten auf mehrere Geräte oder Standorte verteilt werden und Modelle gemeinsam trainiert werden, ohne Rohdaten auszutauschen.

Vertrauenswürdige KI

KI-Systeme, die auf ethische, zuverlässige, sichere und an menschlichen Werten und gesellschaftlichen Normen ausgerichtete Weise konzipiert und betrieben werden.

Verwaltung der Informationen

Die Richtlinien, Verfahren und Kontrollen, die die Datenqualität, den Datenschutz und die Benutzerfreundlichkeit aller Datenbestände eines Unternehmens sicherstellen, einschließlich KI-Schulungsdatensätzen.

Verwaltung des Datenlebenszyklus

Die richtlinienbasierte Verwaltung des Datenflusses während seines gesamten Lebenszyklus: von der Erstellung und ersten Speicherung bis zu dem Zeitpunkt, an dem er veraltet ist und gelöscht wird.

Verwaltung von Anwendungsfällen

Die Praxis, spezifische KI-Anwendungsfälle zu definieren, zu genehmigen und zu überwachen, um sicherzustellen, dass sie den Unternehmensrichtlinien, ethischen Standards und der Risikobereitschaft entsprechen.

Verwaltung von Kontingenten

Die Kontrollen und Beschränkungen der Nutzung von KI-Ressourcen (z. B. API-Aufrufe, Rechenzeit), um Governance-Richtlinien durchzusetzen und unkontrollierbare Kosten oder Missbrauch zu verhindern.

Verwaltung von Metadaten

Die Praxis der Erfassung und Pflege beschreibender Daten (z. B. Datenherkunft, Merkmalsdefinitionen, Modellparameter) zur Unterstützung der Rückverfolgbarkeit und Audits.

Verwaltung von Protokollen

Erfassung, Speicherung und Analyse von System- und Anwendungsprotokollen aus KI-Workflows zur Unterstützung von Audits, Reaktion auf Vorfälle und Nachverfolgung der Modellleistung.

Vetobehörde

Das formelle Recht eines Leitungsorgans oder eines Interessenvertreters, KI-Bereitstellungen, die mit inakzeptablen Risiken verbunden sind, zu blockieren oder zu verlangen.

Vision: KI-Überwachung

Die für Computer-Vision-Systeme spezifischen Verwaltungsprozesse, die Datenqualität, Bias-Prüfungen und Transparenz bei bild-/videobasierten Entscheidungen sicherstellen.

Voreingenommenheit

Systematische Fehler in den KI-Ergebnissen, die auf voreingenommene Trainingsdaten oder fehlerhafte Algorithmen zurückzuführen sind und zu unfairen Ergebnissen führen.

Vorurteile

Systematische Fehler in menschlichen oder KI-gestützten Entscheidungsprozessen, die durch kognitive Abkürzungen oder fehlerhafte Daten verursacht werden und Verzerrungen und Abhilfemaßnahmen erfordern.

WORM-Speicher (Write-Once Read-Many)

Unveränderlicher Speicher, der sicherstellt, dass Protokolle, Audit-Trails und Modellartefakte nicht mehr geändert werden können, wenn sie einmal geschrieben wurden, was die Unwiderlegbarkeit und forensische Überprüfung unterstützt.

Watchdog-Überwachung

Unabhängige Laufzeitprüfungen, die KI-Entscheidungen beobachten und Warnmeldungen oder Interventionen auslösen, wenn Richtlinien oder Schwellenwerte verletzt werden.

White-Box-Tests

Bewertung von KI-Systemen mit umfassender Kenntnis der internen Abläufe (Code, Parameter, Architektur) zur Überprüfung von Richtigkeit, Sicherheit und Konformität.

Whitelist/Blacklist-Richtlinie

Verwaltungsregel, die zulässige (Whitelist) und unzulässige (schwarze Liste) Eingaben, Funktionen oder Operationen definiert, um die Einhaltung von Vorschriften durchzusetzen und Missbrauch zu verhindern.

Whitelisting

Nur vorab genehmigte Datenquellen, Bibliotheken oder Modellkomponenten in KI-Pipelines zulassen, um das Risiko durch ungeprüfte oder bösartige Elemente zu reduzieren.

Wichtiger Leistungsindikator

Eine quantifizierbare Kennzahl (z. B. Abweichung der Modellgenauigkeit, Zeit für die Korrektur von Verzerrungen), die zur Überwachung und Berichterstattung über KI-Governance- und Compliance-Ziele verwendet wird.

Wichtiger Risikoindikator

Eine wichtige Kennzahl (z. B. Häufigkeit von Prognosen, die außerhalb des Geltungsbereichs liegen, Rate unerklärlicher Entscheidungen), die aufkommende KI-Risiken signalisiert, bevor sie eintreten.

Wissensdestillation

Eine Methode zur Übertragung von Erkenntnissen aus einem größeren „Lehrer“ -Modell in ein kleineres „Schüler“ -Modell, bei dem Leistung mit Ressourcen- und Verwaltungsbeschränkungen in Einklang gebracht werden.

Wissensgraph

Eine strukturierte Darstellung von Entitäten und ihren Beziehungen, die verwendet wird, um die Erklärbarkeit und Überprüfbarkeit von KI und die Abstimmung mit Domänenontologien zu verbessern.

Wissensmanagement

Praktiken und Tools zur Erfassung, Organisation und Weitergabe von Unternehmenswissen (z. B. Modelldokumentation, Auditprotokolle), um Reproduzierbarkeit und Kontrolle zu gewährleisten.

Workflow-Orchestrierung

Automatisierung und Sequenzierung von KI-Lebenszyklusaufgaben (Datenaufnahme, Schulung, Validierung, Bereitstellung), um Governance-Richtlinien durchzusetzen und Konsistenz sicherzustellen.

Worst-Case-Analyse

Bewertung der extremsten potenziellen Ausfälle oder Missbräuche eines KI-Systems als Grundlage für eine solide Risikominderung und Notfallplanung.

X-Validierung

Eine Methode zur Modellvalidierung (oft als „X-Val“ abgekürzt), bei der Daten in Falten aufgeteilt werden, um die Modellgeneralisierung genau zu bewerten und Überanpassungen zu erkennen.

XAI (Erklärbare KI)

Techniken und Methoden, die den Entscheidungsprozess eines KI-Modells für Menschen transparent und verständlich machen und so Rechenschaftspflicht und Compliance unterstützen.

XAI-Metriken

Quantitative oder qualitative Messgrößen (z. B. Merkmalsbedeutungswerte, Erklärungstreue), die zur Bewertung der Qualität und Zuverlässigkeit von KI-Erklärungen verwendet werden.

XAI-Prüfung

Ein Überprüfungsprozess, bei dem bewertet wird, ob die Ergebnisse der KI-Erklärbarkeit den internen Richtlinien und regulatorischen Anforderungen entsprechen, um eine ausreichende Transparenz zu gewährleisten.

XAI-Rahmenwerk

Ein strukturierter Ansatz oder eine Reihe von Richtlinien, die Unternehmen verwenden, um Erklärbarkeitspraktiken in ihren KI-Systemen zu implementieren, zu messen und zu regeln.

YARA-Regeln

Eine Reihe signaturbasierter Erkennungsmuster, mit denen KI-Pipelines und Artefakte nach bekanntem bösartigem Code oder Manipulation durchsucht werden.

Zero-Day-Sicherheitslücke

Eine bisher unbekannte Sicherheitslücke in KI-Software oder -Infrastruktur, die ausgenutzt werden kann, bevor ein Patch oder eine Abschwächung verfügbar ist.

Zonenbasierte Zugriffskontrolle

Ein Netzwerk- oder Data-Governance-Ansatz, der Ressourcen in Zonen mit unterschiedlichen Richtlinien unterteilt und den Zugriff auf KI-Systeme je nach Datensensibilität einschränkt.

Zustimmung des Benutzers

Der Prozess, bei dem die ausdrückliche Zustimmung von Einzelpersonen eingeholt und aufgezeichnet wird, bevor ihre personenbezogenen Daten in KI-Systemen erfasst, verarbeitet oder verwendet werden.

Überanpassung

Ein Modellierungsproblem, bei dem ein KI-System Geräusche oder Eigenheiten in Trainingsdaten lernt und so seine Fähigkeit zur Generalisierung auf neue, unsichtbare Daten reduziert.

Überwachung der Varianz

Verfolgen Sie Schwankungen der Ergebnisse oder Leistungskennzahlen von KI-Modellen im Laufe der Zeit, um Abweichungen zu erkennen und mögliche Beeinträchtigungen oder Risiken abzuleiten.

Überwachung der Verfügbarkeit

Kontinuierliche Verfolgung der Verfügbarkeit und Leistung von KI-Systemen, um Ausfälle oder Beeinträchtigungen zu erkennen, die sich auf kritische Abläufe oder Compliance-Verpflichtungen auswirken könnten.

Überwachung der Wachsamkeit

Kontinuierliche Überwachung des KI-Verhaltens und externer Signale (z. B. regulatorische Aktualisierungen), um neu auftretende Risiken oder Verstöße umgehend zu erkennen und darauf zu reagieren.

Überwachung nach der Bereitstellung

Kontinuierliche Beobachtung des Verhaltens und der Umgebung des KI-Systems nach der Veröffentlichung, um Degradation, Drift oder Compliance-Verstöße zu erkennen.

Überwachungsrisiko

Die Gefahr, dass KI-Systeme zur invasiven Überwachung von Einzelpersonen oder Gruppen ausgenutzt werden können, wodurch die Privatsphäre und die bürgerlichen Freiheiten verletzt werden.