Entdecken Sie das vollständige Sortiment an KI-Governance-Produkten von Enzai, das darauf ausgelegt ist, Organisationen dabei zu helfen, KI mit Vertrauen zu verwalten, zu überwachen und zu skalieren. Von strukturierten Aufnahmen und zentralisierten KI-Inventaren bis hin zu automatisierten Bewertungen und Echtzeitüberwachung bietet Enzai die Bausteine, um Governance direkt in alltägliche KI-Workflows einzubetten — ohne die Innovation zu verlangsamen.

Enzai

Alle

Whitepaper

Vorschriften für KI

Podcasts

Produktaktualisierungen

Presseberichterstattung

Glossar

Treten Sie unserem Podcast bei oder arbeiten Sie an Inhalten mit uns zusammen

Kontaktieren Sie uns, und wir werden sehen, was wir gemeinsam produzieren können.

Ein

Verantwortlichkeit der KI

Die Verpflichtung der Entwickler und Betreiber von KI-Systemen, sicherzustellen, dass ihre Systeme verantwortungsvoll entworfen und verwendet werden, unter Einhaltung ethischer Standards und gesetzlicher Anforderungen.

KI-Ausrichtung

Der Prozess, sicherzustellen, dass die Ziele und Verhaltensweisen von KI-Systemen mit menschlichen Werten und Absichten in Einklang stehen.

KI-Prüfung

Die systematische Bewertung von KI-Systemen zur Beurteilung der Einhaltung von ethischen Standards, Vorschriften und Leistungskennzahlen.

KI-Voreingenommenheit

Systematische Fehler in den Ausgaben der KI, die durch voreingenommene Trainingsdaten oder fehlerhafte Algorithmen entstehen und zu unfaire Ergebnisse führen.

KI-Konformität

Die Einhaltung von geltenden Gesetzen, Vorschriften und ethischen Richtlinien durch KI-Systeme während ihres gesamten Lebenszyklus.

KI-Ethik

Das Fachgebiet, das sich mit den moralischen Implikationen und Verantwortlichkeiten im Zusammenhang mit der Entwicklung und Implementierung von KI-Technologien befasst.

Erklärbarkeit von KI

Das Ausmaß, in dem die internen Mechanismen eines KI-Systems von Menschen verstanden und interpretiert werden können.

KI-Governance

Das Rahmenwerk aus Richtlinien, Prozessen und Kontrollmechanismen, das die ethische und effektive Entwicklung und Nutzung von KI-Systemen leitet.

KI-Inventar

Ein umfassender, zentralisierter Katalog aller KI-Systeme, Modelle und Agenten, die in einer Organisation verwendet werden, der ihren Geschäftszweck, das Risikoniveau und die Eigentümerschaft verfolgt.

KI-Kompetenz

Das Verständnis von KI-Konzepten, Fähigkeiten und Einschränkungen, ermöglicht eine informierte Interaktion mit KI-Technologien.

KI-Überwachung

Die kontinuierliche Beobachtung und Analyse der Leistung von KI-Systemen, um Zuverlässigkeit, Sicherheit und Compliance zu gewährleisten.

KI-Risiko

Das Potenzial von KI-Systemen, Schaden oder unbeabsichtigte Folgen zu verursachen, einschließlich ethischer, rechtlicher und betrieblicher Risiken.

KI-Risikomanagement

Der Prozess der Identifizierung, Bewertung und Minderung von Risiken im Zusammenhang mit KI-Systemen.

KI TRiSM

Ein von Gartner geprägtes Akronym, das für KI-Vertrauen, Risiko- und Sicherheitsmanagement steht; ein Rahmenwerk, das Governance, Vertrauenswürdigkeit und Sicherheit in eine einzige operative Strategie vereint.

KI-Transparenz

Das Prinzip, dass KI-Systeme offen und transparent über ihre Abläufe, Entscheidungen und Datennutzung informieren sollten.

Genauigkeit

Der Grad, zu dem die Ausgaben eines KI-Systems korrekt reale Daten oder beabsichtigte Ergebnisse widerspiegeln.

Gegnerischer Angriff

Techniken, die AI-Modelle durch das Einführen täuschender Eingaben manipulieren, um fehlerhafte Ergebnisse zu verursachen.

Agentic KI

Eine Klasse von künstlichen Intelligenzsystemen, die darauf ausgelegt ist, komplexe Ziele selbstständig zu verfolgen und mehrstufige Aktionen (wie Softwarebereitstellung oder Finanztransaktionen) mit minimalem menschlichen Eingriff auszuführen.

Agentische KI-Governance

Die Steuerung autonomer KI-Systeme, die unabhängig agieren können (z.B. Transaktionen, Code-Bereitstellung), unterscheidet sich von voraussschauender KI (die Einblicke bietet) und generativer KI (die Inhalte erstellt).

Algorithmus

Ein Satz von Regeln oder Anweisungen, die einem KI-System gegeben werden, um ihm zu helfen, eigenständig zu lernen.

Algorithmische Verzerrung

Ein Bias, der auftritt, wenn ein Algorithmus systematisch voreingenommene Ergebnisse produziert, aufgrund fehlerhafter Annahmen im maschinellen Lernprozess.

Algorithmische Verwaltung

Der Einsatz von Algorithmen zur Steuerung und Regulierung gesellschaftlicher Funktionen, der potenziell die Entscheidungsprozesse beeinflussen kann.

Allgemeine Künstliche Intelligenz

Eine Art von KI, die über die Fähigkeit verfügt, Wissen auf eine verallgemeinerte Weise zu verstehen, zu lernen und anzuwenden, ähnlich der menschlichen Intelligenz.

Künstliche Intelligenz

Die Simulation menschlicher Intelligenzprozesse durch Maschinen, insbesondere Computersysteme, einschließlich Lernen, Schlussfolgern und Selbstkorrektur.

B

Rückpropagation

Ein Trainingsalgorithmus, der in neuronalen Netzwerken verwendet wird, um Gewichte anzupassen, indem Fehler vom Ausgabeschicht rückwärts propagiert werden, um den Verlust zu minimieren.

Stapelverarbeitung Lernen

Ein maschinelles Lernverfahren, bei dem das Modell auf einmal mit dem gesamten Datensatz trainiert wird, im Gegensatz zum inkrementellen Lernen.

Benchmarking

Der Prozess des Vergleichs der Leistung eines KI-Systems mit Standardkennzahlen oder anderen Systemen zur Bewertung der Effektivität.

Voreingenommenheit

Systematische Fehler in den Ausgaben der KI, die durch voreingenommene Trainingsdaten oder fehlerhafte Algorithmen entstehen und zu unfaire Ergebnisse führen.

Verstärkung von Verzerrungen

Das Phänomen, bei dem KI-Systeme bestehende Vorurteile in den Trainingsdaten verstärken und zu zunehmend verzerrten Ergebnissen führen.

Voreingenommenheitsprüfung

Ein Bewertungsprozess zur Erkennung und Minderung von Verzerrungen in KI-Systemen, um Fairness und die Einhaltung ethischer Standards sicherzustellen.

Voreingenommenheitserkennung

Der Prozess der Identifizierung von Verzerrungen in KI-Modellen durch Analyse ihrer Ergebnisse und Entscheidungsprozesse.

Voreingenommenheitsminderung

Techniken, die während der KI-Entwicklung angewendet werden, um Vorurteile in Modellen und Datensätzen zu reduzieren oder zu beseitigen.

Schwarzkastenmodell

Ein KI-System, dessen interne Abläufe nicht transparent oder interpretierbar sind, was es schwierig macht zu verstehen, wie Entscheidungen getroffen werden.

Bot

Eine Softwareanwendung, die automatisierte Aufgaben ausführt und häufig in der KI für Aufgaben wie Kundenservice oder Datenerfassung eingesetzt wird.

C

Kausale Inferenz

Eine Methode in der KI und Statistik, die verwendet wird, um Ursache-Wirkungs-Beziehungen zu bestimmen und dabei hilft, die Auswirkungen von Interventionen oder Änderungen von Variablen zu verstehen.

Chatbot

Eine KI-gestützte Softwareanwendung, die darauf ausgelegt ist, menschliche Gespräche zu simulieren und häufig im Kundenservice sowie zur Informationsbeschaffung eingesetzt wird.

Klassifizierung

Ein überwachtes Lernverfahren im Bereich des maschinellen Lernens, bei dem das Modell die Kategorie oder Klassenbezeichnung neuer Beobachtungen basierend auf den Trainingsdaten vorhersagt.

Kognitive Voreingenommenheit

Systematische Abweichungsmuster von der Norm oder Rationalität im Urteil, die die Entscheidungsfindung von KI beeinflussen können, wenn sie in den Trainingsdaten vorhanden sind.

Kognitives Computing

Ein Teilbereich der KI, der menschliche Denkprozesse in einem computergestützten Modell simuliert, mit dem Ziel, komplexe Probleme ohne menschliche Unterstützung zu lösen.

Kognitive Belastung

Der gesamte mentale Aufwand, der im Arbeitsgedächtnis verwendet wird, wird im Bereich der KI berücksichtigt, um Systeme zu entwerfen, die Benutzer nicht überfordern.

Compliance-Rahmenwerk

Ein strukturierter Satz von Richtlinien und Best Practices, denen Organisationen folgen, um sicherzustellen, dass ihre KI-Systeme regulatorische und ethische Standards erfüllen.

Compliance-Risiko

Das Potenzial für rechtliche oder regulatorische Sanktionen, finanzielle Verluste oder Reputationsschäden, dem ein Unternehmen ausgesetzt ist, wenn es versäumt, gesetzliche Vorschriften, Regulierungen oder vorgegebene Praktiken einzuhalten.

Computer Vision

Ein Bereich der KI, der Computer darin schult, visuelle Informationen aus der Welt, wie Bilder und Videos, zu interpretieren und zu verarbeiten.

Konzeptdrift

Die Veränderung der statistischen Eigenschaften der Zielvariablen, die das Modell vorherzusagen versucht, im Laufe der Zeit, was zu einer Verschlechterung des Modells führt.

Vertrauensintervall

Ein Wertebereich, abgeleitet von Stichprobenstatistiken, der wahrscheinlich den Wert eines unbekannten Populationsparameters enthält, wird in der KI verwendet, um Unsicherheiten auszudrücken.

Konformitätsbewertung

Ein Verfahren zur Bestimmung, ob ein KI-System festgelegte Anforderungen, Standards oder Vorschriften erfüllt, das häufig Tests und Zertifizierungen umfasst.

Kontinuierliches Lernen

Die Fähigkeit eines KI-Systems, kontinuierlich aus neuen Dateneingaben zu lernen und sich ohne menschliches Eingreifen anzupassen, verbessert sich im Laufe der Zeit.

Steuerbarkeit

In welchem Maße Menschen die Entscheidungen und Verhaltensweisen eines KI-Systems lenken, beeinflussen oder übersteuern können.

Kreuzvalidierung

Eine Modellvalidierungsmethode zur Beurteilung, wie die Ergebnisse einer statistischen Analyse auf ein unabhängiges Datenset verallgemeinert werden können.

Cybersicherheit

Die Praxis des Schutzes von Systemen, Netzwerken und Programmen vor digitalen Angriffen ist entscheidend für den Schutz von KI-Systemen vor Bedrohungen.

D

Datenabweichung

Die Veränderung der Modell-Eingabedaten im Laufe der Zeit kann zu einer Verschlechterung der Modellleistung führen, wenn diese nicht überwacht und behoben wird.

Datenethik

Der Bereich der Ethik, der Datenpraktiken im Hinblick auf die moralischen Verpflichtungen bei der Erfassung, dem Schutz und der Nutzung personenbezogener Informationen bewertet.

Datenverwaltung

Die umfassende Verwaltung der Datenverfügbarkeit, Benutzerfreundlichkeit, Integrität und Sicherheit in einem Unternehmen, um sicherzustellen, dass Daten während ihres gesamten Lebenszyklus ordnungsgemäß behandelt werden.

Datenlebenszyklusverwaltung

Die richtlinienbasierte Verwaltung des Datenflusses über den gesamten Lebenszyklus: von der Erstellung und anfänglichen Speicherung bis zu dem Zeitpunkt, an dem die Daten veraltet sind und gelöscht werden.

Datenminimierung

Das Prinzip, nur die Daten zu erfassen, die für einen bestimmten Zweck erforderlich sind, reduziert das Risiko von Missbrauch oder Verstößen.

Datenschutz

Der Bereich der Informationstechnologie, der sich mit der Fähigkeit befasst, zu kontrollieren, welche Daten geteilt werden und mit wem, und dabei sicherzustellen, dass personenbezogene Daten angemessen behandelt werden.

Datenschutz

Der Prozess, wichtige Informationen vor Beschädigung, Kompromittierung oder Verlust zu schützen und die Einhaltung der Datenschutzgesetze und -vorschriften zu gewährleisten.

Datenqualität

Der Zustand von Daten, basierend auf Faktoren wie Genauigkeit, Vollständigkeit, Zuverlässigkeit und Relevanz, ist entscheidend für die effektive Leistung von KI-Modellen.

Datenresidenz

Der physische oder geografische Standort der Daten einer Organisation, der Auswirkungen auf die Einhaltung von Datenschutzgesetzen haben kann.

Datenhoheit

Das Konzept, dass Daten den Gesetzen und Governance-Strukturen des Landes unterliegen, in dem sie gesammelt, gespeichert oder verarbeitet werden.

Betroffene Person

Eine Person, deren personenbezogene Daten erfasst, gespeichert oder verarbeitet werden, was insbesondere im Kontext von Datenschutzgesetzen wie der DSGVO relevant ist.

De-Identifikation

Der Prozess der Entfernung oder Verschleierung personenbezogener Kennungen in Datensätzen, um es schwierig zu machen, Einzelpersonen zu identifizieren, wird verwendet, um die Privatsphäre zu schützen.

Tiefes Lernen

Ein Teilbereich des maschinellen Lernens, der neuronale Netze mit mehreren Schichten umfasst und die Modellierung komplexer Muster in Daten ermöglicht.

Täuschungstechnologie

Synthetische Medien, bei denen eine Person in einem bestehenden Bild oder Video durch das Abbild einer anderen Person ersetzt wird, das mit Hilfe von Deep-Learning-Techniken erstellt wurde.

Differentialer Datenschutz

Ein System zur öffentlichen Weitergabe von Informationen über einen Datensatz, indem Muster von Gruppen innerhalb des Datensatzes beschrieben werden, während Informationen über Einzelpersonen zurückgehalten werden.

Diskriminierung

Im Bereich der KI bezieht sich dies auf die unfaire Behandlung von Einzelpersonen oder Gruppen aufgrund von Verzerrungen in Daten oder Algorithmen, die zu ungleichen Ergebnissen führen.

Verteiltes Lernen

Ein maschineller Lernansatz, bei dem Trainingsdaten auf mehrere Geräte oder Standorte verteilt werden und Modelle kollaborativ trainiert werden, ohne rohe Daten auszutauschen.

Domänenanpassung

Eine Technik im maschinellen Lernen, bei der ein in einem Bereich trainiertes Modell angepasst wird, um in einem anderen, aber verwandten Bereich zu funktionieren.

Dynamische Risikoanalyse

Der kontinuierliche Prozess der Identifizierung und Bewertung von Risiken in Echtzeit ermöglicht rechtzeitige Reaktionen auf neu auftretende Bedrohungen in KI-Systemen.

E

Edge-KI

Die Bereitstellung von KI-Algorithmen auf Edge-Geräten ermöglicht die Datenverarbeitung und Entscheidungsfindung direkt an der Quelle der Datenerzeugung.

Edge-Analytik

Die Analyse von Daten am Rand des Netzwerks, nahe der Quelle der Datenerzeugung, reduziert Latenzzeiten und Bandbreitennutzung.

Ensemble-Lernen

Ein maschinelles Lernparadigma, bei dem mehrere Modelle trainiert und kombiniert werden, um dasselbe Problem zu lösen und die Gesamtleistung zu verbessern.

Entitätsauflösung

Der Prozess der Identifizierung und Verknüpfung von Datensätzen, die sich auf dasselbe reale Objekt in verschiedenen Datenbeständen beziehen.

Enzai

Eine Unternehmensplattform für KI-Governance, die es Organisationen ermöglicht, ihre KI-Systeme zu inventarisieren, bewerten und steuern, um eine maximale Einführung von KI zu gewährleisten und zugleich das Risiko zu minimieren.

Ethische KI

Die Praxis, KI-Systeme auf eine Weise zu entwerfen, zu entwickeln und bereitzustellen, die mit ethischen Prinzipien und Werten übereinstimmt, um Fairness, Verantwortlichkeit und Transparenz zu gewährleisten.

Ethisches KI-Audit

Der Prozess der systematischen Bewertung von KI-Systemen, um sicherzustellen, dass sie den ethischen Standards entsprechen und keinen Schaden verursachen.

Zertifizierung für ethische KI

Eine formale Anerkennung, dass ein KI-System etablierten ethischen Standards und Richtlinien entspricht.

Ethische KI-Governance

Der Rahmen von Richtlinien, Verfahren und Praktiken, die sicherstellen, dass KI-Systeme verantwortungsvoll und ethisch entwickelt und verwendet werden.

Ethische Rahmenwerke

Strukturierte Sätze von Prinzipien und Richtlinien, die dazu bestimmt sind, die ethische Entwicklung und Implementierung von KI-Systemen zu leiten.

Ethisches Hacken

Die bewusste Überprüfung von Systemen auf Schwachstellen, um Sicherheitsprobleme zu identifizieren und zu beheben, gewährleistet die Robustheit von KI-Systemen.

Ethische Auswirkungen Bewertung

Ein systematischer Evaluierungsprozess zur Identifizierung und Berücksichtigung der ethischen Implikationen und potenziellen gesellschaftlichen Auswirkungen von KI-Systemen vor deren Einsatz.

Ethisches Risiko

Das Potenzial eines KI-Systems, Schaden durch unethisches Verhalten wie Voreingenommenheit, Diskriminierung oder Verletzung der Privatsphäre zu verursachen.

Ethische Leitlinien für vertrauenswürdige KI

Ein Satz von Richtlinien, die von der hochrangigen Expertengruppe der Europäischen Kommission für KI entwickelt wurden, um vertrauenswürdige KI zu fördern, wobei der Schwerpunkt auf menschlicher Handlungskompetenz, technischer Robustheit, Datenschutz, Transparenz, Vielfalt, gesellschaftlichem Wohlergehen und Verantwortung liegt.

Techniken der Erklärbarkeit

Methoden zur Interpretation und zum Verständnis der Entscheidungen von KI-Modellen, wie LIME, SHAP und Salienzabbildungen.

Erklärbarkeit vs. Interpretierbarkeit

Während beide darauf abzielen, KI-Entscheidungen verständlich zu machen, konzentriert sich die Erklärbarkeit auf die Begründung der Entscheidungen, während sich die Interpretierbarkeit auf die Transparenz der internen Mechanismen des Modells bezieht.

Erklärbare KI (XAI)

KI-Systeme, die darauf ausgelegt sind, nachvollziehbare Begründungen für ihre Entscheidungen und Handlungen bereitzustellen, wodurch Transparenz und Vertrauen gestärkt werden.

Erklärbare Maschinelles Lernen

Maschinelle Lernmodelle, die entwickelt wurden, um klare und verständliche Erklärungen für ihre Vorhersagen und Entscheidungen bereitzustellen.

F

Gerechtigkeit

Sicherstellen, dass KI-Systeme unvoreingenommene und gerechte Ergebnisse für verschiedene Einzelpersonen und Gruppen liefern und diskriminierende Auswirkungen mindern.

Fairness-Kennzahlen

Quantitative Maße (z.B. demografische Parität, gleichberechtigte Chancen), die verwendet werden, um zu bewerten, wie fair die Vorhersagen eines KI-Modells über verschiedene Gruppen hinweg sind.

Falsch Negativ

Wenn ein AI-Modell fälschlicherweise eine negative Klasse für eine Instanz vorhersagt, die tatsächlich positiv ist (Typ-II-Fehler).

Falsch-Positiv

Wenn ein KI-Modell fälschlicherweise eine positive Klasse für ein Beispiel prognostiziert, das in Wirklichkeit negativ ist (Typ-I-Fehler).

Fehlertoleranz

Die Fähigkeit eines KI-Systems, auch dann korrekt weiterzuarbeiten, wenn einige Komponenten ausfallen oder Fehler produzieren.

Merkmalsengineering

Erstellen, Auswählen oder Transformieren von Rohdatensatzattributen in Merkmale, die die Leistung von maschinellen Lernmodellen verbessern.

Merkmalextraktion

Der Prozess der Zuordnung von Rohdaten (z. B. Text, Bilder) zu numerischen Darstellungen (Merkmale), die sich für die Eingabe in maschinelle Lernalgorithmen eignen.

Funktionsauswahl

Identifizierung und Auswahl der relevantesten Merkmale für das Modelltraining, um die Komplexität zu reduzieren und die Genauigkeit zu verbessern.

Föderiertes Lernen

Ein dezentraler Ansatz für maschinelles Lernen, bei dem Modelle auf mehreren Geräten oder Servern trainiert werden, die lokale Daten halten, ohne dass Rohdaten zentral geteilt werden müssen.

Rückkopplungsschleife

Ein Prozess, bei dem KI-Ausgaben als Eingaben zurückgeführt werden, was das Modellverhalten sowohl positiv (verstärkendes Lernen) als auch negativ (Verstärkung von Vorurteilen) verstärken kann.

Feinabstimmung

Anpassen eines vortrainierten KI-Modells an eine spezifische Aufgabe oder ein spezifisches Dataset durch Fortsetzung des Trainings mit neuen Daten, was oft die leistungsbezogene Effizienz verbessert.

Formale Verifikation

Mathematisch beweisen, dass KI-Algorithmen spezifischen Korrektheitseigenschaften entsprechen, die häufig in sicherheitskritischen Systemen verwendet werden.

Rahmenwerk

Ein strukturiertes Set von Richtlinien, Prozessen und Werkzeugen zur Steuerung, Entwicklung, Bereitstellung und Überwachung von KI-Systemen.

Betrugserkennung

Verwendung von KI-Techniken (z.B. Anomalieerkennung, Mustererkennung), um betrügerische Aktivitäten in Finanzwesen, Versicherungen usw. zu identifizieren und zu verhindern.

Funktionale Sicherheit

Sicherzustellen, dass KI-Systeme unter allen Bedingungen sicher funktionieren, insbesondere in Branchen wie der Automobilindustrie oder dem Gesundheitswesen, erfolgt oft durch Redundanz und Überprüfungen.

Fuzzy-Logik

Ein logisches System, das das Schlussfolgern mit ungefähren statt binären Wahrheitswerten handhabt – nützlich in Steuerungssystemen und im Umgang mit Unsicherheit.

G

DSGVO

Die Datenschutz-Grundverordnung der EU legt strenge Anforderungen für die Erfassung, Verarbeitung und die individuellen Rechte persönlicher Daten fest.

GPU

Spezialisierter Hardware-Beschleuniger für parallele Berechnungen, der häufig zum effizienten Trainieren und Ausführen groß angelegter KI-Modelle verwendet wird.

Lückenanalyse

Der Prozess, aktuelle KI-Governance-Praktiken mit den gewünschten Standards oder Vorschriften zu vergleichen, um Bereiche zu identifizieren, die Verbesserungen benötigen.

Verallgemeinerung

Die Fähigkeit eines KI-Modells, auf neuen, unbekannten Daten gute Leistungen zu erbringen, indem es zugrunde liegende Muster erfasst, anstatt Trainingsbeispiele auswendig zu lernen.

Generative KI

KI-Techniken (z.B. GANs, Transformer), die neue Inhalte wie Text, Bilder oder andere Medien erstellen, werfen häufig neuartige Fragen zur Governance und zum geistigen Eigentum auf.

Globales Modell

Ein konsolidiertes KI-Modell, das auf aggregierten Daten aus mehreren Quellen trainiert ist, im Gegensatz zu lokalisierten oder personalisierten Modellen.

Governance

Das Gesamtkonstrukt aus Richtlinien, Verfahren, Rollen und Verantwortlichkeiten, das die ethische, legale und effektive Entwicklung sowie den Einsatz von KI-Systemen leitet.

Lenkungsgremium

Eine funktionsübergreifende Gruppe (z. B. rechtlich, ethisch, technisch), die damit betraut ist, die Richtlinien zur KI-Governance innerhalb einer Organisation zu überwachen und deren Umsetzung zu gewährleisten.

Governance-Rahmenwerk

Ein strukturiertes Modell, das darlegt, wie die Komponenten der KI-Governance (Risikomanagement, Verantwortlichkeit, Aufsicht) zusammenpassen, um die Einhaltung von Vorschriften und die ethische Nutzung sicherzustellen.

Reifegradmodell für Governance

Ein gestuftes Rahmenwerk, das bewertet, wie fortgeschritten die KI-Governance-Praktiken einer Organisation sind, von ad-hoc bis optimiert.

Richtlinie zur Unternehmensführung

Ein formales Dokument, das Regeln, Rollen und Verfahren für die Entwicklung und Überwachung von KI innerhalb einer Organisation kodifiziert.

Governance-Bewertungssystem

Ein Dashboard oder Bericht, das wichtige Kennzahlen (z. B. Vorfälle von Voreingenommenheit, Compliance-Audits) zur Messung der Effektivität der KI-Governance im Laufe der Zeit verfolgt.

Gradientenabstieg

Ein Optimierungsalgorithmus, der die Modellparameter iterativ in die Richtung anpasst, die die Verlustfunktion minimal verringert.

Granulare Zustimmung

Ein Datenschutzansatz, der es Einzelpersonen ermöglicht, spezifische Berechtigungen für jede Art der Datennutzung zu erteilen oder zu verweigern, wodurch Transparenz und Kontrolle verbessert werden.

Grüne KI

Die Praxis, den ökologischen Fußabdruck von KI durch energieeffiziente Algorithmen und nachhaltige Computerpraktiken zu reduzieren.

Grauer-Box-Modell

Ein Modell, dessen innere Logik teilweise transparent ist (einige Komponenten sind interpretierbar, andere undurchsichtig), das Leistung und Erklärbarkeit ausbalanciert.

Tatsächliche Gegebenheit

Die präzisen, praxisnahen Daten oder Kennzeichnungen, die als Maßstab zur Schulung und Bewertung der Leistung von KI-Modellen verwendet werden.

Leitplanken

Vordefinierte Einschränkungen oder Überprüfungen (technisch und richtlinienbasiert), die in KI-Systeme eingebettet sind, um unsicheres oder nicht konformes Verhalten zur Laufzeit zu verhindern.

Leitlinie (Ethische KI)

Eine unverbindliche Empfehlung oder ein Best-Practice-Dokument, das von Organisationen (z.B. IEEE, EU) herausgegeben wird, um die verantwortungsvolle Entwicklung und Implementierung von KI zu gestalten.

H

Halluzination

Wenn generative KI inkorrekte oder erfundene Informationen erstellt, die plausibel erscheinen, aber keine Grundlage in den Trainingsdaten haben.

Umgang mit fehlenden Daten

Techniken (z.B. Imputation, Löschung, Modellierung) zur Schließung von Lücken in Datensätzen, um die Integrität und Fairness des Modells zu bewahren.

Hardware-Beschleuniger

Spezialisierte Chips (z.B. GPUs, TPUs), die zur Beschleunigung von KI-Berechnungen entwickelt wurden, mit Auswirkungen auf den Energieverbrauch und das Lieferkettenrisiko.

Schadensbewertung

Bewertung potenzieller negativer Auswirkungen (physisch, psychologisch, gesellschaftlich) von KI-Systemen und Definition von Minderungsstrategien.

Harmonisierung

Harmonisierung von KI-Richtlinien, -Standards und -Vorschriften über verschiedene Rechtsgebiete hinweg, um Konflikte zu reduzieren und Interoperabilität zu ermöglichen.

Hashierung

Der Prozess der Umwandlung von Daten in eine Zeichenfolge fester Größe wird für Datenintegritätsprüfungen und die datenschutzfreundliche Verknüpfung von Aufzeichnungen verwendet.

Heterogene Daten

Die Kombination von Daten unterschiedlicher Typen (Text, Bild, Sensor) oder aus mehreren Domänen stellt Herausforderungen an Integration und Governance dar.

Heuristik

Eine Faustregel oder vereinfachte Entscheidungsstrategie, die verwendet wird, um KI-Prozesse zu beschleunigen, wobei oft Optimalität gegen Effizienz eingetauscht wird.

Heuristische Bewertung

Eine Methode zur Gebrauchstauglichkeitsprüfung, bei der Experten ein KI-System anhand etablierter Gebrauchstauglichkeitsprinzipien beurteilen, um potenzielle Probleme zu identifizieren.

KI im Hochspannungsbereich

KI-Anwendungen, deren Ausfälle erheblichen Schaden verursachen könnten (z. B. medizinische Diagnosen, autonome Fahrzeuge), erfordern verstärkte Governance und Aufsicht.

Menschliche Aufsicht

Mechanismen, die es ausgewählten Personen ermöglichen, Entscheidungen von KI-Systemen zu überwachen, einzugreifen oder zu überschreiben, um ethische und gesetzliche Konformität sicherzustellen.

Auswirkungen auf die Menschenrechte Bewertung

Ein Verfahren zur Bewertung, wie KI-Systeme die Grundrechte (Privatsphäre, Meinungsfreiheit, Nichtdiskriminierung) beeinflussen, und zur Identifizierung von Minderungsmaßnahmen.

Mensch-in-der-Schleife

Einbeziehung menschlicher Urteilsfähigkeit in KI-Prozesse (Schulung, Validierung, Entscheidungsüberprüfung), um Genauigkeit und Verantwortlichkeit zu verbessern.

Hybrides Modell

KI-Systeme, die mehrere Lernparadigmen kombinieren (z. B. symbolische und neuronale), um Erklärbarkeit und Leistung in Einklang zu bringen.

Hyperparameter

Eine Konfigurationsvariable (z. B. Lernrate, Baumeistiefe), die vor dem Modelltraining festgelegt wird und das Lernverhalten sowie die Leistung beeinflusst.

Optimierung von Hyperparametern

Der Prozess der Suche nach den optimalen Hyperparameterwerten (z.B. durch Grid-Suche oder Bayes'sche Optimierung), um die Modellleistung zu maximieren.

Ich

ISO/IEC JTC 1/SC 42

Der gemeinsame ISO/IEC-Ausschuss für die Standardisierung Künstlicher Intelligenz entwickelt internationale KI-Standards für Governance, Risiko und Interoperabilität.

Ungleichgewichtige Daten

Ein Datensatz, bei dem eine Klasse oder Kategorie die anderen signifikant überwiegt, was dazu führen kann, dass KI-Modelle zugunsten der Mehrheitsklasse voreingenommen sind, es sei denn, dies wird behoben.

Unveränderliches Hauptbuch

Ein manipulationssicheres Aufzeichnungsmechanismus (z.B. Blockchain), der sicherstellt, dass Daten nach der Speicherung nicht verändert werden können, ohne dass eine Erkennung erfolgt - nützlich für KI-Audit-Trails.

Auswirkungsbewertung

Eine strukturierte Bewertung zur Identifizierung, Analyse und Minderung potenzieller ethischer, rechtlicher und gesellschaftlicher Auswirkungen eines KI-Systems vor dessen Einsatz.

Implizite Voreingenommenheit

Unbewusste oder unbeabsichtigte Verzerrungen, die in den Trainingsdaten oder im Modellentwurf eingebettet sind und zu diskriminierenden Ergebnissen führen können.

Anreizabstimmung

Die Gestaltung von Belohnungsstrukturen und Zielen, sodass die Zielsetzungen von KI-Systemen mit menschlichen Werten und organisatorischen Prioritäten übereinstimmen.

Induktive Verzerrung

Die Menge von Annahmen, die ein Lernalgorithmus verwendet, um von beobachteten Daten auf nicht gesehene Instanzen zu verallgemeinern.

Schlussfolgerung

Der Prozess, bei dem ein trainiertes KI-Modell neue Daten eingibt, um Vorhersagen oder Entscheidungen zu treffen.

Schlussfolgerungsmaschine

Die Komponente eines KI-Systems (oft in regelbasierten oder Expertensystemen), die eine Wissensdatenbank auf Eingabedaten anwendet, um Schlussfolgerungen zu ziehen.

Informationsverwaltung

Die Richtlinien, Verfahren und Kontrollen, die die Datenqualität, den Datenschutz und die Nutzbarkeit über die Datenbestände einer Organisation hinweg gewährleisten, einschließlich der Schulungsdatensätze für künstliche Intelligenz.

Datenschutzinformationen

Das Recht von Personen, zu kontrollieren, wie ihre persönlichen Daten von KI-Systemen gesammelt, verwendet, gespeichert und geteilt werden.

Infrastruktur als Code (IaC)

Verwalten und Bereitstellen von KI-Infrastruktur (Rechenleistung, Speicher, Netzwerk) durch maschinenlesbare Konfigurationsdateien, wodurch Wiederholbarkeit und Prüfungsfähigkeit verbessert werden.

Interoperabilität

Die Fähigkeit verschiedener KI-Systeme und -Komponenten, Informationen nahtlos auszutauschen, zu verstehen und zu nutzen, häufig über offene Standards oder APIs.

Interpretierbarkeit

Das Maß, in dem ein Mensch die inneren Mechanismen oder Entscheidungsgründe eines KI-Modells verstehen kann.

Einbruchserkennung

Überwachung der KI-Infrastruktur und -Anwendungen auf bösartige Aktivitäten oder Verstöße gegen Richtlinien, Auslösung von Warnungen oder automatisierten Reaktionen.

J

Jacobian-Matrix

In der Erklärbarkeit von KI ist die Matrix aller partiellen Ableitungen erster Ordnung der Ausgaben eines Modells in Bezug auf seine Eingaben, die zur Bewertung der Empfindlichkeit und der Merkmalsbedeutung verwendet wird.

Jailbreak-Angriff

Eine Art von Prompt-Injection, bei der Benutzer Schwachstellen ausnutzen, um Schutzmaßnahmen in generativen KI-Modellen zu umgehen, was möglicherweise zu unsicheren oder unautorisierten Ausgaben führen kann.

Gemeinsame Haftung

Rechtsprinzip, bei dem mehrere Parteien (z. B. Entwickler, Betreiber) die Verantwortung für KI-bedingte Schäden teilen, was Einfluss auf Vertrags- und Governance-Strukturen hat.

Gemeinsame Modellierung

Entwicklung von KI-Systemen, die mehrere Aufgaben gleichzeitig lernen (z. B. Spracherkennung + Übersetzung), wobei eine Governance für Komplexität und Überprüfbarkeit erforderlich ist.

Urteilsverzerrung

Systematische Fehler in menschlichen oder KI-Entscheidungsprozessen, die durch kognitive Abkürzungen oder fehlerhafte Daten verursacht werden, erfordern eine Überprüfung und Minderung von Verzerrungen.

Gerichtliche Überprüfung

Der rechtliche Prozess, bei dem Gerichte die Gesetzmäßigkeit von Entscheidungen prüfen, die von KI getroffen oder unterstützt werden, um Verantwortlichkeit und ordnungsgemäßen Ablauf sicherzustellen.

Rechtsraum

Die rechtliche Zuständigkeit über Daten, KI-Operationen und Haftung, die je nach geografischer Lage variiert und die Einhaltung regionaler Vorschriften beeinflusst (z. B. DSGVO, CCPA).

Juror Automatisierung

Der Einsatz von KI zur Unterstützung bei der Jury-Auswahl oder der Fallanalyse wirft ethische Bedenken hinsichtlich Fairness, Transparenz und rechtlicher Aufsicht auf.

Gerechtigkeitsmetriken

Quantitative Messgrößen (z. B. unterschiedliche Auswirkungen, Chancengleichheit), die zur Bewertung von Fairness und Nichtdiskriminierung bei KI-Entscheidungsprozessen verwendet werden.

K

Schlüsselindikator für die Leistung

Ein quantifizierbarer Messwert (z. B. Modellgenauigkeitsdrift, Zeit zur Beseitigung von Vorurteilen), der zur Überwachung und Berichterstattung über Ziele der KI-Governance und Compliance verwendet wird.

Schlüsselrisikoindikator

Ein führender Messwert (z.B. Häufigkeit von unzutreffenden Vorhersagen, Rate unerklärlicher Entscheidungen), der auf aufkommende KI-Risiken hinweist, bevor sie sich manifestieren.

Kennen Sie Ihren Kunden (KYC)

Compliance-Prozesse zur Überprüfung der Identität, des Risikoprofils und der Legitimität von Personen oder Unternehmen, die mit KI-Systemen interagieren, insbesondere in regulierten Branchen.

Wissensverdichtung

Eine Methode zur Übertragung von Erkenntnissen von einem größeren „Lehrer“-Modell auf ein kleineres „Schüler“-Modell, um Leistung mit Ressourcen- und Governance-Einschränkungen in Einklang zu bringen.

Wissensgraph

Eine strukturierte Darstellung von Entitäten und deren Beziehungen, die dazu verwendet wird, die Erklärbarkeit, Prüfbarkeit und Anpassung von KI an Domänenontologien zu verbessern.

Wissensmanagement

Praktiken und Werkzeuge zur Erfassung, Organisation und Weitergabe von Organisationswissen (z. B. Modeldokumentation, Prüfungsprotokolle), um Reproduzierbarkeit und Aufsicht sicherzustellen.

L

Etikettenleckage

Die unbeabsichtigte Aufnahme von Ausgabedaten in die Trainingsdatenetiketten, die Leistungskennzahlen beeinflussen und tatsächliche Generalisierungsprobleme des Modells verschleiern können.

Großes Sprachmodell

Ein Deep-Learning-Modell, das auf umfangreichen Textkorpora trainiert wurde und Aufgaben wie Textgenerierung, Übersetzung und Zusammenfassung ausführen kann, wobei oft eine sorgfältige Steuerung von Vorurteilen und Missbrauch erforderlich ist.

Prinzip der minimalen Rechte

Ein Sicherheitsprinzip, bei dem KI-Komponenten und Benutzer nur die minimal erforderlichen Zugriffsrechte erhalten, die notwendig sind, um ihre Funktionen auszuführen, wodurch das Risiko eines Missbrauchs verringert wird.

Rechtliche Konformität

Die Praxis, sicherzustellen, dass KI-Systeme während ihres gesamten Lebenszyklus den geltenden Gesetzen, Vorschriften und Industriestandards entsprechen.

Haftungsrahmen

Ein strukturierter Ansatz zur Bestimmung der Verantwortlichkeiten bei KI-bezogenen Schäden oder Ausfällen, einschließlich Entwicklern, Implementierern und Betreibern.

Lebenszyklusmanagement

Die koordinierten Prozesse für Entwicklung, Bereitstellung, Überwachung, Wartung und Außerdienststellung von KI-Systemen, um kontinuierliche Compliance und Risikokontrolle sicherzustellen.

Lebendigkeitserkennung

Techniken, die verwendet werden, um zu überprüfen, dass eine Eingabe (z. B. biometrische Daten) von einem lebenden Subjekt stammt und nicht von einem Spoof oder Replay, wodurch die Systemsicherheit und Integrität verbessert wird.

Lokalisierung

Anpassung von KI-Systemen an lokale Sprachen, Vorschriften, kulturelle Normen und Anforderungen an die Datenresidenz in verschiedenen Gerichtsbarkeiten.

Protokollverwaltung

Die Sammlung, Speicherung und Analyse von System- und Anwendungsprotokollen aus AI-Workflows zur Unterstützung von Audits, Reaktionsmaßnahmen auf Vorfälle und der Nachverfolgung von Modellleistung.

Verlustfunktion

Eine mathematische Funktion, die den Unterschied zwischen vorhergesagten Ausgaben und tatsächlichen Werten quantifiziert und die Modellschulung und -optimierung steuert.

M

Bedeutungsvolle Menschliche Kontrolle

Ein regulatorischer und betrieblicher Standard, der sicherstellt, dass Menschen die Fähigkeit behalten, AI-Entscheidungsprozesse zu überwachen, einzugreifen und zu übersteuern.

Metadatenverwaltung

Die Praxis der Erfassung und Pflege beschreibender Daten (z. B. Datenherkunft, Merkmaldefinitionen, Modellparameter), um Rückverfolgbarkeit und Audits zu unterstützen.

Kennzahlen & Leistungsindikatoren

Quantitative Maße (z.B. Abweichung der Genauigkeit, Fairness-Scores, Reaktionszeiten bei Vorfällen), die zur Überwachung der Systemgesundheit, Risiken und Compliance-Ziele von KI-Systemen verwendet werden.

Minderungsstrategien

Geplante Maßnahmen (z. B. Beseitigung von Voreingenommenheit, erneutes Training, Feature-Re-Engineering) zur Behebung identifizierter KI-Risiken und Compliance-Lücken.

Modellerklärbarkeit

Techniken und Dokumentation, die die Entscheidungslogik eines KI-Modells verständlich für Stakeholder und Prüfer machen.

Modellführung

Die Richtlinien, Rollen und Kontrollen, die sicherstellen, dass KI-Modelle in Übereinstimmung mit den organisatorischen Standards und regulatorischen Anforderungen entwickelt, genehmigt und verwendet werden.

Modellüberwachung

Kontinuierliches Überwachen der Leistung eines KI-Modells, der Datenverschiebung und der Betriebskennzahlen zur Erkennung von Verschlechterungen oder aufkommenden Risiken.

Modell-Neutraining

Der Prozess der Aktualisierung eines KI-Modells mit neuen oder aktualisierten Daten, um die Leistung und die Einhaltung der Vorschriften aufrechtzuerhalten, während sich die Datenverteilung weiterentwickelt.

Modellrisikomanagement

Der strukturierte Prozess zur Identifizierung, Bewertung und Minderung von Risiken, die sich aus KI/ML-Modellen während ihres gesamten Lebenszyklus ergeben.

Modellvalidierung

Die Evaluierungstätigkeiten (z. B. Tests mit zurückgestellten Daten, Stressszenarien), die bestätigen, dass ein KI-Modell seinen vorgesehenen Zweck und die Leistungskriterien erfüllt.

Engagement von mehreren Interessengruppen

Einbeziehung verschiedener Gruppen (z. B. Recht, Ethik, Betrieb, Endbenutzer) in die Prozesse der KI-Governance, um eine ausgewogene Risikokontrolle und die Ausrichtung auf Unternehmensziele sicherzustellen.

N

NIST KI-Risikomanagement-Rahmenwerk

Eine freiwillige Anleitung des US-amerikanischen National Institute of Standards and Technology, die bewährte Verfahren zur Risikominderung über den gesamten Lebenszyklus von KI-Systemen darlegt.

Verarbeitung natürlicher Sprache (NLP)

Techniken und Werkzeuge, die Maschinen ermöglichen, menschliche Sprache in Text- oder Sprachform zu interpretieren, zu generieren und zu analysieren.

Netzwerksicherheit

Maßnahmen und Kontrollen (z. B. Segmentierung, Firewalls, Eindringungserkennung), um die KI-Infrastruktur und Datenpipelines vor unbefugtem Zugriff oder Manipulation zu schützen.

Neuronale Architektur-Suche

Automatisierte Methoden zur Gestaltung und Optimierung von neuronalen Netzwerkstrukturen, um die Modellleistung zu verbessern, während die Komplexität und Ressourcenbeschränkungen ausgewogen werden.

Rauschinjektion

Gezielte Einführung zufälliger Störungen in Trainingsdaten oder Modellparameter, um die Robustheit zu erhöhen und gegen manipulative Angriffe zu schützen.

Neuartigkeitserkennung

Techniken zur Identifizierung von Eingaben oder Szenarien, die erheblich von den Trainingsdaten abweichen und eine Überprüfung oder einen Sicherheitsmodus auslösen, um unerwartete Ausfälle zu verhindern.

O

Beobachtbarkeit

Die Fähigkeit, den internen Zustand und das Verhalten eines KI-Systems durch die Sammlung und Analyse von Protokollen, Metriken und Ausgaben für effektive Überwachung und Fehlerbehebung abzuleiten.

Fortlaufende Überwachung

Kontinuierliches Tracking der Leistung von KI-Systemen, Datenverschiebungen, Verzerrungsmessungen und Sicherheitsereignissen, um auftretende Risiken im Laufe der Zeit zu erkennen und zu adressieren.

Deckkraft

Das Fehlen von Transparenz bei der Art und Weise, wie ein KI-Modell Entscheidungen oder Vorhersagen trifft, stellt Herausforderungen für das Vertrauen und die Einhaltung von Vorschriften dar.

Betriebliche Resilienz

Die Fähigkeit von KI-Systemen und deren unterstützender Infrastruktur, Störungen oder widrigen Ereignissen vorherzusehen, ihnen standzuhalten, sich davon zu erholen und sich anzupassen.

Orchestrierung

Die automatisierte Koordination von KI-Arbeitsabläufen und -Diensten—Datenaufnahme, Modelltraining, Bereitstellung—gewährleistet die Einhaltung von Richtlinien und Ressourcenverwaltung.

Ausreißererkennung

Techniken zur Identifizierung von Datenpunkten oder Modellvorhersagen, die erheblich von den erwarteten Mustern abweichen und Überprüfungs- oder Abhilfemaßnahmen auslösen.

Überanpassung

Ein Modellierungsproblem, bei dem ein KI-System Rauschen oder Eigenheiten in den Trainingsdaten erlernt und dadurch seine Fähigkeit zur Verallgemeinerung auf neue, unsichtbare Daten verringert.

Überblick

Der strukturierte Prozess der Überprüfung, Genehmigung und Verantwortlichkeit für die Entwicklung und Bereitstellung von KI, der typischerweise funktionsübergreifende Governance-Instanzen umfasst.

Eigentum

Die klare Zuordnung von Verantwortung und Befugnissen für KI-Vermögenswerte—Daten, Modelle, Prozesse—um die Verantwortlichkeit über den gesamten Lebenszyklus des Systems zu gewährleisten.

P

Berechtigungsverwaltung

Die Verwaltung von Benutzer- und Systemzugriffsrechten auf KI-Daten und -Funktionen, um sicherzustellen, dass nur die minimalen erforderlichen Rechte vergeben werden und unbefugte Nutzung verhindert wird.

Pilotversuche

Ein begrenzter Versuch eines KI-Systems in einer kontrollierten Umgebung, um Leistung, Risiken und Governance-Kontrollen vor der vollständigen Einführung zu bewerten.

Richtlinienumsetzung

Die automatisierten oder manuellen Mechanismen, die sicherstellen, dass KI-Operationen den organisatorischen Richtlinien, regulatorischen Vorschriften und ethischen Leitlinien entsprechen.

Überwachungen nach der Bereitstellung

Fortlaufende Beobachtung des Verhaltens und der Umgebung von KI-Systemen nach deren Freigabe, um Abbau, Abweichungen oder Verstöße gegen die Compliance zu erkennen.

Vorausschauende Wartung

KI-gesteuerte Überwachung und Analyse zur Vorhersage von Komponenten- oder Systemausfällen, um die Betriebskontinuität zu gewährleisten und Risiken in kritischen Umgebungen zu mindern.

Datenschutz-Folgenabschätzung

Eine strukturierte Analyse zur Identifizierung und Minderung von Datenschutzrisiken im Zusammenhang mit KI-Systemen, die Datenerfassung, -nutzung, -weitergabe und -speicherung abdeckt.

Datenschutz durch Design

Ein Ansatz, der Datenschutz und die Privatsphäre der Nutzer von Anfang an in die Architektur und die Prozesse des KI-Systems einbindet.

Prozessautomatisierung

Der Einsatz von KI und Workflow-Tools zur Straffung von Governance, Compliance-Prüfungen und Risikominderungsaktivitäten, wodurch manueller Aufwand und Fehler verringert werden.

F

Qualitative Bewertung

Die subjektive Überprüfung von Verhaltensweisen, Entscheidungen und Dokumentationen von KI-Systemen durch Experten, um ethische, rechtliche oder rufschädigende Bedenken zu identifizieren, die quantitativ nicht erfasst werden.

Qualitätssicherung

Die systematischen Prozesse und Überprüfungen zur Sicherstellung, dass KI-Modelle und Datenpipelines definierte Standards für Genauigkeit, Zuverlässigkeit und ethische Konformität erfüllen.

Qualitätskontrolle

Die fortlaufende Überprüfung von AI-Ergebnissen und -Prozessen anhand von Benchmarks und Testfällen, um Mängel, Vorfälle von Voreingenommenheit oder Verstöße gegen Richtlinien aufzudecken.

Quantitative Risikoanalyse

Eine datenbasierte Bewertung potenzieller Bedrohungen durch KI, die Wahrscheinlichkeiten und Auswirkungen numerisch abschätzt, um Priorisierungsmaßnahmen zu ermöglichen und Risikokontrollstrategien zu optimieren.

Quantencomputing

Das aufstrebende Rechenparadigma, das die Quantenmechanik nutzt und neue Herausforderungen in Bezug auf Sicherheit, Standardisierung und Risiko aufwirft.

Abfrageprotokollierung

Die Praxis der Aufzeichnung von KI-Systemeingaben und Benutzeranfragen, um Prüfpfade zu ermöglichen, Missbrauch zu erkennen und Verantwortlichkeit zu unterstützen.

Datenschutz bei Abfragen

Techniken und Richtlinien zum Schutz sensibler Informationen in Benutzeranfragen, um sicherzustellen, dass aufgezeichnete Eingaben keine persönlichen oder proprietären Daten gefährden.

Fragebogenrahmen

Ein strukturierter Satz von governance-orientierten Fragen, der während der Gestaltung, Beschaffung oder Implementierung verwendet wird, um sicherzustellen, dass KI-Systeme mit den Anforderungen der Richtlinien übereinstimmen.

Beschlussfähigkeit des Governance Boards

Die Mindestanzahl der erforderlichen Mitglieder des Governance-Ausschusses, die anwesend sein müssen, um offizielle Entscheidungen über KI-Risiken, Genehmigungen von Richtlinien oder Prüfergebnisse zu treffen.

Kontingentverwaltung

Die Steuerungen und Begrenzungen der Nutzung von KI-Ressourcen (z. B. API-Aufrufe, Rechenzeit), um Governance-Richtlinien durchzusetzen und unkontrollierte Kosten oder Missbrauch zu verhindern.

R

Rückgriff

Mechanismen, die betroffenen Personen ermöglichen, KI-gesteuerte Entscheidungen, die ihre Rechte oder Interessen betreffen, anzufechten oder eine Abhilfe zu suchen.

Rotes Teaming

Ein proaktiver Testansatz, bei dem interne oder externe Experten Angriffe oder Missbrauchsszenarien simulieren, um Schwachstellen in KI-Systemen aufzudecken.

Regulatorische Konformität

Sicherstellung, dass KI-Systeme während ihres gesamten Betriebs die geltenden Gesetze, Vorschriften und Industriestandards (z. B. DSGVO, FDA, finanzielle Aufsicht) einhalten.

Reproduzierbarkeit

Die Fähigkeit, die Ergebnisse von KI-Modellen unter Verwendung derselben Daten, Codes und Konfigurationen konstant zu reproduzieren, wodurch Transparenz und Prüfbarkeit sichergestellt werden.

Verantwortlichkeitszuordnungsmatrix

Ein Werkzeug (z. B. RACI), das die Rollen und Verantwortlichkeiten für jede Governance-Aktivität klärt—wer verantwortlich, rechenschaftspflichtig, konsultiert und informiert ist.

Verantwortungsvolle KI

Die Praxis des Entwerfens, Entwickelns und Bereitstellens von KI-Systemen auf eine Weise, die ethisch, transparent und rechenschaftspflichtig gegenüber den Interessengruppen und der Gesellschaft ist.

Risikobewertung

Der Prozess der Identifizierung, Analyse und Priorisierung potenzieller Schäden oder Ausfälle in KI-Systemen, um geeignete Minderungsstrategien zu bestimmen.

Risikomanagement-Rahmenwerk

Eine strukturierte Reihe von Richtlinien und Prozessen zur systematischen Bewältigung von KI-Risiken über den gesamten Lebenszyklus des Systems, von der Gestaltung bis zur Außerbetriebnahme.

Robustheit

Die Fähigkeit eines KI-Systems, unter einer Vielzahl von herausfordernden oder gegnerischen Bedingungen eine zuverlässige Leistung zu erbringen.

Ursachenanalyse

Eine strukturierte Untersuchung, um die zugrunde liegenden Gründe für das Versagen von KI-Systemen oder unerwartetem Verhalten zu bestimmen und korrigierende Maßnahmen zu leiten.

S

Genehmigte Nutzungsrichtlinie

Definierte Regeln und Kontrollen, die zugelassene Kontexte, Benutzer und Zwecke für den Betrieb von KI-Systemen spezifizieren, um Missbrauch zu verhindern.

Sicherheit durch Design

Die Integration von Sicherheitskontrollen und bewährten Praktiken in KI-Systeme von den frühesten Designphasen an, um Schwachstellen und Datenverletzungen zu verhindern.

Schatten-KI

Die unautorisierte Verwendung von KI-Modellen, -Agenten oder -Werkzeugen durch Mitarbeiter ohne Genehmigung der IT-Abteilung schafft verdeckte Sicherheitslücken durch Datenleckagen und unbefugte autonome Aktionen.

Bewertung der gesellschaftlichen Auswirkungen

Eine strukturierte Bewertung, wie ein KI-System die sozialen, wirtschaftlichen und kulturellen Aspekte von Gemeinschaften beeinflusst, wobei mögliche Schäden und Vorteile identifiziert werden.

Software-Entwicklungslebenszyklus

Der End-to-End-Prozess (Anforderungen, Design, Erstellung, Test, Bereitstellung, Überwachung) für KI-Anwendungen, der in jeder Phase Governance- und Compliance-Prüfungen integriert.

Stakeholder-Engagement

Der Prozess der Einbeziehung betroffener Parteien (z.B. Benutzer, Regulierungsbehörden, betroffene Gemeinschaften) in die Entwicklung und Überwachung von KI, um vielfältige Perspektiven und Unterstützung sicherzustellen.

Überwachungsrisiko

Die Bedrohung, dass KI-Systeme für invasive Überwachung von Einzelpersonen oder Gruppen ausgenutzt werden könnten, wobei die Privatsphäre und bürgerliche Freiheiten verletzt werden.

Synthetische Daten

Künstlich generierte Datensätze, die reale Datenverteilungen nachahmen und zur Erweiterung von Trainingssätzen verwendet werden, während der Datenschutz gewahrt bleibt.

T

Extremes Risiko

Das Potenzial für seltene, extreme Ergebnisse im Verhalten oder in der Entscheidungsfindung von KI, die außerhalb normaler Erwartungen liegen und spezielle Maßnahmenplanung erfordern.

Testen & Validierung

Der systematische Prozess der Bewertung von KI-Modellen anhand von Benchmark-Tests, speziellen Randfällen und Belastungsbedingungen, um sicherzustellen, dass sie Leistungs-, Sicherheits- und Compliance-Kriterien erfüllen.

Risiko durch Dritte

Das Risiko, das sich aus der Abhängigkeit von externen Datenanbietern, Modelllieferanten oder Dienstleistungsplattformen ergibt, die möglicherweise Compliance- oder Sicherheitsanfälligkeiten einführen.

Schwellenwert Einstellung

Festlegung von Grenzen oder Grenzwerten in KI-Entscheidungsregeln (z. B. Vertrauenswerte), um Risiken wie falsch-positive gegenüber falsch-negativen Ergebnissen auszubalancieren.

Rückverfolgbarkeit

Die Fähigkeit, jeden Schritt im KI-Lebenszyklus nachzuverfolgen und zu dokumentieren—von der Datenerfassung über die Modellentwicklung bis hin zur Bereitstellung—um Prüfungen und forensische Analysen zu unterstützen.

Schulungsdatensatz

Die kuratierte Sammlung von gelabelten oder ungelabelten Daten, die verwendet wird, um einem KI-Modell die Beziehungen und Muster beizubringen, die es lernen muss, um seine Aufgabe auszuführen.

Transfer-Lernen

Eine Technik, bei der ein für eine Aufgabe entwickeltes Modell für eine verwandte Aufgabe angepasst wird. Dies verkürzt die Entwicklungszeit, erfordert jedoch eine Steuerung der übernommenen Vorurteile.

Transparenz

Die Praxis, Prozesse von KI-Systemen, Entscheidungslogik und Datennutzung für Transparenz und Verständlichkeit gegenüber Stakeholdern klar darzustellen.

Verlässliche KI

KI-Systeme, die in einer Weise entworfen und betrieben werden, die ethisch, zuverlässig, sicher und im Einklang mit menschlichen Werten und gesellschaftlichen Normen steht.

Sie

Unteranpassung

Ein Modellierungsproblem, bei dem ein KI-System zu einfach ist, um zugrunde liegende Datenmuster zu erfassen, was zu einer schlechten Leistung sowohl bei Trainingsdaten als auch bei neuen Daten führt.

Einheitlichkeit

Sicherstellung einer konsistenten Anwendung von Richtlinien, Kontrollen und Standards über alle KI-Systeme hinweg, um Governance-Lücken oder ungleiche Risikomanagementpraktiken zu vermeiden.

Unüberwachtes Lernen

Ein maschineller Lernansatz, bei dem Modelle Muster oder Gruppierungen in nicht gekennzeichneten Daten erkennen, ohne explizite Ergebnisanweisungen.

Verfügbarkeitsüberwachung

Kontinuierliche Überwachung der Verfügbarkeit und Leistung von KI-Systemen, um Ausfälle oder Leistungseinbußen zu erkennen, die kritische Abläufe oder Compliance-Verpflichtungen beeinträchtigen könnten.

Anwendungsfall-Governance

Die Praxis der Definition, Genehmigung und Überwachung spezifischer KI-Anwendungsfälle, um sicherzustellen, dass jeder mit den organisatorischen Richtlinien, ethischen Standards und der Risikobereitschaft übereinstimmt.

Benutzerzustimmung

Der Prozess des Einholens und Aufzeichnens ausdrücklicher Zustimmung von Einzelpersonen, bevor ihre persönlichen Daten in KI-Systemen gesammelt, verarbeitet oder verwendet werden.

Dienstprogramm

Ein Maß dafür, wie wertvoll oder effektiv ein KI-System bei der Erreichung seiner vorgesehenen Ziele ist, im Verhältnis zu den damit verbundenen Risiken oder Ressourcenaufwendungen.

V

Validierung

Der Prozess der Bestätigung, dass ein KI-Modell genaue und zuverlässige Leistungen bei den vorgesehenen Aufgaben erbringt und definierte Leistungskriterien erfüllt.

Varianzüberwachung

Verfolgung von Schwankungen in den Ausgaben von KI-Modellen oder Leistungskennzahlen im Laufe der Zeit, um Drift zu erkennen und potenziellen Abbau oder Risiken zu ermitteln.

Lieferantenrisikomanagement

Bewertung und Überwachung von Drittanbietern von KI-Komponenten oder -Dienstleistungen zur Identifizierung und Minderung potenzieller Compliance-, Sicherheits- oder ethischer Risiken.

Versionskontrolle

Die Praxis, Änderungen an KI-Code, Modellen und Datensätzen im Laufe der Zeit zu verwalten und nachzuverfolgen, um Reproduzierbarkeit und Prüfbarkeit sicherzustellen.

Vetorecht

Das formale Recht, das von einem Governance-Gremium oder einem Stakeholder ausgeübt wird, um AI-Implementierungen, die unannehmbare Risiken darstellen, zu blockieren oder Änderungen zu verlangen.

Überwachungsinstrument

Kontinuierliche Überwachung des Verhaltens von KI und externer Signale (z.B. regulatorische Aktualisierungen), um aufkommende Risiken oder Nicht-Einhaltungen frühzeitig zu erkennen und darauf zu reagieren.

Visuelle KI-Überwachung

Die Governance-Prozesse, die speziell für Computer-Vision-Systeme entwickelt wurden, gewährleisten die Datenqualität, führen Bias-Prüfungen durch und sorgen für Transparenz bei auf Bild/Video basierenden Entscheidungsprozessen.

Schwachstellenbewertung

Identifizierung, Analyse und Priorisierung von Sicherheitsschwächen in AI-Infrastrukturen und -Anwendungen zur Steuerung von Behebungsmaßnahmen.

W

Watchdog-Überwachung

Unabhängige Laufzeitprüfungen, die KI-Entscheidungen überwachen und Warnungen oder Eingriffe auslösen, wenn Richtlinien oder Schwellenwerte überschritten werden.

Gewichtskontrolle

Untersuchung von Modellgewichten und -strukturen auf Anomalien, Hintertüren oder Vorurteile, die auf Manipulationen oder unbeabsichtigte Verhaltensweisen hindeuten könnten.

White-Box-Tests

Bewertung von KI-Systemen mit umfassendem Wissen über interne Abläufe (Code, Parameter, Architektur), um Korrektheit, Sicherheit und Compliance zu überprüfen.

Richtlinie zur Zulassungsliste/Sperrliste

Governance-Regel, die erlaubte (Whitelist) und nicht erlaubte (Blacklist) Eingaben, Funktionen oder Vorgänge definiert, um die Einhaltung der Vorschriften zu gewährleisten und Missbrauch zu verhindern.

Positivliste

Nur vorab genehmigte Datenquellen, Bibliotheken oder Modellkomponenten in KI-Pipelines zuzulassen, um das Risiko durch nicht überprüfte oder bösartige Elemente zu reduzieren.

Arbeitsablauf-Orchestrierung

Automatisierung und Sequenzierung von KI-Lebenszyklusaufgaben (Datenaufnahme, Training, Validierung, Bereitstellung), um Governance-Richtlinien durchzusetzen und Konsistenz sicherzustellen.

Arbeitslasttrennung

Trennung von KI-Computing-Umgebungen (z. B. Entwicklung, Test, Produktion) und Datenbereichen, um den Ausbreitungsradius von Fehlern oder Sicherheitsverletzungen zu begrenzen.

Worst-Case-Analyse

Bewertung der extremsten potenziellen Ausfälle oder Missbräuche eines KI-Systems, um solide Risikominderungs- und Notfallplanungsstrategien zu entwickeln.

Speicher für einmaliges Schreiben und mehrfaches Lesen (WORM)

Unveränderlicher Speicher gewährleistet, dass Protokolle, Prüfpfade und Modellartefakte nach dem Schreiben nicht mehr verändert werden können, was die Nichtabstreitbarkeit unterstützt und eine forensische Überprüfung ermöglicht.

X

X-Validierung

Eine Modellvalidierungstechnik (häufig als „X-Val“ abgekürzt), die Daten in Falten aufteilt, um die Generalisierung des Modells rigoros zu bewerten und Überanpassung zu erkennen.

XAI (Erklärbare KI)

Techniken und Methoden, die den Entscheidungsprozess eines KI-Modells für Menschen transparent und verständlich machen und somit Verantwortlichkeit und Compliance unterstützen.

XAI-Prüfung

Ein Überprüfungsprozess, der bewertet, ob die Ausgaben zur Erklärbarkeit von KI den internen Richtlinien und behördlichen Anforderungen entsprechen und ausreichende Transparenz gewährleisten.

XAI-Framework

Ein strukturierter Ansatz oder ein Satz von Richtlinien, den Organisationen verwenden, um die Umsetzbarkeit, Messung und Steuerung von Erklärbarkeitspraktiken in ihren KI-Systemen zu implementieren und zu verwalten.

XAI-Metriken

Quantitative oder qualitative Messgrößen (z. B. Wichtigkeitsscores von Funktionen, Erklärungsgenauigkeit), die zur Bewertung der Qualität und Zuverlässigkeit von KI-Erklärungen verwendet werden.

Ja

YARA-Regeln

Ein Satz von signaturbasierten Erkennungsmustern, die verwendet werden, um KI-Pipelines und Artefakte auf bekannte bösartige Codes oder Manipulationen zu überprüfen.

Jährliche Compliance-Überprüfung

Eine jährliche Bewertung der KI-Governance-Prozesse, -Richtlinien und -Systeme, um die fortwährende Einhaltung von Vorschriften und internen Standards sicherzustellen.

Z

Null-Fehlertoleranz

Ein Governance-Prinzip, das darauf abzielt, keine Fehler oder Richtlinienverstöße in den KI-Ergebnissen zuzulassen, unterstützt durch rigorose Tests, Überwachung und kontinuierliche Verbesserungszyklen.

Zero-Day-Schwachstelle

Eine zuvor unbekannte Sicherheitslücke in der KI-Software oder -Infrastruktur, die ausgenutzt werden kann, bevor ein Patch oder eine Abhilfe verfügbar ist.

Null-Schuss-Lernen

Eine Modellfähigkeit, Aufgaben korrekt zu bewältigen oder Daten zu klassifizieren, auf die es nie explizit trainiert wurde, indem es generalisierte Wissensdarstellungen nutzt.

Zonenbasierte Zugriffskontrolle

Ein Netzwerk- oder Daten-Governance-Ansatz, der Ressourcen in Zonen mit unterschiedlichen Richtlinien unterteilt und den Zugriff von KI-Systemen gemäß der Datenempfindlichkeit einschränkt.

Whitepaper

Alle

Vorschriften für KI

Podcasts

Produktaktualisierungen

Presseberichterstattung

Glossar

Ein

Verantwortlichkeit der KI

Die Verpflichtung der Entwickler und Betreiber von KI-Systemen, sicherzustellen, dass ihre Systeme verantwortungsvoll entworfen und verwendet werden, unter Einhaltung ethischer Standards und gesetzlicher Anforderungen.

KI-Ausrichtung

Der Prozess, sicherzustellen, dass die Ziele und Verhaltensweisen von KI-Systemen mit menschlichen Werten und Absichten in Einklang stehen.

KI-Prüfung

Die systematische Bewertung von KI-Systemen zur Beurteilung der Einhaltung von ethischen Standards, Vorschriften und Leistungskennzahlen.

KI-Voreingenommenheit

Systematische Fehler in den Ausgaben der KI, die durch voreingenommene Trainingsdaten oder fehlerhafte Algorithmen entstehen und zu unfaire Ergebnisse führen.

KI-Konformität

Die Einhaltung von geltenden Gesetzen, Vorschriften und ethischen Richtlinien durch KI-Systeme während ihres gesamten Lebenszyklus.

KI-Ethik

Das Fachgebiet, das sich mit den moralischen Implikationen und Verantwortlichkeiten im Zusammenhang mit der Entwicklung und Implementierung von KI-Technologien befasst.

Erklärbarkeit von KI

Das Ausmaß, in dem die internen Mechanismen eines KI-Systems von Menschen verstanden und interpretiert werden können.

KI-Governance

Das Rahmenwerk aus Richtlinien, Prozessen und Kontrollmechanismen, das die ethische und effektive Entwicklung und Nutzung von KI-Systemen leitet.

KI-Inventar

Ein umfassender, zentralisierter Katalog aller KI-Systeme, Modelle und Agenten, die in einer Organisation verwendet werden, der ihren Geschäftszweck, das Risikoniveau und die Eigentümerschaft verfolgt.

KI-Kompetenz

Das Verständnis von KI-Konzepten, Fähigkeiten und Einschränkungen, ermöglicht eine informierte Interaktion mit KI-Technologien.

KI-Überwachung

Die kontinuierliche Beobachtung und Analyse der Leistung von KI-Systemen, um Zuverlässigkeit, Sicherheit und Compliance zu gewährleisten.

KI-Risiko

Das Potenzial von KI-Systemen, Schaden oder unbeabsichtigte Folgen zu verursachen, einschließlich ethischer, rechtlicher und betrieblicher Risiken.

KI-Risikomanagement

Der Prozess der Identifizierung, Bewertung und Minderung von Risiken im Zusammenhang mit KI-Systemen.

KI TRiSM

Ein von Gartner geprägtes Akronym, das für KI-Vertrauen, Risiko- und Sicherheitsmanagement steht; ein Rahmenwerk, das Governance, Vertrauenswürdigkeit und Sicherheit in eine einzige operative Strategie vereint.

KI-Transparenz

Das Prinzip, dass KI-Systeme offen und transparent über ihre Abläufe, Entscheidungen und Datennutzung informieren sollten.

Genauigkeit

Der Grad, zu dem die Ausgaben eines KI-Systems korrekt reale Daten oder beabsichtigte Ergebnisse widerspiegeln.

Gegnerischer Angriff

Techniken, die AI-Modelle durch das Einführen täuschender Eingaben manipulieren, um fehlerhafte Ergebnisse zu verursachen.

Agentic KI

Eine Klasse von künstlichen Intelligenzsystemen, die darauf ausgelegt ist, komplexe Ziele selbstständig zu verfolgen und mehrstufige Aktionen (wie Softwarebereitstellung oder Finanztransaktionen) mit minimalem menschlichen Eingriff auszuführen.

Agentische KI-Governance

Die Steuerung autonomer KI-Systeme, die unabhängig agieren können (z.B. Transaktionen, Code-Bereitstellung), unterscheidet sich von voraussschauender KI (die Einblicke bietet) und generativer KI (die Inhalte erstellt).

Algorithmus

Ein Satz von Regeln oder Anweisungen, die einem KI-System gegeben werden, um ihm zu helfen, eigenständig zu lernen.

Algorithmische Verzerrung

Ein Bias, der auftritt, wenn ein Algorithmus systematisch voreingenommene Ergebnisse produziert, aufgrund fehlerhafter Annahmen im maschinellen Lernprozess.

Algorithmische Verwaltung

Der Einsatz von Algorithmen zur Steuerung und Regulierung gesellschaftlicher Funktionen, der potenziell die Entscheidungsprozesse beeinflussen kann.

Allgemeine Künstliche Intelligenz

Eine Art von KI, die über die Fähigkeit verfügt, Wissen auf eine verallgemeinerte Weise zu verstehen, zu lernen und anzuwenden, ähnlich der menschlichen Intelligenz.

Künstliche Intelligenz

Die Simulation menschlicher Intelligenzprozesse durch Maschinen, insbesondere Computersysteme, einschließlich Lernen, Schlussfolgern und Selbstkorrektur.

B

Rückpropagation

Ein Trainingsalgorithmus, der in neuronalen Netzwerken verwendet wird, um Gewichte anzupassen, indem Fehler vom Ausgabeschicht rückwärts propagiert werden, um den Verlust zu minimieren.

Stapelverarbeitung Lernen

Ein maschinelles Lernverfahren, bei dem das Modell auf einmal mit dem gesamten Datensatz trainiert wird, im Gegensatz zum inkrementellen Lernen.

Benchmarking

Der Prozess des Vergleichs der Leistung eines KI-Systems mit Standardkennzahlen oder anderen Systemen zur Bewertung der Effektivität.

Voreingenommenheit

Systematische Fehler in den Ausgaben der KI, die durch voreingenommene Trainingsdaten oder fehlerhafte Algorithmen entstehen und zu unfaire Ergebnisse führen.

Verstärkung von Verzerrungen

Das Phänomen, bei dem KI-Systeme bestehende Vorurteile in den Trainingsdaten verstärken und zu zunehmend verzerrten Ergebnissen führen.

Voreingenommenheitsprüfung

Ein Bewertungsprozess zur Erkennung und Minderung von Verzerrungen in KI-Systemen, um Fairness und die Einhaltung ethischer Standards sicherzustellen.

Voreingenommenheitserkennung

Der Prozess der Identifizierung von Verzerrungen in KI-Modellen durch Analyse ihrer Ergebnisse und Entscheidungsprozesse.

Voreingenommenheitsminderung

Techniken, die während der KI-Entwicklung angewendet werden, um Vorurteile in Modellen und Datensätzen zu reduzieren oder zu beseitigen.

Schwarzkastenmodell

Ein KI-System, dessen interne Abläufe nicht transparent oder interpretierbar sind, was es schwierig macht zu verstehen, wie Entscheidungen getroffen werden.

Bot

Eine Softwareanwendung, die automatisierte Aufgaben ausführt und häufig in der KI für Aufgaben wie Kundenservice oder Datenerfassung eingesetzt wird.

C

Kausale Inferenz

Eine Methode in der KI und Statistik, die verwendet wird, um Ursache-Wirkungs-Beziehungen zu bestimmen und dabei hilft, die Auswirkungen von Interventionen oder Änderungen von Variablen zu verstehen.

Chatbot

Eine KI-gestützte Softwareanwendung, die darauf ausgelegt ist, menschliche Gespräche zu simulieren und häufig im Kundenservice sowie zur Informationsbeschaffung eingesetzt wird.

Klassifizierung

Ein überwachtes Lernverfahren im Bereich des maschinellen Lernens, bei dem das Modell die Kategorie oder Klassenbezeichnung neuer Beobachtungen basierend auf den Trainingsdaten vorhersagt.

Kognitive Voreingenommenheit

Systematische Abweichungsmuster von der Norm oder Rationalität im Urteil, die die Entscheidungsfindung von KI beeinflussen können, wenn sie in den Trainingsdaten vorhanden sind.

Kognitives Computing

Ein Teilbereich der KI, der menschliche Denkprozesse in einem computergestützten Modell simuliert, mit dem Ziel, komplexe Probleme ohne menschliche Unterstützung zu lösen.

Kognitive Belastung

Der gesamte mentale Aufwand, der im Arbeitsgedächtnis verwendet wird, wird im Bereich der KI berücksichtigt, um Systeme zu entwerfen, die Benutzer nicht überfordern.

Compliance-Rahmenwerk

Ein strukturierter Satz von Richtlinien und Best Practices, denen Organisationen folgen, um sicherzustellen, dass ihre KI-Systeme regulatorische und ethische Standards erfüllen.

Compliance-Risiko

Das Potenzial für rechtliche oder regulatorische Sanktionen, finanzielle Verluste oder Reputationsschäden, dem ein Unternehmen ausgesetzt ist, wenn es versäumt, gesetzliche Vorschriften, Regulierungen oder vorgegebene Praktiken einzuhalten.

Computer Vision

Ein Bereich der KI, der Computer darin schult, visuelle Informationen aus der Welt, wie Bilder und Videos, zu interpretieren und zu verarbeiten.

Konzeptdrift

Die Veränderung der statistischen Eigenschaften der Zielvariablen, die das Modell vorherzusagen versucht, im Laufe der Zeit, was zu einer Verschlechterung des Modells führt.

Vertrauensintervall

Ein Wertebereich, abgeleitet von Stichprobenstatistiken, der wahrscheinlich den Wert eines unbekannten Populationsparameters enthält, wird in der KI verwendet, um Unsicherheiten auszudrücken.

Konformitätsbewertung

Ein Verfahren zur Bestimmung, ob ein KI-System festgelegte Anforderungen, Standards oder Vorschriften erfüllt, das häufig Tests und Zertifizierungen umfasst.

Kontinuierliches Lernen

Die Fähigkeit eines KI-Systems, kontinuierlich aus neuen Dateneingaben zu lernen und sich ohne menschliches Eingreifen anzupassen, verbessert sich im Laufe der Zeit.

Steuerbarkeit

In welchem Maße Menschen die Entscheidungen und Verhaltensweisen eines KI-Systems lenken, beeinflussen oder übersteuern können.

Kreuzvalidierung

Eine Modellvalidierungsmethode zur Beurteilung, wie die Ergebnisse einer statistischen Analyse auf ein unabhängiges Datenset verallgemeinert werden können.

Cybersicherheit

Die Praxis des Schutzes von Systemen, Netzwerken und Programmen vor digitalen Angriffen ist entscheidend für den Schutz von KI-Systemen vor Bedrohungen.

D

Datenabweichung

Die Veränderung der Modell-Eingabedaten im Laufe der Zeit kann zu einer Verschlechterung der Modellleistung führen, wenn diese nicht überwacht und behoben wird.

Datenethik

Der Bereich der Ethik, der Datenpraktiken im Hinblick auf die moralischen Verpflichtungen bei der Erfassung, dem Schutz und der Nutzung personenbezogener Informationen bewertet.

Datenverwaltung

Die umfassende Verwaltung der Datenverfügbarkeit, Benutzerfreundlichkeit, Integrität und Sicherheit in einem Unternehmen, um sicherzustellen, dass Daten während ihres gesamten Lebenszyklus ordnungsgemäß behandelt werden.

Datenlebenszyklusverwaltung

Die richtlinienbasierte Verwaltung des Datenflusses über den gesamten Lebenszyklus: von der Erstellung und anfänglichen Speicherung bis zu dem Zeitpunkt, an dem die Daten veraltet sind und gelöscht werden.

Datenminimierung

Das Prinzip, nur die Daten zu erfassen, die für einen bestimmten Zweck erforderlich sind, reduziert das Risiko von Missbrauch oder Verstößen.

Datenschutz

Der Bereich der Informationstechnologie, der sich mit der Fähigkeit befasst, zu kontrollieren, welche Daten geteilt werden und mit wem, und dabei sicherzustellen, dass personenbezogene Daten angemessen behandelt werden.

Datenschutz

Der Prozess, wichtige Informationen vor Beschädigung, Kompromittierung oder Verlust zu schützen und die Einhaltung der Datenschutzgesetze und -vorschriften zu gewährleisten.

Datenqualität

Der Zustand von Daten, basierend auf Faktoren wie Genauigkeit, Vollständigkeit, Zuverlässigkeit und Relevanz, ist entscheidend für die effektive Leistung von KI-Modellen.

Datenresidenz

Der physische oder geografische Standort der Daten einer Organisation, der Auswirkungen auf die Einhaltung von Datenschutzgesetzen haben kann.

Datenhoheit

Das Konzept, dass Daten den Gesetzen und Governance-Strukturen des Landes unterliegen, in dem sie gesammelt, gespeichert oder verarbeitet werden.

Betroffene Person

Eine Person, deren personenbezogene Daten erfasst, gespeichert oder verarbeitet werden, was insbesondere im Kontext von Datenschutzgesetzen wie der DSGVO relevant ist.

De-Identifikation

Der Prozess der Entfernung oder Verschleierung personenbezogener Kennungen in Datensätzen, um es schwierig zu machen, Einzelpersonen zu identifizieren, wird verwendet, um die Privatsphäre zu schützen.

Tiefes Lernen

Ein Teilbereich des maschinellen Lernens, der neuronale Netze mit mehreren Schichten umfasst und die Modellierung komplexer Muster in Daten ermöglicht.

Täuschungstechnologie

Synthetische Medien, bei denen eine Person in einem bestehenden Bild oder Video durch das Abbild einer anderen Person ersetzt wird, das mit Hilfe von Deep-Learning-Techniken erstellt wurde.

Differentialer Datenschutz

Ein System zur öffentlichen Weitergabe von Informationen über einen Datensatz, indem Muster von Gruppen innerhalb des Datensatzes beschrieben werden, während Informationen über Einzelpersonen zurückgehalten werden.

Diskriminierung

Im Bereich der KI bezieht sich dies auf die unfaire Behandlung von Einzelpersonen oder Gruppen aufgrund von Verzerrungen in Daten oder Algorithmen, die zu ungleichen Ergebnissen führen.

Verteiltes Lernen

Ein maschineller Lernansatz, bei dem Trainingsdaten auf mehrere Geräte oder Standorte verteilt werden und Modelle kollaborativ trainiert werden, ohne rohe Daten auszutauschen.

Domänenanpassung

Eine Technik im maschinellen Lernen, bei der ein in einem Bereich trainiertes Modell angepasst wird, um in einem anderen, aber verwandten Bereich zu funktionieren.

Dynamische Risikoanalyse

Der kontinuierliche Prozess der Identifizierung und Bewertung von Risiken in Echtzeit ermöglicht rechtzeitige Reaktionen auf neu auftretende Bedrohungen in KI-Systemen.

E

Edge-KI

Die Bereitstellung von KI-Algorithmen auf Edge-Geräten ermöglicht die Datenverarbeitung und Entscheidungsfindung direkt an der Quelle der Datenerzeugung.

Edge-Analytik

Die Analyse von Daten am Rand des Netzwerks, nahe der Quelle der Datenerzeugung, reduziert Latenzzeiten und Bandbreitennutzung.

Ensemble-Lernen

Ein maschinelles Lernparadigma, bei dem mehrere Modelle trainiert und kombiniert werden, um dasselbe Problem zu lösen und die Gesamtleistung zu verbessern.

Entitätsauflösung

Der Prozess der Identifizierung und Verknüpfung von Datensätzen, die sich auf dasselbe reale Objekt in verschiedenen Datenbeständen beziehen.

Enzai

Eine Unternehmensplattform für KI-Governance, die es Organisationen ermöglicht, ihre KI-Systeme zu inventarisieren, bewerten und steuern, um eine maximale Einführung von KI zu gewährleisten und zugleich das Risiko zu minimieren.

Ethische KI

Die Praxis, KI-Systeme auf eine Weise zu entwerfen, zu entwickeln und bereitzustellen, die mit ethischen Prinzipien und Werten übereinstimmt, um Fairness, Verantwortlichkeit und Transparenz zu gewährleisten.

Ethisches KI-Audit

Der Prozess der systematischen Bewertung von KI-Systemen, um sicherzustellen, dass sie den ethischen Standards entsprechen und keinen Schaden verursachen.

Zertifizierung für ethische KI

Eine formale Anerkennung, dass ein KI-System etablierten ethischen Standards und Richtlinien entspricht.

Ethische KI-Governance

Der Rahmen von Richtlinien, Verfahren und Praktiken, die sicherstellen, dass KI-Systeme verantwortungsvoll und ethisch entwickelt und verwendet werden.

Ethische Rahmenwerke

Strukturierte Sätze von Prinzipien und Richtlinien, die dazu bestimmt sind, die ethische Entwicklung und Implementierung von KI-Systemen zu leiten.

Ethisches Hacken

Die bewusste Überprüfung von Systemen auf Schwachstellen, um Sicherheitsprobleme zu identifizieren und zu beheben, gewährleistet die Robustheit von KI-Systemen.

Ethische Auswirkungen Bewertung

Ein systematischer Evaluierungsprozess zur Identifizierung und Berücksichtigung der ethischen Implikationen und potenziellen gesellschaftlichen Auswirkungen von KI-Systemen vor deren Einsatz.

Ethisches Risiko

Das Potenzial eines KI-Systems, Schaden durch unethisches Verhalten wie Voreingenommenheit, Diskriminierung oder Verletzung der Privatsphäre zu verursachen.

Ethische Leitlinien für vertrauenswürdige KI

Ein Satz von Richtlinien, die von der hochrangigen Expertengruppe der Europäischen Kommission für KI entwickelt wurden, um vertrauenswürdige KI zu fördern, wobei der Schwerpunkt auf menschlicher Handlungskompetenz, technischer Robustheit, Datenschutz, Transparenz, Vielfalt, gesellschaftlichem Wohlergehen und Verantwortung liegt.

Techniken der Erklärbarkeit

Methoden zur Interpretation und zum Verständnis der Entscheidungen von KI-Modellen, wie LIME, SHAP und Salienzabbildungen.

Erklärbarkeit vs. Interpretierbarkeit

Während beide darauf abzielen, KI-Entscheidungen verständlich zu machen, konzentriert sich die Erklärbarkeit auf die Begründung der Entscheidungen, während sich die Interpretierbarkeit auf die Transparenz der internen Mechanismen des Modells bezieht.

Erklärbare KI (XAI)

KI-Systeme, die darauf ausgelegt sind, nachvollziehbare Begründungen für ihre Entscheidungen und Handlungen bereitzustellen, wodurch Transparenz und Vertrauen gestärkt werden.

Erklärbare Maschinelles Lernen

Maschinelle Lernmodelle, die entwickelt wurden, um klare und verständliche Erklärungen für ihre Vorhersagen und Entscheidungen bereitzustellen.

F

Gerechtigkeit

Sicherstellen, dass KI-Systeme unvoreingenommene und gerechte Ergebnisse für verschiedene Einzelpersonen und Gruppen liefern und diskriminierende Auswirkungen mindern.

Fairness-Kennzahlen

Quantitative Maße (z.B. demografische Parität, gleichberechtigte Chancen), die verwendet werden, um zu bewerten, wie fair die Vorhersagen eines KI-Modells über verschiedene Gruppen hinweg sind.

Falsch Negativ

Wenn ein AI-Modell fälschlicherweise eine negative Klasse für eine Instanz vorhersagt, die tatsächlich positiv ist (Typ-II-Fehler).

Falsch-Positiv

Wenn ein KI-Modell fälschlicherweise eine positive Klasse für ein Beispiel prognostiziert, das in Wirklichkeit negativ ist (Typ-I-Fehler).

Fehlertoleranz

Die Fähigkeit eines KI-Systems, auch dann korrekt weiterzuarbeiten, wenn einige Komponenten ausfallen oder Fehler produzieren.

Merkmalsengineering

Erstellen, Auswählen oder Transformieren von Rohdatensatzattributen in Merkmale, die die Leistung von maschinellen Lernmodellen verbessern.

Merkmalextraktion

Der Prozess der Zuordnung von Rohdaten (z. B. Text, Bilder) zu numerischen Darstellungen (Merkmale), die sich für die Eingabe in maschinelle Lernalgorithmen eignen.

Funktionsauswahl

Identifizierung und Auswahl der relevantesten Merkmale für das Modelltraining, um die Komplexität zu reduzieren und die Genauigkeit zu verbessern.

Föderiertes Lernen

Ein dezentraler Ansatz für maschinelles Lernen, bei dem Modelle auf mehreren Geräten oder Servern trainiert werden, die lokale Daten halten, ohne dass Rohdaten zentral geteilt werden müssen.

Rückkopplungsschleife

Ein Prozess, bei dem KI-Ausgaben als Eingaben zurückgeführt werden, was das Modellverhalten sowohl positiv (verstärkendes Lernen) als auch negativ (Verstärkung von Vorurteilen) verstärken kann.

Feinabstimmung

Anpassen eines vortrainierten KI-Modells an eine spezifische Aufgabe oder ein spezifisches Dataset durch Fortsetzung des Trainings mit neuen Daten, was oft die leistungsbezogene Effizienz verbessert.

Formale Verifikation

Mathematisch beweisen, dass KI-Algorithmen spezifischen Korrektheitseigenschaften entsprechen, die häufig in sicherheitskritischen Systemen verwendet werden.

Rahmenwerk

Ein strukturiertes Set von Richtlinien, Prozessen und Werkzeugen zur Steuerung, Entwicklung, Bereitstellung und Überwachung von KI-Systemen.

Betrugserkennung

Verwendung von KI-Techniken (z.B. Anomalieerkennung, Mustererkennung), um betrügerische Aktivitäten in Finanzwesen, Versicherungen usw. zu identifizieren und zu verhindern.

Funktionale Sicherheit

Sicherzustellen, dass KI-Systeme unter allen Bedingungen sicher funktionieren, insbesondere in Branchen wie der Automobilindustrie oder dem Gesundheitswesen, erfolgt oft durch Redundanz und Überprüfungen.

Fuzzy-Logik

Ein logisches System, das das Schlussfolgern mit ungefähren statt binären Wahrheitswerten handhabt – nützlich in Steuerungssystemen und im Umgang mit Unsicherheit.

G

DSGVO

Die Datenschutz-Grundverordnung der EU legt strenge Anforderungen für die Erfassung, Verarbeitung und die individuellen Rechte persönlicher Daten fest.

GPU

Spezialisierter Hardware-Beschleuniger für parallele Berechnungen, der häufig zum effizienten Trainieren und Ausführen groß angelegter KI-Modelle verwendet wird.

Lückenanalyse

Der Prozess, aktuelle KI-Governance-Praktiken mit den gewünschten Standards oder Vorschriften zu vergleichen, um Bereiche zu identifizieren, die Verbesserungen benötigen.

Verallgemeinerung

Die Fähigkeit eines KI-Modells, auf neuen, unbekannten Daten gute Leistungen zu erbringen, indem es zugrunde liegende Muster erfasst, anstatt Trainingsbeispiele auswendig zu lernen.

Generative KI

KI-Techniken (z.B. GANs, Transformer), die neue Inhalte wie Text, Bilder oder andere Medien erstellen, werfen häufig neuartige Fragen zur Governance und zum geistigen Eigentum auf.

Globales Modell

Ein konsolidiertes KI-Modell, das auf aggregierten Daten aus mehreren Quellen trainiert ist, im Gegensatz zu lokalisierten oder personalisierten Modellen.

Governance

Das Gesamtkonstrukt aus Richtlinien, Verfahren, Rollen und Verantwortlichkeiten, das die ethische, legale und effektive Entwicklung sowie den Einsatz von KI-Systemen leitet.

Lenkungsgremium

Eine funktionsübergreifende Gruppe (z. B. rechtlich, ethisch, technisch), die damit betraut ist, die Richtlinien zur KI-Governance innerhalb einer Organisation zu überwachen und deren Umsetzung zu gewährleisten.

Governance-Rahmenwerk

Ein strukturiertes Modell, das darlegt, wie die Komponenten der KI-Governance (Risikomanagement, Verantwortlichkeit, Aufsicht) zusammenpassen, um die Einhaltung von Vorschriften und die ethische Nutzung sicherzustellen.

Reifegradmodell für Governance

Ein gestuftes Rahmenwerk, das bewertet, wie fortgeschritten die KI-Governance-Praktiken einer Organisation sind, von ad-hoc bis optimiert.

Richtlinie zur Unternehmensführung

Ein formales Dokument, das Regeln, Rollen und Verfahren für die Entwicklung und Überwachung von KI innerhalb einer Organisation kodifiziert.

Governance-Bewertungssystem

Ein Dashboard oder Bericht, das wichtige Kennzahlen (z. B. Vorfälle von Voreingenommenheit, Compliance-Audits) zur Messung der Effektivität der KI-Governance im Laufe der Zeit verfolgt.

Gradientenabstieg

Ein Optimierungsalgorithmus, der die Modellparameter iterativ in die Richtung anpasst, die die Verlustfunktion minimal verringert.

Granulare Zustimmung

Ein Datenschutzansatz, der es Einzelpersonen ermöglicht, spezifische Berechtigungen für jede Art der Datennutzung zu erteilen oder zu verweigern, wodurch Transparenz und Kontrolle verbessert werden.

Grüne KI

Die Praxis, den ökologischen Fußabdruck von KI durch energieeffiziente Algorithmen und nachhaltige Computerpraktiken zu reduzieren.

Grauer-Box-Modell

Ein Modell, dessen innere Logik teilweise transparent ist (einige Komponenten sind interpretierbar, andere undurchsichtig), das Leistung und Erklärbarkeit ausbalanciert.

Tatsächliche Gegebenheit

Die präzisen, praxisnahen Daten oder Kennzeichnungen, die als Maßstab zur Schulung und Bewertung der Leistung von KI-Modellen verwendet werden.

Leitplanken

Vordefinierte Einschränkungen oder Überprüfungen (technisch und richtlinienbasiert), die in KI-Systeme eingebettet sind, um unsicheres oder nicht konformes Verhalten zur Laufzeit zu verhindern.

Leitlinie (Ethische KI)

Eine unverbindliche Empfehlung oder ein Best-Practice-Dokument, das von Organisationen (z.B. IEEE, EU) herausgegeben wird, um die verantwortungsvolle Entwicklung und Implementierung von KI zu gestalten.

H

Halluzination

Wenn generative KI inkorrekte oder erfundene Informationen erstellt, die plausibel erscheinen, aber keine Grundlage in den Trainingsdaten haben.

Umgang mit fehlenden Daten

Techniken (z.B. Imputation, Löschung, Modellierung) zur Schließung von Lücken in Datensätzen, um die Integrität und Fairness des Modells zu bewahren.

Hardware-Beschleuniger

Spezialisierte Chips (z.B. GPUs, TPUs), die zur Beschleunigung von KI-Berechnungen entwickelt wurden, mit Auswirkungen auf den Energieverbrauch und das Lieferkettenrisiko.

Schadensbewertung

Bewertung potenzieller negativer Auswirkungen (physisch, psychologisch, gesellschaftlich) von KI-Systemen und Definition von Minderungsstrategien.

Harmonisierung

Harmonisierung von KI-Richtlinien, -Standards und -Vorschriften über verschiedene Rechtsgebiete hinweg, um Konflikte zu reduzieren und Interoperabilität zu ermöglichen.

Hashierung

Der Prozess der Umwandlung von Daten in eine Zeichenfolge fester Größe wird für Datenintegritätsprüfungen und die datenschutzfreundliche Verknüpfung von Aufzeichnungen verwendet.

Heterogene Daten

Die Kombination von Daten unterschiedlicher Typen (Text, Bild, Sensor) oder aus mehreren Domänen stellt Herausforderungen an Integration und Governance dar.

Heuristik

Eine Faustregel oder vereinfachte Entscheidungsstrategie, die verwendet wird, um KI-Prozesse zu beschleunigen, wobei oft Optimalität gegen Effizienz eingetauscht wird.

Heuristische Bewertung

Eine Methode zur Gebrauchstauglichkeitsprüfung, bei der Experten ein KI-System anhand etablierter Gebrauchstauglichkeitsprinzipien beurteilen, um potenzielle Probleme zu identifizieren.

KI im Hochspannungsbereich

KI-Anwendungen, deren Ausfälle erheblichen Schaden verursachen könnten (z. B. medizinische Diagnosen, autonome Fahrzeuge), erfordern verstärkte Governance und Aufsicht.

Menschliche Aufsicht

Mechanismen, die es ausgewählten Personen ermöglichen, Entscheidungen von KI-Systemen zu überwachen, einzugreifen oder zu überschreiben, um ethische und gesetzliche Konformität sicherzustellen.

Auswirkungen auf die Menschenrechte Bewertung

Ein Verfahren zur Bewertung, wie KI-Systeme die Grundrechte (Privatsphäre, Meinungsfreiheit, Nichtdiskriminierung) beeinflussen, und zur Identifizierung von Minderungsmaßnahmen.

Mensch-in-der-Schleife

Einbeziehung menschlicher Urteilsfähigkeit in KI-Prozesse (Schulung, Validierung, Entscheidungsüberprüfung), um Genauigkeit und Verantwortlichkeit zu verbessern.

Hybrides Modell

KI-Systeme, die mehrere Lernparadigmen kombinieren (z. B. symbolische und neuronale), um Erklärbarkeit und Leistung in Einklang zu bringen.

Hyperparameter

Eine Konfigurationsvariable (z. B. Lernrate, Baumeistiefe), die vor dem Modelltraining festgelegt wird und das Lernverhalten sowie die Leistung beeinflusst.

Optimierung von Hyperparametern

Der Prozess der Suche nach den optimalen Hyperparameterwerten (z.B. durch Grid-Suche oder Bayes'sche Optimierung), um die Modellleistung zu maximieren.

Ich

ISO/IEC JTC 1/SC 42

Der gemeinsame ISO/IEC-Ausschuss für die Standardisierung Künstlicher Intelligenz entwickelt internationale KI-Standards für Governance, Risiko und Interoperabilität.

Ungleichgewichtige Daten

Ein Datensatz, bei dem eine Klasse oder Kategorie die anderen signifikant überwiegt, was dazu führen kann, dass KI-Modelle zugunsten der Mehrheitsklasse voreingenommen sind, es sei denn, dies wird behoben.

Unveränderliches Hauptbuch

Ein manipulationssicheres Aufzeichnungsmechanismus (z.B. Blockchain), der sicherstellt, dass Daten nach der Speicherung nicht verändert werden können, ohne dass eine Erkennung erfolgt - nützlich für KI-Audit-Trails.

Auswirkungsbewertung

Eine strukturierte Bewertung zur Identifizierung, Analyse und Minderung potenzieller ethischer, rechtlicher und gesellschaftlicher Auswirkungen eines KI-Systems vor dessen Einsatz.

Implizite Voreingenommenheit

Unbewusste oder unbeabsichtigte Verzerrungen, die in den Trainingsdaten oder im Modellentwurf eingebettet sind und zu diskriminierenden Ergebnissen führen können.

Anreizabstimmung

Die Gestaltung von Belohnungsstrukturen und Zielen, sodass die Zielsetzungen von KI-Systemen mit menschlichen Werten und organisatorischen Prioritäten übereinstimmen.

Induktive Verzerrung

Die Menge von Annahmen, die ein Lernalgorithmus verwendet, um von beobachteten Daten auf nicht gesehene Instanzen zu verallgemeinern.

Schlussfolgerung

Der Prozess, bei dem ein trainiertes KI-Modell neue Daten eingibt, um Vorhersagen oder Entscheidungen zu treffen.

Schlussfolgerungsmaschine

Die Komponente eines KI-Systems (oft in regelbasierten oder Expertensystemen), die eine Wissensdatenbank auf Eingabedaten anwendet, um Schlussfolgerungen zu ziehen.

Informationsverwaltung

Die Richtlinien, Verfahren und Kontrollen, die die Datenqualität, den Datenschutz und die Nutzbarkeit über die Datenbestände einer Organisation hinweg gewährleisten, einschließlich der Schulungsdatensätze für künstliche Intelligenz.

Datenschutzinformationen

Das Recht von Personen, zu kontrollieren, wie ihre persönlichen Daten von KI-Systemen gesammelt, verwendet, gespeichert und geteilt werden.

Infrastruktur als Code (IaC)

Verwalten und Bereitstellen von KI-Infrastruktur (Rechenleistung, Speicher, Netzwerk) durch maschinenlesbare Konfigurationsdateien, wodurch Wiederholbarkeit und Prüfungsfähigkeit verbessert werden.

Interoperabilität

Die Fähigkeit verschiedener KI-Systeme und -Komponenten, Informationen nahtlos auszutauschen, zu verstehen und zu nutzen, häufig über offene Standards oder APIs.

Interpretierbarkeit

Das Maß, in dem ein Mensch die inneren Mechanismen oder Entscheidungsgründe eines KI-Modells verstehen kann.

Einbruchserkennung

Überwachung der KI-Infrastruktur und -Anwendungen auf bösartige Aktivitäten oder Verstöße gegen Richtlinien, Auslösung von Warnungen oder automatisierten Reaktionen.

J

Jacobian-Matrix

In der Erklärbarkeit von KI ist die Matrix aller partiellen Ableitungen erster Ordnung der Ausgaben eines Modells in Bezug auf seine Eingaben, die zur Bewertung der Empfindlichkeit und der Merkmalsbedeutung verwendet wird.

Jailbreak-Angriff

Eine Art von Prompt-Injection, bei der Benutzer Schwachstellen ausnutzen, um Schutzmaßnahmen in generativen KI-Modellen zu umgehen, was möglicherweise zu unsicheren oder unautorisierten Ausgaben führen kann.

Gemeinsame Haftung

Rechtsprinzip, bei dem mehrere Parteien (z. B. Entwickler, Betreiber) die Verantwortung für KI-bedingte Schäden teilen, was Einfluss auf Vertrags- und Governance-Strukturen hat.

Gemeinsame Modellierung

Entwicklung von KI-Systemen, die mehrere Aufgaben gleichzeitig lernen (z. B. Spracherkennung + Übersetzung), wobei eine Governance für Komplexität und Überprüfbarkeit erforderlich ist.

Urteilsverzerrung

Systematische Fehler in menschlichen oder KI-Entscheidungsprozessen, die durch kognitive Abkürzungen oder fehlerhafte Daten verursacht werden, erfordern eine Überprüfung und Minderung von Verzerrungen.

Gerichtliche Überprüfung

Der rechtliche Prozess, bei dem Gerichte die Gesetzmäßigkeit von Entscheidungen prüfen, die von KI getroffen oder unterstützt werden, um Verantwortlichkeit und ordnungsgemäßen Ablauf sicherzustellen.

Rechtsraum

Die rechtliche Zuständigkeit über Daten, KI-Operationen und Haftung, die je nach geografischer Lage variiert und die Einhaltung regionaler Vorschriften beeinflusst (z. B. DSGVO, CCPA).

Juror Automatisierung

Der Einsatz von KI zur Unterstützung bei der Jury-Auswahl oder der Fallanalyse wirft ethische Bedenken hinsichtlich Fairness, Transparenz und rechtlicher Aufsicht auf.

Gerechtigkeitsmetriken

Quantitative Messgrößen (z. B. unterschiedliche Auswirkungen, Chancengleichheit), die zur Bewertung von Fairness und Nichtdiskriminierung bei KI-Entscheidungsprozessen verwendet werden.

K

Schlüsselindikator für die Leistung

Ein quantifizierbarer Messwert (z. B. Modellgenauigkeitsdrift, Zeit zur Beseitigung von Vorurteilen), der zur Überwachung und Berichterstattung über Ziele der KI-Governance und Compliance verwendet wird.

Schlüsselrisikoindikator

Ein führender Messwert (z.B. Häufigkeit von unzutreffenden Vorhersagen, Rate unerklärlicher Entscheidungen), der auf aufkommende KI-Risiken hinweist, bevor sie sich manifestieren.

Kennen Sie Ihren Kunden (KYC)

Compliance-Prozesse zur Überprüfung der Identität, des Risikoprofils und der Legitimität von Personen oder Unternehmen, die mit KI-Systemen interagieren, insbesondere in regulierten Branchen.

Wissensverdichtung

Eine Methode zur Übertragung von Erkenntnissen von einem größeren „Lehrer“-Modell auf ein kleineres „Schüler“-Modell, um Leistung mit Ressourcen- und Governance-Einschränkungen in Einklang zu bringen.

Wissensgraph

Eine strukturierte Darstellung von Entitäten und deren Beziehungen, die dazu verwendet wird, die Erklärbarkeit, Prüfbarkeit und Anpassung von KI an Domänenontologien zu verbessern.

Wissensmanagement

Praktiken und Werkzeuge zur Erfassung, Organisation und Weitergabe von Organisationswissen (z. B. Modeldokumentation, Prüfungsprotokolle), um Reproduzierbarkeit und Aufsicht sicherzustellen.

L

Etikettenleckage

Die unbeabsichtigte Aufnahme von Ausgabedaten in die Trainingsdatenetiketten, die Leistungskennzahlen beeinflussen und tatsächliche Generalisierungsprobleme des Modells verschleiern können.

Großes Sprachmodell

Ein Deep-Learning-Modell, das auf umfangreichen Textkorpora trainiert wurde und Aufgaben wie Textgenerierung, Übersetzung und Zusammenfassung ausführen kann, wobei oft eine sorgfältige Steuerung von Vorurteilen und Missbrauch erforderlich ist.

Prinzip der minimalen Rechte

Ein Sicherheitsprinzip, bei dem KI-Komponenten und Benutzer nur die minimal erforderlichen Zugriffsrechte erhalten, die notwendig sind, um ihre Funktionen auszuführen, wodurch das Risiko eines Missbrauchs verringert wird.

Rechtliche Konformität

Die Praxis, sicherzustellen, dass KI-Systeme während ihres gesamten Lebenszyklus den geltenden Gesetzen, Vorschriften und Industriestandards entsprechen.

Haftungsrahmen

Ein strukturierter Ansatz zur Bestimmung der Verantwortlichkeiten bei KI-bezogenen Schäden oder Ausfällen, einschließlich Entwicklern, Implementierern und Betreibern.

Lebenszyklusmanagement

Die koordinierten Prozesse für Entwicklung, Bereitstellung, Überwachung, Wartung und Außerdienststellung von KI-Systemen, um kontinuierliche Compliance und Risikokontrolle sicherzustellen.

Lebendigkeitserkennung

Techniken, die verwendet werden, um zu überprüfen, dass eine Eingabe (z. B. biometrische Daten) von einem lebenden Subjekt stammt und nicht von einem Spoof oder Replay, wodurch die Systemsicherheit und Integrität verbessert wird.

Lokalisierung

Anpassung von KI-Systemen an lokale Sprachen, Vorschriften, kulturelle Normen und Anforderungen an die Datenresidenz in verschiedenen Gerichtsbarkeiten.

Protokollverwaltung

Die Sammlung, Speicherung und Analyse von System- und Anwendungsprotokollen aus AI-Workflows zur Unterstützung von Audits, Reaktionsmaßnahmen auf Vorfälle und der Nachverfolgung von Modellleistung.

Verlustfunktion

Eine mathematische Funktion, die den Unterschied zwischen vorhergesagten Ausgaben und tatsächlichen Werten quantifiziert und die Modellschulung und -optimierung steuert.

M

Bedeutungsvolle Menschliche Kontrolle

Ein regulatorischer und betrieblicher Standard, der sicherstellt, dass Menschen die Fähigkeit behalten, AI-Entscheidungsprozesse zu überwachen, einzugreifen und zu übersteuern.

Metadatenverwaltung

Die Praxis der Erfassung und Pflege beschreibender Daten (z. B. Datenherkunft, Merkmaldefinitionen, Modellparameter), um Rückverfolgbarkeit und Audits zu unterstützen.

Kennzahlen & Leistungsindikatoren

Quantitative Maße (z.B. Abweichung der Genauigkeit, Fairness-Scores, Reaktionszeiten bei Vorfällen), die zur Überwachung der Systemgesundheit, Risiken und Compliance-Ziele von KI-Systemen verwendet werden.

Minderungsstrategien

Geplante Maßnahmen (z. B. Beseitigung von Voreingenommenheit, erneutes Training, Feature-Re-Engineering) zur Behebung identifizierter KI-Risiken und Compliance-Lücken.

Modellerklärbarkeit

Techniken und Dokumentation, die die Entscheidungslogik eines KI-Modells verständlich für Stakeholder und Prüfer machen.

Modellführung

Die Richtlinien, Rollen und Kontrollen, die sicherstellen, dass KI-Modelle in Übereinstimmung mit den organisatorischen Standards und regulatorischen Anforderungen entwickelt, genehmigt und verwendet werden.

Modellüberwachung

Kontinuierliches Überwachen der Leistung eines KI-Modells, der Datenverschiebung und der Betriebskennzahlen zur Erkennung von Verschlechterungen oder aufkommenden Risiken.

Modell-Neutraining

Der Prozess der Aktualisierung eines KI-Modells mit neuen oder aktualisierten Daten, um die Leistung und die Einhaltung der Vorschriften aufrechtzuerhalten, während sich die Datenverteilung weiterentwickelt.

Modellrisikomanagement

Der strukturierte Prozess zur Identifizierung, Bewertung und Minderung von Risiken, die sich aus KI/ML-Modellen während ihres gesamten Lebenszyklus ergeben.

Modellvalidierung

Die Evaluierungstätigkeiten (z. B. Tests mit zurückgestellten Daten, Stressszenarien), die bestätigen, dass ein KI-Modell seinen vorgesehenen Zweck und die Leistungskriterien erfüllt.

Engagement von mehreren Interessengruppen

Einbeziehung verschiedener Gruppen (z. B. Recht, Ethik, Betrieb, Endbenutzer) in die Prozesse der KI-Governance, um eine ausgewogene Risikokontrolle und die Ausrichtung auf Unternehmensziele sicherzustellen.

N

NIST KI-Risikomanagement-Rahmenwerk

Eine freiwillige Anleitung des US-amerikanischen National Institute of Standards and Technology, die bewährte Verfahren zur Risikominderung über den gesamten Lebenszyklus von KI-Systemen darlegt.

Verarbeitung natürlicher Sprache (NLP)

Techniken und Werkzeuge, die Maschinen ermöglichen, menschliche Sprache in Text- oder Sprachform zu interpretieren, zu generieren und zu analysieren.

Netzwerksicherheit

Maßnahmen und Kontrollen (z. B. Segmentierung, Firewalls, Eindringungserkennung), um die KI-Infrastruktur und Datenpipelines vor unbefugtem Zugriff oder Manipulation zu schützen.

Neuronale Architektur-Suche

Automatisierte Methoden zur Gestaltung und Optimierung von neuronalen Netzwerkstrukturen, um die Modellleistung zu verbessern, während die Komplexität und Ressourcenbeschränkungen ausgewogen werden.

Rauschinjektion

Gezielte Einführung zufälliger Störungen in Trainingsdaten oder Modellparameter, um die Robustheit zu erhöhen und gegen manipulative Angriffe zu schützen.

Neuartigkeitserkennung

Techniken zur Identifizierung von Eingaben oder Szenarien, die erheblich von den Trainingsdaten abweichen und eine Überprüfung oder einen Sicherheitsmodus auslösen, um unerwartete Ausfälle zu verhindern.

O

Beobachtbarkeit

Die Fähigkeit, den internen Zustand und das Verhalten eines KI-Systems durch die Sammlung und Analyse von Protokollen, Metriken und Ausgaben für effektive Überwachung und Fehlerbehebung abzuleiten.

Fortlaufende Überwachung

Kontinuierliches Tracking der Leistung von KI-Systemen, Datenverschiebungen, Verzerrungsmessungen und Sicherheitsereignissen, um auftretende Risiken im Laufe der Zeit zu erkennen und zu adressieren.

Deckkraft

Das Fehlen von Transparenz bei der Art und Weise, wie ein KI-Modell Entscheidungen oder Vorhersagen trifft, stellt Herausforderungen für das Vertrauen und die Einhaltung von Vorschriften dar.

Betriebliche Resilienz

Die Fähigkeit von KI-Systemen und deren unterstützender Infrastruktur, Störungen oder widrigen Ereignissen vorherzusehen, ihnen standzuhalten, sich davon zu erholen und sich anzupassen.

Orchestrierung

Die automatisierte Koordination von KI-Arbeitsabläufen und -Diensten—Datenaufnahme, Modelltraining, Bereitstellung—gewährleistet die Einhaltung von Richtlinien und Ressourcenverwaltung.

Ausreißererkennung

Techniken zur Identifizierung von Datenpunkten oder Modellvorhersagen, die erheblich von den erwarteten Mustern abweichen und Überprüfungs- oder Abhilfemaßnahmen auslösen.

Überanpassung

Ein Modellierungsproblem, bei dem ein KI-System Rauschen oder Eigenheiten in den Trainingsdaten erlernt und dadurch seine Fähigkeit zur Verallgemeinerung auf neue, unsichtbare Daten verringert.

Überblick

Der strukturierte Prozess der Überprüfung, Genehmigung und Verantwortlichkeit für die Entwicklung und Bereitstellung von KI, der typischerweise funktionsübergreifende Governance-Instanzen umfasst.

Eigentum

Die klare Zuordnung von Verantwortung und Befugnissen für KI-Vermögenswerte—Daten, Modelle, Prozesse—um die Verantwortlichkeit über den gesamten Lebenszyklus des Systems zu gewährleisten.

P

Berechtigungsverwaltung

Die Verwaltung von Benutzer- und Systemzugriffsrechten auf KI-Daten und -Funktionen, um sicherzustellen, dass nur die minimalen erforderlichen Rechte vergeben werden und unbefugte Nutzung verhindert wird.

Pilotversuche

Ein begrenzter Versuch eines KI-Systems in einer kontrollierten Umgebung, um Leistung, Risiken und Governance-Kontrollen vor der vollständigen Einführung zu bewerten.

Richtlinienumsetzung

Die automatisierten oder manuellen Mechanismen, die sicherstellen, dass KI-Operationen den organisatorischen Richtlinien, regulatorischen Vorschriften und ethischen Leitlinien entsprechen.

Überwachungen nach der Bereitstellung

Fortlaufende Beobachtung des Verhaltens und der Umgebung von KI-Systemen nach deren Freigabe, um Abbau, Abweichungen oder Verstöße gegen die Compliance zu erkennen.

Vorausschauende Wartung

KI-gesteuerte Überwachung und Analyse zur Vorhersage von Komponenten- oder Systemausfällen, um die Betriebskontinuität zu gewährleisten und Risiken in kritischen Umgebungen zu mindern.

Datenschutz-Folgenabschätzung

Eine strukturierte Analyse zur Identifizierung und Minderung von Datenschutzrisiken im Zusammenhang mit KI-Systemen, die Datenerfassung, -nutzung, -weitergabe und -speicherung abdeckt.

Datenschutz durch Design

Ein Ansatz, der Datenschutz und die Privatsphäre der Nutzer von Anfang an in die Architektur und die Prozesse des KI-Systems einbindet.

Prozessautomatisierung

Der Einsatz von KI und Workflow-Tools zur Straffung von Governance, Compliance-Prüfungen und Risikominderungsaktivitäten, wodurch manueller Aufwand und Fehler verringert werden.

F

Qualitative Bewertung

Die subjektive Überprüfung von Verhaltensweisen, Entscheidungen und Dokumentationen von KI-Systemen durch Experten, um ethische, rechtliche oder rufschädigende Bedenken zu identifizieren, die quantitativ nicht erfasst werden.

Qualitätssicherung

Die systematischen Prozesse und Überprüfungen zur Sicherstellung, dass KI-Modelle und Datenpipelines definierte Standards für Genauigkeit, Zuverlässigkeit und ethische Konformität erfüllen.

Qualitätskontrolle

Die fortlaufende Überprüfung von AI-Ergebnissen und -Prozessen anhand von Benchmarks und Testfällen, um Mängel, Vorfälle von Voreingenommenheit oder Verstöße gegen Richtlinien aufzudecken.

Quantitative Risikoanalyse

Eine datenbasierte Bewertung potenzieller Bedrohungen durch KI, die Wahrscheinlichkeiten und Auswirkungen numerisch abschätzt, um Priorisierungsmaßnahmen zu ermöglichen und Risikokontrollstrategien zu optimieren.

Quantencomputing

Das aufstrebende Rechenparadigma, das die Quantenmechanik nutzt und neue Herausforderungen in Bezug auf Sicherheit, Standardisierung und Risiko aufwirft.

Abfrageprotokollierung

Die Praxis der Aufzeichnung von KI-Systemeingaben und Benutzeranfragen, um Prüfpfade zu ermöglichen, Missbrauch zu erkennen und Verantwortlichkeit zu unterstützen.

Datenschutz bei Abfragen

Techniken und Richtlinien zum Schutz sensibler Informationen in Benutzeranfragen, um sicherzustellen, dass aufgezeichnete Eingaben keine persönlichen oder proprietären Daten gefährden.

Fragebogenrahmen

Ein strukturierter Satz von governance-orientierten Fragen, der während der Gestaltung, Beschaffung oder Implementierung verwendet wird, um sicherzustellen, dass KI-Systeme mit den Anforderungen der Richtlinien übereinstimmen.

Beschlussfähigkeit des Governance Boards

Die Mindestanzahl der erforderlichen Mitglieder des Governance-Ausschusses, die anwesend sein müssen, um offizielle Entscheidungen über KI-Risiken, Genehmigungen von Richtlinien oder Prüfergebnisse zu treffen.

Kontingentverwaltung

Die Steuerungen und Begrenzungen der Nutzung von KI-Ressourcen (z. B. API-Aufrufe, Rechenzeit), um Governance-Richtlinien durchzusetzen und unkontrollierte Kosten oder Missbrauch zu verhindern.

R

Rückgriff

Mechanismen, die betroffenen Personen ermöglichen, KI-gesteuerte Entscheidungen, die ihre Rechte oder Interessen betreffen, anzufechten oder eine Abhilfe zu suchen.

Rotes Teaming

Ein proaktiver Testansatz, bei dem interne oder externe Experten Angriffe oder Missbrauchsszenarien simulieren, um Schwachstellen in KI-Systemen aufzudecken.

Regulatorische Konformität

Sicherstellung, dass KI-Systeme während ihres gesamten Betriebs die geltenden Gesetze, Vorschriften und Industriestandards (z. B. DSGVO, FDA, finanzielle Aufsicht) einhalten.

Reproduzierbarkeit

Die Fähigkeit, die Ergebnisse von KI-Modellen unter Verwendung derselben Daten, Codes und Konfigurationen konstant zu reproduzieren, wodurch Transparenz und Prüfbarkeit sichergestellt werden.

Verantwortlichkeitszuordnungsmatrix

Ein Werkzeug (z. B. RACI), das die Rollen und Verantwortlichkeiten für jede Governance-Aktivität klärt—wer verantwortlich, rechenschaftspflichtig, konsultiert und informiert ist.

Verantwortungsvolle KI

Die Praxis des Entwerfens, Entwickelns und Bereitstellens von KI-Systemen auf eine Weise, die ethisch, transparent und rechenschaftspflichtig gegenüber den Interessengruppen und der Gesellschaft ist.

Risikobewertung

Der Prozess der Identifizierung, Analyse und Priorisierung potenzieller Schäden oder Ausfälle in KI-Systemen, um geeignete Minderungsstrategien zu bestimmen.

Risikomanagement-Rahmenwerk

Eine strukturierte Reihe von Richtlinien und Prozessen zur systematischen Bewältigung von KI-Risiken über den gesamten Lebenszyklus des Systems, von der Gestaltung bis zur Außerbetriebnahme.

Robustheit

Die Fähigkeit eines KI-Systems, unter einer Vielzahl von herausfordernden oder gegnerischen Bedingungen eine zuverlässige Leistung zu erbringen.

Ursachenanalyse

Eine strukturierte Untersuchung, um die zugrunde liegenden Gründe für das Versagen von KI-Systemen oder unerwartetem Verhalten zu bestimmen und korrigierende Maßnahmen zu leiten.

S

Genehmigte Nutzungsrichtlinie

Definierte Regeln und Kontrollen, die zugelassene Kontexte, Benutzer und Zwecke für den Betrieb von KI-Systemen spezifizieren, um Missbrauch zu verhindern.

Sicherheit durch Design

Die Integration von Sicherheitskontrollen und bewährten Praktiken in KI-Systeme von den frühesten Designphasen an, um Schwachstellen und Datenverletzungen zu verhindern.

Schatten-KI

Die unautorisierte Verwendung von KI-Modellen, -Agenten oder -Werkzeugen durch Mitarbeiter ohne Genehmigung der IT-Abteilung schafft verdeckte Sicherheitslücken durch Datenleckagen und unbefugte autonome Aktionen.

Bewertung der gesellschaftlichen Auswirkungen

Eine strukturierte Bewertung, wie ein KI-System die sozialen, wirtschaftlichen und kulturellen Aspekte von Gemeinschaften beeinflusst, wobei mögliche Schäden und Vorteile identifiziert werden.

Software-Entwicklungslebenszyklus

Der End-to-End-Prozess (Anforderungen, Design, Erstellung, Test, Bereitstellung, Überwachung) für KI-Anwendungen, der in jeder Phase Governance- und Compliance-Prüfungen integriert.

Stakeholder-Engagement

Der Prozess der Einbeziehung betroffener Parteien (z.B. Benutzer, Regulierungsbehörden, betroffene Gemeinschaften) in die Entwicklung und Überwachung von KI, um vielfältige Perspektiven und Unterstützung sicherzustellen.

Überwachungsrisiko

Die Bedrohung, dass KI-Systeme für invasive Überwachung von Einzelpersonen oder Gruppen ausgenutzt werden könnten, wobei die Privatsphäre und bürgerliche Freiheiten verletzt werden.

Synthetische Daten

Künstlich generierte Datensätze, die reale Datenverteilungen nachahmen und zur Erweiterung von Trainingssätzen verwendet werden, während der Datenschutz gewahrt bleibt.

T

Extremes Risiko

Das Potenzial für seltene, extreme Ergebnisse im Verhalten oder in der Entscheidungsfindung von KI, die außerhalb normaler Erwartungen liegen und spezielle Maßnahmenplanung erfordern.

Testen & Validierung

Der systematische Prozess der Bewertung von KI-Modellen anhand von Benchmark-Tests, speziellen Randfällen und Belastungsbedingungen, um sicherzustellen, dass sie Leistungs-, Sicherheits- und Compliance-Kriterien erfüllen.

Risiko durch Dritte

Das Risiko, das sich aus der Abhängigkeit von externen Datenanbietern, Modelllieferanten oder Dienstleistungsplattformen ergibt, die möglicherweise Compliance- oder Sicherheitsanfälligkeiten einführen.

Schwellenwert Einstellung

Festlegung von Grenzen oder Grenzwerten in KI-Entscheidungsregeln (z. B. Vertrauenswerte), um Risiken wie falsch-positive gegenüber falsch-negativen Ergebnissen auszubalancieren.

Rückverfolgbarkeit

Die Fähigkeit, jeden Schritt im KI-Lebenszyklus nachzuverfolgen und zu dokumentieren—von der Datenerfassung über die Modellentwicklung bis hin zur Bereitstellung—um Prüfungen und forensische Analysen zu unterstützen.

Schulungsdatensatz

Die kuratierte Sammlung von gelabelten oder ungelabelten Daten, die verwendet wird, um einem KI-Modell die Beziehungen und Muster beizubringen, die es lernen muss, um seine Aufgabe auszuführen.

Transfer-Lernen

Eine Technik, bei der ein für eine Aufgabe entwickeltes Modell für eine verwandte Aufgabe angepasst wird. Dies verkürzt die Entwicklungszeit, erfordert jedoch eine Steuerung der übernommenen Vorurteile.

Transparenz

Die Praxis, Prozesse von KI-Systemen, Entscheidungslogik und Datennutzung für Transparenz und Verständlichkeit gegenüber Stakeholdern klar darzustellen.

Verlässliche KI

KI-Systeme, die in einer Weise entworfen und betrieben werden, die ethisch, zuverlässig, sicher und im Einklang mit menschlichen Werten und gesellschaftlichen Normen steht.

Sie

Unteranpassung

Ein Modellierungsproblem, bei dem ein KI-System zu einfach ist, um zugrunde liegende Datenmuster zu erfassen, was zu einer schlechten Leistung sowohl bei Trainingsdaten als auch bei neuen Daten führt.

Einheitlichkeit

Sicherstellung einer konsistenten Anwendung von Richtlinien, Kontrollen und Standards über alle KI-Systeme hinweg, um Governance-Lücken oder ungleiche Risikomanagementpraktiken zu vermeiden.

Unüberwachtes Lernen

Ein maschineller Lernansatz, bei dem Modelle Muster oder Gruppierungen in nicht gekennzeichneten Daten erkennen, ohne explizite Ergebnisanweisungen.

Verfügbarkeitsüberwachung

Kontinuierliche Überwachung der Verfügbarkeit und Leistung von KI-Systemen, um Ausfälle oder Leistungseinbußen zu erkennen, die kritische Abläufe oder Compliance-Verpflichtungen beeinträchtigen könnten.

Anwendungsfall-Governance

Die Praxis der Definition, Genehmigung und Überwachung spezifischer KI-Anwendungsfälle, um sicherzustellen, dass jeder mit den organisatorischen Richtlinien, ethischen Standards und der Risikobereitschaft übereinstimmt.

Benutzerzustimmung

Der Prozess des Einholens und Aufzeichnens ausdrücklicher Zustimmung von Einzelpersonen, bevor ihre persönlichen Daten in KI-Systemen gesammelt, verarbeitet oder verwendet werden.

Dienstprogramm

Ein Maß dafür, wie wertvoll oder effektiv ein KI-System bei der Erreichung seiner vorgesehenen Ziele ist, im Verhältnis zu den damit verbundenen Risiken oder Ressourcenaufwendungen.

V

Validierung

Der Prozess der Bestätigung, dass ein KI-Modell genaue und zuverlässige Leistungen bei den vorgesehenen Aufgaben erbringt und definierte Leistungskriterien erfüllt.

Varianzüberwachung

Verfolgung von Schwankungen in den Ausgaben von KI-Modellen oder Leistungskennzahlen im Laufe der Zeit, um Drift zu erkennen und potenziellen Abbau oder Risiken zu ermitteln.

Lieferantenrisikomanagement

Bewertung und Überwachung von Drittanbietern von KI-Komponenten oder -Dienstleistungen zur Identifizierung und Minderung potenzieller Compliance-, Sicherheits- oder ethischer Risiken.

Versionskontrolle

Die Praxis, Änderungen an KI-Code, Modellen und Datensätzen im Laufe der Zeit zu verwalten und nachzuverfolgen, um Reproduzierbarkeit und Prüfbarkeit sicherzustellen.

Vetorecht

Das formale Recht, das von einem Governance-Gremium oder einem Stakeholder ausgeübt wird, um AI-Implementierungen, die unannehmbare Risiken darstellen, zu blockieren oder Änderungen zu verlangen.

Überwachungsinstrument

Kontinuierliche Überwachung des Verhaltens von KI und externer Signale (z.B. regulatorische Aktualisierungen), um aufkommende Risiken oder Nicht-Einhaltungen frühzeitig zu erkennen und darauf zu reagieren.

Visuelle KI-Überwachung

Die Governance-Prozesse, die speziell für Computer-Vision-Systeme entwickelt wurden, gewährleisten die Datenqualität, führen Bias-Prüfungen durch und sorgen für Transparenz bei auf Bild/Video basierenden Entscheidungsprozessen.

Schwachstellenbewertung

Identifizierung, Analyse und Priorisierung von Sicherheitsschwächen in AI-Infrastrukturen und -Anwendungen zur Steuerung von Behebungsmaßnahmen.

W

Watchdog-Überwachung

Unabhängige Laufzeitprüfungen, die KI-Entscheidungen überwachen und Warnungen oder Eingriffe auslösen, wenn Richtlinien oder Schwellenwerte überschritten werden.

Gewichtskontrolle

Untersuchung von Modellgewichten und -strukturen auf Anomalien, Hintertüren oder Vorurteile, die auf Manipulationen oder unbeabsichtigte Verhaltensweisen hindeuten könnten.

White-Box-Tests

Bewertung von KI-Systemen mit umfassendem Wissen über interne Abläufe (Code, Parameter, Architektur), um Korrektheit, Sicherheit und Compliance zu überprüfen.

Richtlinie zur Zulassungsliste/Sperrliste

Governance-Regel, die erlaubte (Whitelist) und nicht erlaubte (Blacklist) Eingaben, Funktionen oder Vorgänge definiert, um die Einhaltung der Vorschriften zu gewährleisten und Missbrauch zu verhindern.

Positivliste

Nur vorab genehmigte Datenquellen, Bibliotheken oder Modellkomponenten in KI-Pipelines zuzulassen, um das Risiko durch nicht überprüfte oder bösartige Elemente zu reduzieren.

Arbeitsablauf-Orchestrierung

Automatisierung und Sequenzierung von KI-Lebenszyklusaufgaben (Datenaufnahme, Training, Validierung, Bereitstellung), um Governance-Richtlinien durchzusetzen und Konsistenz sicherzustellen.

Arbeitslasttrennung

Trennung von KI-Computing-Umgebungen (z. B. Entwicklung, Test, Produktion) und Datenbereichen, um den Ausbreitungsradius von Fehlern oder Sicherheitsverletzungen zu begrenzen.

Worst-Case-Analyse

Bewertung der extremsten potenziellen Ausfälle oder Missbräuche eines KI-Systems, um solide Risikominderungs- und Notfallplanungsstrategien zu entwickeln.

Speicher für einmaliges Schreiben und mehrfaches Lesen (WORM)

Unveränderlicher Speicher gewährleistet, dass Protokolle, Prüfpfade und Modellartefakte nach dem Schreiben nicht mehr verändert werden können, was die Nichtabstreitbarkeit unterstützt und eine forensische Überprüfung ermöglicht.

X

X-Validierung

Eine Modellvalidierungstechnik (häufig als „X-Val“ abgekürzt), die Daten in Falten aufteilt, um die Generalisierung des Modells rigoros zu bewerten und Überanpassung zu erkennen.

XAI (Erklärbare KI)

Techniken und Methoden, die den Entscheidungsprozess eines KI-Modells für Menschen transparent und verständlich machen und somit Verantwortlichkeit und Compliance unterstützen.

XAI-Prüfung

Ein Überprüfungsprozess, der bewertet, ob die Ausgaben zur Erklärbarkeit von KI den internen Richtlinien und behördlichen Anforderungen entsprechen und ausreichende Transparenz gewährleisten.

XAI-Framework

Ein strukturierter Ansatz oder ein Satz von Richtlinien, den Organisationen verwenden, um die Umsetzbarkeit, Messung und Steuerung von Erklärbarkeitspraktiken in ihren KI-Systemen zu implementieren und zu verwalten.

XAI-Metriken

Quantitative oder qualitative Messgrößen (z. B. Wichtigkeitsscores von Funktionen, Erklärungsgenauigkeit), die zur Bewertung der Qualität und Zuverlässigkeit von KI-Erklärungen verwendet werden.

Ja

YARA-Regeln

Ein Satz von signaturbasierten Erkennungsmustern, die verwendet werden, um KI-Pipelines und Artefakte auf bekannte bösartige Codes oder Manipulationen zu überprüfen.

Jährliche Compliance-Überprüfung

Eine jährliche Bewertung der KI-Governance-Prozesse, -Richtlinien und -Systeme, um die fortwährende Einhaltung von Vorschriften und internen Standards sicherzustellen.

Z

Null-Fehlertoleranz

Ein Governance-Prinzip, das darauf abzielt, keine Fehler oder Richtlinienverstöße in den KI-Ergebnissen zuzulassen, unterstützt durch rigorose Tests, Überwachung und kontinuierliche Verbesserungszyklen.

Zero-Day-Schwachstelle

Eine zuvor unbekannte Sicherheitslücke in der KI-Software oder -Infrastruktur, die ausgenutzt werden kann, bevor ein Patch oder eine Abhilfe verfügbar ist.

Null-Schuss-Lernen

Eine Modellfähigkeit, Aufgaben korrekt zu bewältigen oder Daten zu klassifizieren, auf die es nie explizit trainiert wurde, indem es generalisierte Wissensdarstellungen nutzt.

Zonenbasierte Zugriffskontrolle

Ein Netzwerk- oder Daten-Governance-Ansatz, der Ressourcen in Zonen mit unterschiedlichen Richtlinien unterteilt und den Zugriff von KI-Systemen gemäß der Datenempfindlichkeit einschränkt.

Whitepaper

Alle

Vorschriften für KI

Podcasts

Produktaktualisierungen

Presseberichterstattung

Glossar

Ein

Verantwortlichkeit der KI

Die Verpflichtung der Entwickler und Betreiber von KI-Systemen, sicherzustellen, dass ihre Systeme verantwortungsvoll entworfen und verwendet werden, unter Einhaltung ethischer Standards und gesetzlicher Anforderungen.

KI-Ausrichtung

Der Prozess, sicherzustellen, dass die Ziele und Verhaltensweisen von KI-Systemen mit menschlichen Werten und Absichten in Einklang stehen.

KI-Prüfung

Die systematische Bewertung von KI-Systemen zur Beurteilung der Einhaltung von ethischen Standards, Vorschriften und Leistungskennzahlen.

KI-Voreingenommenheit

Systematische Fehler in den Ausgaben der KI, die durch voreingenommene Trainingsdaten oder fehlerhafte Algorithmen entstehen und zu unfaire Ergebnisse führen.

KI-Konformität

Die Einhaltung von geltenden Gesetzen, Vorschriften und ethischen Richtlinien durch KI-Systeme während ihres gesamten Lebenszyklus.

KI-Ethik

Das Fachgebiet, das sich mit den moralischen Implikationen und Verantwortlichkeiten im Zusammenhang mit der Entwicklung und Implementierung von KI-Technologien befasst.

Erklärbarkeit von KI

Das Ausmaß, in dem die internen Mechanismen eines KI-Systems von Menschen verstanden und interpretiert werden können.

KI-Governance

Das Rahmenwerk aus Richtlinien, Prozessen und Kontrollmechanismen, das die ethische und effektive Entwicklung und Nutzung von KI-Systemen leitet.

KI-Inventar

Ein umfassender, zentralisierter Katalog aller KI-Systeme, Modelle und Agenten, die in einer Organisation verwendet werden, der ihren Geschäftszweck, das Risikoniveau und die Eigentümerschaft verfolgt.

KI-Kompetenz

Das Verständnis von KI-Konzepten, Fähigkeiten und Einschränkungen, ermöglicht eine informierte Interaktion mit KI-Technologien.

KI-Überwachung

Die kontinuierliche Beobachtung und Analyse der Leistung von KI-Systemen, um Zuverlässigkeit, Sicherheit und Compliance zu gewährleisten.

KI-Risiko

Das Potenzial von KI-Systemen, Schaden oder unbeabsichtigte Folgen zu verursachen, einschließlich ethischer, rechtlicher und betrieblicher Risiken.

KI-Risikomanagement

Der Prozess der Identifizierung, Bewertung und Minderung von Risiken im Zusammenhang mit KI-Systemen.

KI TRiSM

Ein von Gartner geprägtes Akronym, das für KI-Vertrauen, Risiko- und Sicherheitsmanagement steht; ein Rahmenwerk, das Governance, Vertrauenswürdigkeit und Sicherheit in eine einzige operative Strategie vereint.

KI-Transparenz

Das Prinzip, dass KI-Systeme offen und transparent über ihre Abläufe, Entscheidungen und Datennutzung informieren sollten.

Genauigkeit

Der Grad, zu dem die Ausgaben eines KI-Systems korrekt reale Daten oder beabsichtigte Ergebnisse widerspiegeln.

Gegnerischer Angriff

Techniken, die AI-Modelle durch das Einführen täuschender Eingaben manipulieren, um fehlerhafte Ergebnisse zu verursachen.

Agentic KI

Eine Klasse von künstlichen Intelligenzsystemen, die darauf ausgelegt ist, komplexe Ziele selbstständig zu verfolgen und mehrstufige Aktionen (wie Softwarebereitstellung oder Finanztransaktionen) mit minimalem menschlichen Eingriff auszuführen.

Agentische KI-Governance

Die Steuerung autonomer KI-Systeme, die unabhängig agieren können (z.B. Transaktionen, Code-Bereitstellung), unterscheidet sich von voraussschauender KI (die Einblicke bietet) und generativer KI (die Inhalte erstellt).

Algorithmus

Ein Satz von Regeln oder Anweisungen, die einem KI-System gegeben werden, um ihm zu helfen, eigenständig zu lernen.

Algorithmische Verzerrung

Ein Bias, der auftritt, wenn ein Algorithmus systematisch voreingenommene Ergebnisse produziert, aufgrund fehlerhafter Annahmen im maschinellen Lernprozess.

Algorithmische Verwaltung

Der Einsatz von Algorithmen zur Steuerung und Regulierung gesellschaftlicher Funktionen, der potenziell die Entscheidungsprozesse beeinflussen kann.

Allgemeine Künstliche Intelligenz

Eine Art von KI, die über die Fähigkeit verfügt, Wissen auf eine verallgemeinerte Weise zu verstehen, zu lernen und anzuwenden, ähnlich der menschlichen Intelligenz.

Künstliche Intelligenz

Die Simulation menschlicher Intelligenzprozesse durch Maschinen, insbesondere Computersysteme, einschließlich Lernen, Schlussfolgern und Selbstkorrektur.

B

Rückpropagation

Ein Trainingsalgorithmus, der in neuronalen Netzwerken verwendet wird, um Gewichte anzupassen, indem Fehler vom Ausgabeschicht rückwärts propagiert werden, um den Verlust zu minimieren.

Stapelverarbeitung Lernen

Ein maschinelles Lernverfahren, bei dem das Modell auf einmal mit dem gesamten Datensatz trainiert wird, im Gegensatz zum inkrementellen Lernen.

Benchmarking

Der Prozess des Vergleichs der Leistung eines KI-Systems mit Standardkennzahlen oder anderen Systemen zur Bewertung der Effektivität.

Voreingenommenheit

Systematische Fehler in den Ausgaben der KI, die durch voreingenommene Trainingsdaten oder fehlerhafte Algorithmen entstehen und zu unfaire Ergebnisse führen.

Verstärkung von Verzerrungen

Das Phänomen, bei dem KI-Systeme bestehende Vorurteile in den Trainingsdaten verstärken und zu zunehmend verzerrten Ergebnissen führen.

Voreingenommenheitsprüfung

Ein Bewertungsprozess zur Erkennung und Minderung von Verzerrungen in KI-Systemen, um Fairness und die Einhaltung ethischer Standards sicherzustellen.

Voreingenommenheitserkennung

Der Prozess der Identifizierung von Verzerrungen in KI-Modellen durch Analyse ihrer Ergebnisse und Entscheidungsprozesse.

Voreingenommenheitsminderung

Techniken, die während der KI-Entwicklung angewendet werden, um Vorurteile in Modellen und Datensätzen zu reduzieren oder zu beseitigen.

Schwarzkastenmodell

Ein KI-System, dessen interne Abläufe nicht transparent oder interpretierbar sind, was es schwierig macht zu verstehen, wie Entscheidungen getroffen werden.

Bot

Eine Softwareanwendung, die automatisierte Aufgaben ausführt und häufig in der KI für Aufgaben wie Kundenservice oder Datenerfassung eingesetzt wird.

C

Kausale Inferenz

Eine Methode in der KI und Statistik, die verwendet wird, um Ursache-Wirkungs-Beziehungen zu bestimmen und dabei hilft, die Auswirkungen von Interventionen oder Änderungen von Variablen zu verstehen.

Chatbot

Eine KI-gestützte Softwareanwendung, die darauf ausgelegt ist, menschliche Gespräche zu simulieren und häufig im Kundenservice sowie zur Informationsbeschaffung eingesetzt wird.

Klassifizierung

Ein überwachtes Lernverfahren im Bereich des maschinellen Lernens, bei dem das Modell die Kategorie oder Klassenbezeichnung neuer Beobachtungen basierend auf den Trainingsdaten vorhersagt.

Kognitive Voreingenommenheit

Systematische Abweichungsmuster von der Norm oder Rationalität im Urteil, die die Entscheidungsfindung von KI beeinflussen können, wenn sie in den Trainingsdaten vorhanden sind.

Kognitives Computing

Ein Teilbereich der KI, der menschliche Denkprozesse in einem computergestützten Modell simuliert, mit dem Ziel, komplexe Probleme ohne menschliche Unterstützung zu lösen.

Kognitive Belastung

Der gesamte mentale Aufwand, der im Arbeitsgedächtnis verwendet wird, wird im Bereich der KI berücksichtigt, um Systeme zu entwerfen, die Benutzer nicht überfordern.

Compliance-Rahmenwerk

Ein strukturierter Satz von Richtlinien und Best Practices, denen Organisationen folgen, um sicherzustellen, dass ihre KI-Systeme regulatorische und ethische Standards erfüllen.

Compliance-Risiko

Das Potenzial für rechtliche oder regulatorische Sanktionen, finanzielle Verluste oder Reputationsschäden, dem ein Unternehmen ausgesetzt ist, wenn es versäumt, gesetzliche Vorschriften, Regulierungen oder vorgegebene Praktiken einzuhalten.

Computer Vision

Ein Bereich der KI, der Computer darin schult, visuelle Informationen aus der Welt, wie Bilder und Videos, zu interpretieren und zu verarbeiten.

Konzeptdrift

Die Veränderung der statistischen Eigenschaften der Zielvariablen, die das Modell vorherzusagen versucht, im Laufe der Zeit, was zu einer Verschlechterung des Modells führt.

Vertrauensintervall

Ein Wertebereich, abgeleitet von Stichprobenstatistiken, der wahrscheinlich den Wert eines unbekannten Populationsparameters enthält, wird in der KI verwendet, um Unsicherheiten auszudrücken.

Konformitätsbewertung

Ein Verfahren zur Bestimmung, ob ein KI-System festgelegte Anforderungen, Standards oder Vorschriften erfüllt, das häufig Tests und Zertifizierungen umfasst.

Kontinuierliches Lernen

Die Fähigkeit eines KI-Systems, kontinuierlich aus neuen Dateneingaben zu lernen und sich ohne menschliches Eingreifen anzupassen, verbessert sich im Laufe der Zeit.

Steuerbarkeit

In welchem Maße Menschen die Entscheidungen und Verhaltensweisen eines KI-Systems lenken, beeinflussen oder übersteuern können.

Kreuzvalidierung

Eine Modellvalidierungsmethode zur Beurteilung, wie die Ergebnisse einer statistischen Analyse auf ein unabhängiges Datenset verallgemeinert werden können.

Cybersicherheit

Die Praxis des Schutzes von Systemen, Netzwerken und Programmen vor digitalen Angriffen ist entscheidend für den Schutz von KI-Systemen vor Bedrohungen.

D

Datenabweichung

Die Veränderung der Modell-Eingabedaten im Laufe der Zeit kann zu einer Verschlechterung der Modellleistung führen, wenn diese nicht überwacht und behoben wird.

Datenethik

Der Bereich der Ethik, der Datenpraktiken im Hinblick auf die moralischen Verpflichtungen bei der Erfassung, dem Schutz und der Nutzung personenbezogener Informationen bewertet.

Datenverwaltung

Die umfassende Verwaltung der Datenverfügbarkeit, Benutzerfreundlichkeit, Integrität und Sicherheit in einem Unternehmen, um sicherzustellen, dass Daten während ihres gesamten Lebenszyklus ordnungsgemäß behandelt werden.

Datenlebenszyklusverwaltung

Die richtlinienbasierte Verwaltung des Datenflusses über den gesamten Lebenszyklus: von der Erstellung und anfänglichen Speicherung bis zu dem Zeitpunkt, an dem die Daten veraltet sind und gelöscht werden.

Datenminimierung

Das Prinzip, nur die Daten zu erfassen, die für einen bestimmten Zweck erforderlich sind, reduziert das Risiko von Missbrauch oder Verstößen.

Datenschutz

Der Bereich der Informationstechnologie, der sich mit der Fähigkeit befasst, zu kontrollieren, welche Daten geteilt werden und mit wem, und dabei sicherzustellen, dass personenbezogene Daten angemessen behandelt werden.

Datenschutz

Der Prozess, wichtige Informationen vor Beschädigung, Kompromittierung oder Verlust zu schützen und die Einhaltung der Datenschutzgesetze und -vorschriften zu gewährleisten.

Datenqualität

Der Zustand von Daten, basierend auf Faktoren wie Genauigkeit, Vollständigkeit, Zuverlässigkeit und Relevanz, ist entscheidend für die effektive Leistung von KI-Modellen.

Datenresidenz

Der physische oder geografische Standort der Daten einer Organisation, der Auswirkungen auf die Einhaltung von Datenschutzgesetzen haben kann.

Datenhoheit

Das Konzept, dass Daten den Gesetzen und Governance-Strukturen des Landes unterliegen, in dem sie gesammelt, gespeichert oder verarbeitet werden.

Betroffene Person

Eine Person, deren personenbezogene Daten erfasst, gespeichert oder verarbeitet werden, was insbesondere im Kontext von Datenschutzgesetzen wie der DSGVO relevant ist.

De-Identifikation

Der Prozess der Entfernung oder Verschleierung personenbezogener Kennungen in Datensätzen, um es schwierig zu machen, Einzelpersonen zu identifizieren, wird verwendet, um die Privatsphäre zu schützen.

Tiefes Lernen

Ein Teilbereich des maschinellen Lernens, der neuronale Netze mit mehreren Schichten umfasst und die Modellierung komplexer Muster in Daten ermöglicht.

Täuschungstechnologie

Synthetische Medien, bei denen eine Person in einem bestehenden Bild oder Video durch das Abbild einer anderen Person ersetzt wird, das mit Hilfe von Deep-Learning-Techniken erstellt wurde.

Differentialer Datenschutz

Ein System zur öffentlichen Weitergabe von Informationen über einen Datensatz, indem Muster von Gruppen innerhalb des Datensatzes beschrieben werden, während Informationen über Einzelpersonen zurückgehalten werden.

Diskriminierung

Im Bereich der KI bezieht sich dies auf die unfaire Behandlung von Einzelpersonen oder Gruppen aufgrund von Verzerrungen in Daten oder Algorithmen, die zu ungleichen Ergebnissen führen.

Verteiltes Lernen

Ein maschineller Lernansatz, bei dem Trainingsdaten auf mehrere Geräte oder Standorte verteilt werden und Modelle kollaborativ trainiert werden, ohne rohe Daten auszutauschen.

Domänenanpassung

Eine Technik im maschinellen Lernen, bei der ein in einem Bereich trainiertes Modell angepasst wird, um in einem anderen, aber verwandten Bereich zu funktionieren.

Dynamische Risikoanalyse

Der kontinuierliche Prozess der Identifizierung und Bewertung von Risiken in Echtzeit ermöglicht rechtzeitige Reaktionen auf neu auftretende Bedrohungen in KI-Systemen.

E

Edge-KI

Die Bereitstellung von KI-Algorithmen auf Edge-Geräten ermöglicht die Datenverarbeitung und Entscheidungsfindung direkt an der Quelle der Datenerzeugung.

Edge-Analytik

Die Analyse von Daten am Rand des Netzwerks, nahe der Quelle der Datenerzeugung, reduziert Latenzzeiten und Bandbreitennutzung.

Ensemble-Lernen

Ein maschinelles Lernparadigma, bei dem mehrere Modelle trainiert und kombiniert werden, um dasselbe Problem zu lösen und die Gesamtleistung zu verbessern.

Entitätsauflösung

Der Prozess der Identifizierung und Verknüpfung von Datensätzen, die sich auf dasselbe reale Objekt in verschiedenen Datenbeständen beziehen.

Enzai

Eine Unternehmensplattform für KI-Governance, die es Organisationen ermöglicht, ihre KI-Systeme zu inventarisieren, bewerten und steuern, um eine maximale Einführung von KI zu gewährleisten und zugleich das Risiko zu minimieren.

Ethische KI

Die Praxis, KI-Systeme auf eine Weise zu entwerfen, zu entwickeln und bereitzustellen, die mit ethischen Prinzipien und Werten übereinstimmt, um Fairness, Verantwortlichkeit und Transparenz zu gewährleisten.

Ethisches KI-Audit

Der Prozess der systematischen Bewertung von KI-Systemen, um sicherzustellen, dass sie den ethischen Standards entsprechen und keinen Schaden verursachen.

Zertifizierung für ethische KI

Eine formale Anerkennung, dass ein KI-System etablierten ethischen Standards und Richtlinien entspricht.

Ethische KI-Governance

Der Rahmen von Richtlinien, Verfahren und Praktiken, die sicherstellen, dass KI-Systeme verantwortungsvoll und ethisch entwickelt und verwendet werden.

Ethische Rahmenwerke

Strukturierte Sätze von Prinzipien und Richtlinien, die dazu bestimmt sind, die ethische Entwicklung und Implementierung von KI-Systemen zu leiten.

Ethisches Hacken

Die bewusste Überprüfung von Systemen auf Schwachstellen, um Sicherheitsprobleme zu identifizieren und zu beheben, gewährleistet die Robustheit von KI-Systemen.

Ethische Auswirkungen Bewertung

Ein systematischer Evaluierungsprozess zur Identifizierung und Berücksichtigung der ethischen Implikationen und potenziellen gesellschaftlichen Auswirkungen von KI-Systemen vor deren Einsatz.

Ethisches Risiko

Das Potenzial eines KI-Systems, Schaden durch unethisches Verhalten wie Voreingenommenheit, Diskriminierung oder Verletzung der Privatsphäre zu verursachen.

Ethische Leitlinien für vertrauenswürdige KI

Ein Satz von Richtlinien, die von der hochrangigen Expertengruppe der Europäischen Kommission für KI entwickelt wurden, um vertrauenswürdige KI zu fördern, wobei der Schwerpunkt auf menschlicher Handlungskompetenz, technischer Robustheit, Datenschutz, Transparenz, Vielfalt, gesellschaftlichem Wohlergehen und Verantwortung liegt.

Techniken der Erklärbarkeit

Methoden zur Interpretation und zum Verständnis der Entscheidungen von KI-Modellen, wie LIME, SHAP und Salienzabbildungen.

Erklärbarkeit vs. Interpretierbarkeit

Während beide darauf abzielen, KI-Entscheidungen verständlich zu machen, konzentriert sich die Erklärbarkeit auf die Begründung der Entscheidungen, während sich die Interpretierbarkeit auf die Transparenz der internen Mechanismen des Modells bezieht.

Erklärbare KI (XAI)

KI-Systeme, die darauf ausgelegt sind, nachvollziehbare Begründungen für ihre Entscheidungen und Handlungen bereitzustellen, wodurch Transparenz und Vertrauen gestärkt werden.

Erklärbare Maschinelles Lernen

Maschinelle Lernmodelle, die entwickelt wurden, um klare und verständliche Erklärungen für ihre Vorhersagen und Entscheidungen bereitzustellen.

F

Gerechtigkeit

Sicherstellen, dass KI-Systeme unvoreingenommene und gerechte Ergebnisse für verschiedene Einzelpersonen und Gruppen liefern und diskriminierende Auswirkungen mindern.

Fairness-Kennzahlen

Quantitative Maße (z.B. demografische Parität, gleichberechtigte Chancen), die verwendet werden, um zu bewerten, wie fair die Vorhersagen eines KI-Modells über verschiedene Gruppen hinweg sind.

Falsch Negativ

Wenn ein AI-Modell fälschlicherweise eine negative Klasse für eine Instanz vorhersagt, die tatsächlich positiv ist (Typ-II-Fehler).

Falsch-Positiv

Wenn ein KI-Modell fälschlicherweise eine positive Klasse für ein Beispiel prognostiziert, das in Wirklichkeit negativ ist (Typ-I-Fehler).

Fehlertoleranz

Die Fähigkeit eines KI-Systems, auch dann korrekt weiterzuarbeiten, wenn einige Komponenten ausfallen oder Fehler produzieren.

Merkmalsengineering

Erstellen, Auswählen oder Transformieren von Rohdatensatzattributen in Merkmale, die die Leistung von maschinellen Lernmodellen verbessern.

Merkmalextraktion

Der Prozess der Zuordnung von Rohdaten (z. B. Text, Bilder) zu numerischen Darstellungen (Merkmale), die sich für die Eingabe in maschinelle Lernalgorithmen eignen.

Funktionsauswahl

Identifizierung und Auswahl der relevantesten Merkmale für das Modelltraining, um die Komplexität zu reduzieren und die Genauigkeit zu verbessern.

Föderiertes Lernen

Ein dezentraler Ansatz für maschinelles Lernen, bei dem Modelle auf mehreren Geräten oder Servern trainiert werden, die lokale Daten halten, ohne dass Rohdaten zentral geteilt werden müssen.

Rückkopplungsschleife

Ein Prozess, bei dem KI-Ausgaben als Eingaben zurückgeführt werden, was das Modellverhalten sowohl positiv (verstärkendes Lernen) als auch negativ (Verstärkung von Vorurteilen) verstärken kann.

Feinabstimmung

Anpassen eines vortrainierten KI-Modells an eine spezifische Aufgabe oder ein spezifisches Dataset durch Fortsetzung des Trainings mit neuen Daten, was oft die leistungsbezogene Effizienz verbessert.

Formale Verifikation

Mathematisch beweisen, dass KI-Algorithmen spezifischen Korrektheitseigenschaften entsprechen, die häufig in sicherheitskritischen Systemen verwendet werden.

Rahmenwerk

Ein strukturiertes Set von Richtlinien, Prozessen und Werkzeugen zur Steuerung, Entwicklung, Bereitstellung und Überwachung von KI-Systemen.

Betrugserkennung

Verwendung von KI-Techniken (z.B. Anomalieerkennung, Mustererkennung), um betrügerische Aktivitäten in Finanzwesen, Versicherungen usw. zu identifizieren und zu verhindern.

Funktionale Sicherheit

Sicherzustellen, dass KI-Systeme unter allen Bedingungen sicher funktionieren, insbesondere in Branchen wie der Automobilindustrie oder dem Gesundheitswesen, erfolgt oft durch Redundanz und Überprüfungen.

Fuzzy-Logik

Ein logisches System, das das Schlussfolgern mit ungefähren statt binären Wahrheitswerten handhabt – nützlich in Steuerungssystemen und im Umgang mit Unsicherheit.

G

DSGVO

Die Datenschutz-Grundverordnung der EU legt strenge Anforderungen für die Erfassung, Verarbeitung und die individuellen Rechte persönlicher Daten fest.

GPU

Spezialisierter Hardware-Beschleuniger für parallele Berechnungen, der häufig zum effizienten Trainieren und Ausführen groß angelegter KI-Modelle verwendet wird.

Lückenanalyse

Der Prozess, aktuelle KI-Governance-Praktiken mit den gewünschten Standards oder Vorschriften zu vergleichen, um Bereiche zu identifizieren, die Verbesserungen benötigen.

Verallgemeinerung

Die Fähigkeit eines KI-Modells, auf neuen, unbekannten Daten gute Leistungen zu erbringen, indem es zugrunde liegende Muster erfasst, anstatt Trainingsbeispiele auswendig zu lernen.

Generative KI

KI-Techniken (z.B. GANs, Transformer), die neue Inhalte wie Text, Bilder oder andere Medien erstellen, werfen häufig neuartige Fragen zur Governance und zum geistigen Eigentum auf.

Globales Modell

Ein konsolidiertes KI-Modell, das auf aggregierten Daten aus mehreren Quellen trainiert ist, im Gegensatz zu lokalisierten oder personalisierten Modellen.

Governance

Das Gesamtkonstrukt aus Richtlinien, Verfahren, Rollen und Verantwortlichkeiten, das die ethische, legale und effektive Entwicklung sowie den Einsatz von KI-Systemen leitet.

Lenkungsgremium

Eine funktionsübergreifende Gruppe (z. B. rechtlich, ethisch, technisch), die damit betraut ist, die Richtlinien zur KI-Governance innerhalb einer Organisation zu überwachen und deren Umsetzung zu gewährleisten.

Governance-Rahmenwerk

Ein strukturiertes Modell, das darlegt, wie die Komponenten der KI-Governance (Risikomanagement, Verantwortlichkeit, Aufsicht) zusammenpassen, um die Einhaltung von Vorschriften und die ethische Nutzung sicherzustellen.

Reifegradmodell für Governance

Ein gestuftes Rahmenwerk, das bewertet, wie fortgeschritten die KI-Governance-Praktiken einer Organisation sind, von ad-hoc bis optimiert.

Richtlinie zur Unternehmensführung

Ein formales Dokument, das Regeln, Rollen und Verfahren für die Entwicklung und Überwachung von KI innerhalb einer Organisation kodifiziert.

Governance-Bewertungssystem

Ein Dashboard oder Bericht, das wichtige Kennzahlen (z. B. Vorfälle von Voreingenommenheit, Compliance-Audits) zur Messung der Effektivität der KI-Governance im Laufe der Zeit verfolgt.

Gradientenabstieg

Ein Optimierungsalgorithmus, der die Modellparameter iterativ in die Richtung anpasst, die die Verlustfunktion minimal verringert.

Granulare Zustimmung

Ein Datenschutzansatz, der es Einzelpersonen ermöglicht, spezifische Berechtigungen für jede Art der Datennutzung zu erteilen oder zu verweigern, wodurch Transparenz und Kontrolle verbessert werden.

Grüne KI

Die Praxis, den ökologischen Fußabdruck von KI durch energieeffiziente Algorithmen und nachhaltige Computerpraktiken zu reduzieren.

Grauer-Box-Modell

Ein Modell, dessen innere Logik teilweise transparent ist (einige Komponenten sind interpretierbar, andere undurchsichtig), das Leistung und Erklärbarkeit ausbalanciert.

Tatsächliche Gegebenheit

Die präzisen, praxisnahen Daten oder Kennzeichnungen, die als Maßstab zur Schulung und Bewertung der Leistung von KI-Modellen verwendet werden.

Leitplanken

Vordefinierte Einschränkungen oder Überprüfungen (technisch und richtlinienbasiert), die in KI-Systeme eingebettet sind, um unsicheres oder nicht konformes Verhalten zur Laufzeit zu verhindern.

Leitlinie (Ethische KI)

Eine unverbindliche Empfehlung oder ein Best-Practice-Dokument, das von Organisationen (z.B. IEEE, EU) herausgegeben wird, um die verantwortungsvolle Entwicklung und Implementierung von KI zu gestalten.

H

Halluzination

Wenn generative KI inkorrekte oder erfundene Informationen erstellt, die plausibel erscheinen, aber keine Grundlage in den Trainingsdaten haben.

Umgang mit fehlenden Daten

Techniken (z.B. Imputation, Löschung, Modellierung) zur Schließung von Lücken in Datensätzen, um die Integrität und Fairness des Modells zu bewahren.

Hardware-Beschleuniger

Spezialisierte Chips (z.B. GPUs, TPUs), die zur Beschleunigung von KI-Berechnungen entwickelt wurden, mit Auswirkungen auf den Energieverbrauch und das Lieferkettenrisiko.

Schadensbewertung

Bewertung potenzieller negativer Auswirkungen (physisch, psychologisch, gesellschaftlich) von KI-Systemen und Definition von Minderungsstrategien.

Harmonisierung

Harmonisierung von KI-Richtlinien, -Standards und -Vorschriften über verschiedene Rechtsgebiete hinweg, um Konflikte zu reduzieren und Interoperabilität zu ermöglichen.

Hashierung

Der Prozess der Umwandlung von Daten in eine Zeichenfolge fester Größe wird für Datenintegritätsprüfungen und die datenschutzfreundliche Verknüpfung von Aufzeichnungen verwendet.

Heterogene Daten

Die Kombination von Daten unterschiedlicher Typen (Text, Bild, Sensor) oder aus mehreren Domänen stellt Herausforderungen an Integration und Governance dar.

Heuristik

Eine Faustregel oder vereinfachte Entscheidungsstrategie, die verwendet wird, um KI-Prozesse zu beschleunigen, wobei oft Optimalität gegen Effizienz eingetauscht wird.

Heuristische Bewertung

Eine Methode zur Gebrauchstauglichkeitsprüfung, bei der Experten ein KI-System anhand etablierter Gebrauchstauglichkeitsprinzipien beurteilen, um potenzielle Probleme zu identifizieren.

KI im Hochspannungsbereich

KI-Anwendungen, deren Ausfälle erheblichen Schaden verursachen könnten (z. B. medizinische Diagnosen, autonome Fahrzeuge), erfordern verstärkte Governance und Aufsicht.

Menschliche Aufsicht

Mechanismen, die es ausgewählten Personen ermöglichen, Entscheidungen von KI-Systemen zu überwachen, einzugreifen oder zu überschreiben, um ethische und gesetzliche Konformität sicherzustellen.

Auswirkungen auf die Menschenrechte Bewertung

Ein Verfahren zur Bewertung, wie KI-Systeme die Grundrechte (Privatsphäre, Meinungsfreiheit, Nichtdiskriminierung) beeinflussen, und zur Identifizierung von Minderungsmaßnahmen.

Mensch-in-der-Schleife

Einbeziehung menschlicher Urteilsfähigkeit in KI-Prozesse (Schulung, Validierung, Entscheidungsüberprüfung), um Genauigkeit und Verantwortlichkeit zu verbessern.

Hybrides Modell

KI-Systeme, die mehrere Lernparadigmen kombinieren (z. B. symbolische und neuronale), um Erklärbarkeit und Leistung in Einklang zu bringen.

Hyperparameter

Eine Konfigurationsvariable (z. B. Lernrate, Baumeistiefe), die vor dem Modelltraining festgelegt wird und das Lernverhalten sowie die Leistung beeinflusst.

Optimierung von Hyperparametern

Der Prozess der Suche nach den optimalen Hyperparameterwerten (z.B. durch Grid-Suche oder Bayes'sche Optimierung), um die Modellleistung zu maximieren.

Ich

ISO/IEC JTC 1/SC 42

Der gemeinsame ISO/IEC-Ausschuss für die Standardisierung Künstlicher Intelligenz entwickelt internationale KI-Standards für Governance, Risiko und Interoperabilität.

Ungleichgewichtige Daten

Ein Datensatz, bei dem eine Klasse oder Kategorie die anderen signifikant überwiegt, was dazu führen kann, dass KI-Modelle zugunsten der Mehrheitsklasse voreingenommen sind, es sei denn, dies wird behoben.

Unveränderliches Hauptbuch

Ein manipulationssicheres Aufzeichnungsmechanismus (z.B. Blockchain), der sicherstellt, dass Daten nach der Speicherung nicht verändert werden können, ohne dass eine Erkennung erfolgt - nützlich für KI-Audit-Trails.

Auswirkungsbewertung

Eine strukturierte Bewertung zur Identifizierung, Analyse und Minderung potenzieller ethischer, rechtlicher und gesellschaftlicher Auswirkungen eines KI-Systems vor dessen Einsatz.

Implizite Voreingenommenheit

Unbewusste oder unbeabsichtigte Verzerrungen, die in den Trainingsdaten oder im Modellentwurf eingebettet sind und zu diskriminierenden Ergebnissen führen können.

Anreizabstimmung

Die Gestaltung von Belohnungsstrukturen und Zielen, sodass die Zielsetzungen von KI-Systemen mit menschlichen Werten und organisatorischen Prioritäten übereinstimmen.

Induktive Verzerrung

Die Menge von Annahmen, die ein Lernalgorithmus verwendet, um von beobachteten Daten auf nicht gesehene Instanzen zu verallgemeinern.

Schlussfolgerung

Der Prozess, bei dem ein trainiertes KI-Modell neue Daten eingibt, um Vorhersagen oder Entscheidungen zu treffen.

Schlussfolgerungsmaschine

Die Komponente eines KI-Systems (oft in regelbasierten oder Expertensystemen), die eine Wissensdatenbank auf Eingabedaten anwendet, um Schlussfolgerungen zu ziehen.

Informationsverwaltung

Die Richtlinien, Verfahren und Kontrollen, die die Datenqualität, den Datenschutz und die Nutzbarkeit über die Datenbestände einer Organisation hinweg gewährleisten, einschließlich der Schulungsdatensätze für künstliche Intelligenz.

Datenschutzinformationen

Das Recht von Personen, zu kontrollieren, wie ihre persönlichen Daten von KI-Systemen gesammelt, verwendet, gespeichert und geteilt werden.

Infrastruktur als Code (IaC)

Verwalten und Bereitstellen von KI-Infrastruktur (Rechenleistung, Speicher, Netzwerk) durch maschinenlesbare Konfigurationsdateien, wodurch Wiederholbarkeit und Prüfungsfähigkeit verbessert werden.

Interoperabilität

Die Fähigkeit verschiedener KI-Systeme und -Komponenten, Informationen nahtlos auszutauschen, zu verstehen und zu nutzen, häufig über offene Standards oder APIs.

Interpretierbarkeit

Das Maß, in dem ein Mensch die inneren Mechanismen oder Entscheidungsgründe eines KI-Modells verstehen kann.

Einbruchserkennung

Überwachung der KI-Infrastruktur und -Anwendungen auf bösartige Aktivitäten oder Verstöße gegen Richtlinien, Auslösung von Warnungen oder automatisierten Reaktionen.

J

Jacobian-Matrix

In der Erklärbarkeit von KI ist die Matrix aller partiellen Ableitungen erster Ordnung der Ausgaben eines Modells in Bezug auf seine Eingaben, die zur Bewertung der Empfindlichkeit und der Merkmalsbedeutung verwendet wird.

Jailbreak-Angriff

Eine Art von Prompt-Injection, bei der Benutzer Schwachstellen ausnutzen, um Schutzmaßnahmen in generativen KI-Modellen zu umgehen, was möglicherweise zu unsicheren oder unautorisierten Ausgaben führen kann.

Gemeinsame Haftung

Rechtsprinzip, bei dem mehrere Parteien (z. B. Entwickler, Betreiber) die Verantwortung für KI-bedingte Schäden teilen, was Einfluss auf Vertrags- und Governance-Strukturen hat.

Gemeinsame Modellierung

Entwicklung von KI-Systemen, die mehrere Aufgaben gleichzeitig lernen (z. B. Spracherkennung + Übersetzung), wobei eine Governance für Komplexität und Überprüfbarkeit erforderlich ist.

Urteilsverzerrung

Systematische Fehler in menschlichen oder KI-Entscheidungsprozessen, die durch kognitive Abkürzungen oder fehlerhafte Daten verursacht werden, erfordern eine Überprüfung und Minderung von Verzerrungen.

Gerichtliche Überprüfung

Der rechtliche Prozess, bei dem Gerichte die Gesetzmäßigkeit von Entscheidungen prüfen, die von KI getroffen oder unterstützt werden, um Verantwortlichkeit und ordnungsgemäßen Ablauf sicherzustellen.

Rechtsraum

Die rechtliche Zuständigkeit über Daten, KI-Operationen und Haftung, die je nach geografischer Lage variiert und die Einhaltung regionaler Vorschriften beeinflusst (z. B. DSGVO, CCPA).

Juror Automatisierung

Der Einsatz von KI zur Unterstützung bei der Jury-Auswahl oder der Fallanalyse wirft ethische Bedenken hinsichtlich Fairness, Transparenz und rechtlicher Aufsicht auf.

Gerechtigkeitsmetriken

Quantitative Messgrößen (z. B. unterschiedliche Auswirkungen, Chancengleichheit), die zur Bewertung von Fairness und Nichtdiskriminierung bei KI-Entscheidungsprozessen verwendet werden.

K

Schlüsselindikator für die Leistung

Ein quantifizierbarer Messwert (z. B. Modellgenauigkeitsdrift, Zeit zur Beseitigung von Vorurteilen), der zur Überwachung und Berichterstattung über Ziele der KI-Governance und Compliance verwendet wird.

Schlüsselrisikoindikator

Ein führender Messwert (z.B. Häufigkeit von unzutreffenden Vorhersagen, Rate unerklärlicher Entscheidungen), der auf aufkommende KI-Risiken hinweist, bevor sie sich manifestieren.

Kennen Sie Ihren Kunden (KYC)

Compliance-Prozesse zur Überprüfung der Identität, des Risikoprofils und der Legitimität von Personen oder Unternehmen, die mit KI-Systemen interagieren, insbesondere in regulierten Branchen.

Wissensverdichtung

Eine Methode zur Übertragung von Erkenntnissen von einem größeren „Lehrer“-Modell auf ein kleineres „Schüler“-Modell, um Leistung mit Ressourcen- und Governance-Einschränkungen in Einklang zu bringen.

Wissensgraph

Eine strukturierte Darstellung von Entitäten und deren Beziehungen, die dazu verwendet wird, die Erklärbarkeit, Prüfbarkeit und Anpassung von KI an Domänenontologien zu verbessern.

Wissensmanagement

Praktiken und Werkzeuge zur Erfassung, Organisation und Weitergabe von Organisationswissen (z. B. Modeldokumentation, Prüfungsprotokolle), um Reproduzierbarkeit und Aufsicht sicherzustellen.

L

Etikettenleckage

Die unbeabsichtigte Aufnahme von Ausgabedaten in die Trainingsdatenetiketten, die Leistungskennzahlen beeinflussen und tatsächliche Generalisierungsprobleme des Modells verschleiern können.

Großes Sprachmodell

Ein Deep-Learning-Modell, das auf umfangreichen Textkorpora trainiert wurde und Aufgaben wie Textgenerierung, Übersetzung und Zusammenfassung ausführen kann, wobei oft eine sorgfältige Steuerung von Vorurteilen und Missbrauch erforderlich ist.

Prinzip der minimalen Rechte

Ein Sicherheitsprinzip, bei dem KI-Komponenten und Benutzer nur die minimal erforderlichen Zugriffsrechte erhalten, die notwendig sind, um ihre Funktionen auszuführen, wodurch das Risiko eines Missbrauchs verringert wird.

Rechtliche Konformität

Die Praxis, sicherzustellen, dass KI-Systeme während ihres gesamten Lebenszyklus den geltenden Gesetzen, Vorschriften und Industriestandards entsprechen.

Haftungsrahmen

Ein strukturierter Ansatz zur Bestimmung der Verantwortlichkeiten bei KI-bezogenen Schäden oder Ausfällen, einschließlich Entwicklern, Implementierern und Betreibern.

Lebenszyklusmanagement

Die koordinierten Prozesse für Entwicklung, Bereitstellung, Überwachung, Wartung und Außerdienststellung von KI-Systemen, um kontinuierliche Compliance und Risikokontrolle sicherzustellen.

Lebendigkeitserkennung

Techniken, die verwendet werden, um zu überprüfen, dass eine Eingabe (z. B. biometrische Daten) von einem lebenden Subjekt stammt und nicht von einem Spoof oder Replay, wodurch die Systemsicherheit und Integrität verbessert wird.

Lokalisierung

Anpassung von KI-Systemen an lokale Sprachen, Vorschriften, kulturelle Normen und Anforderungen an die Datenresidenz in verschiedenen Gerichtsbarkeiten.

Protokollverwaltung

Die Sammlung, Speicherung und Analyse von System- und Anwendungsprotokollen aus AI-Workflows zur Unterstützung von Audits, Reaktionsmaßnahmen auf Vorfälle und der Nachverfolgung von Modellleistung.

Verlustfunktion

Eine mathematische Funktion, die den Unterschied zwischen vorhergesagten Ausgaben und tatsächlichen Werten quantifiziert und die Modellschulung und -optimierung steuert.

M

Bedeutungsvolle Menschliche Kontrolle

Ein regulatorischer und betrieblicher Standard, der sicherstellt, dass Menschen die Fähigkeit behalten, AI-Entscheidungsprozesse zu überwachen, einzugreifen und zu übersteuern.

Metadatenverwaltung

Die Praxis der Erfassung und Pflege beschreibender Daten (z. B. Datenherkunft, Merkmaldefinitionen, Modellparameter), um Rückverfolgbarkeit und Audits zu unterstützen.

Kennzahlen & Leistungsindikatoren

Quantitative Maße (z.B. Abweichung der Genauigkeit, Fairness-Scores, Reaktionszeiten bei Vorfällen), die zur Überwachung der Systemgesundheit, Risiken und Compliance-Ziele von KI-Systemen verwendet werden.

Minderungsstrategien

Geplante Maßnahmen (z. B. Beseitigung von Voreingenommenheit, erneutes Training, Feature-Re-Engineering) zur Behebung identifizierter KI-Risiken und Compliance-Lücken.

Modellerklärbarkeit

Techniken und Dokumentation, die die Entscheidungslogik eines KI-Modells verständlich für Stakeholder und Prüfer machen.

Modellführung

Die Richtlinien, Rollen und Kontrollen, die sicherstellen, dass KI-Modelle in Übereinstimmung mit den organisatorischen Standards und regulatorischen Anforderungen entwickelt, genehmigt und verwendet werden.

Modellüberwachung

Kontinuierliches Überwachen der Leistung eines KI-Modells, der Datenverschiebung und der Betriebskennzahlen zur Erkennung von Verschlechterungen oder aufkommenden Risiken.

Modell-Neutraining

Der Prozess der Aktualisierung eines KI-Modells mit neuen oder aktualisierten Daten, um die Leistung und die Einhaltung der Vorschriften aufrechtzuerhalten, während sich die Datenverteilung weiterentwickelt.

Modellrisikomanagement

Der strukturierte Prozess zur Identifizierung, Bewertung und Minderung von Risiken, die sich aus KI/ML-Modellen während ihres gesamten Lebenszyklus ergeben.

Modellvalidierung

Die Evaluierungstätigkeiten (z. B. Tests mit zurückgestellten Daten, Stressszenarien), die bestätigen, dass ein KI-Modell seinen vorgesehenen Zweck und die Leistungskriterien erfüllt.

Engagement von mehreren Interessengruppen

Einbeziehung verschiedener Gruppen (z. B. Recht, Ethik, Betrieb, Endbenutzer) in die Prozesse der KI-Governance, um eine ausgewogene Risikokontrolle und die Ausrichtung auf Unternehmensziele sicherzustellen.

N

NIST KI-Risikomanagement-Rahmenwerk

Eine freiwillige Anleitung des US-amerikanischen National Institute of Standards and Technology, die bewährte Verfahren zur Risikominderung über den gesamten Lebenszyklus von KI-Systemen darlegt.

Verarbeitung natürlicher Sprache (NLP)

Techniken und Werkzeuge, die Maschinen ermöglichen, menschliche Sprache in Text- oder Sprachform zu interpretieren, zu generieren und zu analysieren.

Netzwerksicherheit

Maßnahmen und Kontrollen (z. B. Segmentierung, Firewalls, Eindringungserkennung), um die KI-Infrastruktur und Datenpipelines vor unbefugtem Zugriff oder Manipulation zu schützen.

Neuronale Architektur-Suche

Automatisierte Methoden zur Gestaltung und Optimierung von neuronalen Netzwerkstrukturen, um die Modellleistung zu verbessern, während die Komplexität und Ressourcenbeschränkungen ausgewogen werden.

Rauschinjektion

Gezielte Einführung zufälliger Störungen in Trainingsdaten oder Modellparameter, um die Robustheit zu erhöhen und gegen manipulative Angriffe zu schützen.

Neuartigkeitserkennung

Techniken zur Identifizierung von Eingaben oder Szenarien, die erheblich von den Trainingsdaten abweichen und eine Überprüfung oder einen Sicherheitsmodus auslösen, um unerwartete Ausfälle zu verhindern.

O

Beobachtbarkeit

Die Fähigkeit, den internen Zustand und das Verhalten eines KI-Systems durch die Sammlung und Analyse von Protokollen, Metriken und Ausgaben für effektive Überwachung und Fehlerbehebung abzuleiten.

Fortlaufende Überwachung

Kontinuierliches Tracking der Leistung von KI-Systemen, Datenverschiebungen, Verzerrungsmessungen und Sicherheitsereignissen, um auftretende Risiken im Laufe der Zeit zu erkennen und zu adressieren.

Deckkraft

Das Fehlen von Transparenz bei der Art und Weise, wie ein KI-Modell Entscheidungen oder Vorhersagen trifft, stellt Herausforderungen für das Vertrauen und die Einhaltung von Vorschriften dar.

Betriebliche Resilienz

Die Fähigkeit von KI-Systemen und deren unterstützender Infrastruktur, Störungen oder widrigen Ereignissen vorherzusehen, ihnen standzuhalten, sich davon zu erholen und sich anzupassen.

Orchestrierung

Die automatisierte Koordination von KI-Arbeitsabläufen und -Diensten—Datenaufnahme, Modelltraining, Bereitstellung—gewährleistet die Einhaltung von Richtlinien und Ressourcenverwaltung.

Ausreißererkennung

Techniken zur Identifizierung von Datenpunkten oder Modellvorhersagen, die erheblich von den erwarteten Mustern abweichen und Überprüfungs- oder Abhilfemaßnahmen auslösen.

Überanpassung

Ein Modellierungsproblem, bei dem ein KI-System Rauschen oder Eigenheiten in den Trainingsdaten erlernt und dadurch seine Fähigkeit zur Verallgemeinerung auf neue, unsichtbare Daten verringert.

Überblick

Der strukturierte Prozess der Überprüfung, Genehmigung und Verantwortlichkeit für die Entwicklung und Bereitstellung von KI, der typischerweise funktionsübergreifende Governance-Instanzen umfasst.

Eigentum

Die klare Zuordnung von Verantwortung und Befugnissen für KI-Vermögenswerte—Daten, Modelle, Prozesse—um die Verantwortlichkeit über den gesamten Lebenszyklus des Systems zu gewährleisten.

P

Berechtigungsverwaltung

Die Verwaltung von Benutzer- und Systemzugriffsrechten auf KI-Daten und -Funktionen, um sicherzustellen, dass nur die minimalen erforderlichen Rechte vergeben werden und unbefugte Nutzung verhindert wird.

Pilotversuche

Ein begrenzter Versuch eines KI-Systems in einer kontrollierten Umgebung, um Leistung, Risiken und Governance-Kontrollen vor der vollständigen Einführung zu bewerten.

Richtlinienumsetzung

Die automatisierten oder manuellen Mechanismen, die sicherstellen, dass KI-Operationen den organisatorischen Richtlinien, regulatorischen Vorschriften und ethischen Leitlinien entsprechen.

Überwachungen nach der Bereitstellung

Fortlaufende Beobachtung des Verhaltens und der Umgebung von KI-Systemen nach deren Freigabe, um Abbau, Abweichungen oder Verstöße gegen die Compliance zu erkennen.

Vorausschauende Wartung

KI-gesteuerte Überwachung und Analyse zur Vorhersage von Komponenten- oder Systemausfällen, um die Betriebskontinuität zu gewährleisten und Risiken in kritischen Umgebungen zu mindern.

Datenschutz-Folgenabschätzung

Eine strukturierte Analyse zur Identifizierung und Minderung von Datenschutzrisiken im Zusammenhang mit KI-Systemen, die Datenerfassung, -nutzung, -weitergabe und -speicherung abdeckt.

Datenschutz durch Design

Ein Ansatz, der Datenschutz und die Privatsphäre der Nutzer von Anfang an in die Architektur und die Prozesse des KI-Systems einbindet.

Prozessautomatisierung

Der Einsatz von KI und Workflow-Tools zur Straffung von Governance, Compliance-Prüfungen und Risikominderungsaktivitäten, wodurch manueller Aufwand und Fehler verringert werden.

F

Qualitative Bewertung

Die subjektive Überprüfung von Verhaltensweisen, Entscheidungen und Dokumentationen von KI-Systemen durch Experten, um ethische, rechtliche oder rufschädigende Bedenken zu identifizieren, die quantitativ nicht erfasst werden.

Qualitätssicherung

Die systematischen Prozesse und Überprüfungen zur Sicherstellung, dass KI-Modelle und Datenpipelines definierte Standards für Genauigkeit, Zuverlässigkeit und ethische Konformität erfüllen.

Qualitätskontrolle

Die fortlaufende Überprüfung von AI-Ergebnissen und -Prozessen anhand von Benchmarks und Testfällen, um Mängel, Vorfälle von Voreingenommenheit oder Verstöße gegen Richtlinien aufzudecken.

Quantitative Risikoanalyse

Eine datenbasierte Bewertung potenzieller Bedrohungen durch KI, die Wahrscheinlichkeiten und Auswirkungen numerisch abschätzt, um Priorisierungsmaßnahmen zu ermöglichen und Risikokontrollstrategien zu optimieren.

Quantencomputing

Das aufstrebende Rechenparadigma, das die Quantenmechanik nutzt und neue Herausforderungen in Bezug auf Sicherheit, Standardisierung und Risiko aufwirft.

Abfrageprotokollierung

Die Praxis der Aufzeichnung von KI-Systemeingaben und Benutzeranfragen, um Prüfpfade zu ermöglichen, Missbrauch zu erkennen und Verantwortlichkeit zu unterstützen.

Datenschutz bei Abfragen

Techniken und Richtlinien zum Schutz sensibler Informationen in Benutzeranfragen, um sicherzustellen, dass aufgezeichnete Eingaben keine persönlichen oder proprietären Daten gefährden.

Fragebogenrahmen

Ein strukturierter Satz von governance-orientierten Fragen, der während der Gestaltung, Beschaffung oder Implementierung verwendet wird, um sicherzustellen, dass KI-Systeme mit den Anforderungen der Richtlinien übereinstimmen.

Beschlussfähigkeit des Governance Boards

Die Mindestanzahl der erforderlichen Mitglieder des Governance-Ausschusses, die anwesend sein müssen, um offizielle Entscheidungen über KI-Risiken, Genehmigungen von Richtlinien oder Prüfergebnisse zu treffen.

Kontingentverwaltung

Die Steuerungen und Begrenzungen der Nutzung von KI-Ressourcen (z. B. API-Aufrufe, Rechenzeit), um Governance-Richtlinien durchzusetzen und unkontrollierte Kosten oder Missbrauch zu verhindern.

R

Rückgriff

Mechanismen, die betroffenen Personen ermöglichen, KI-gesteuerte Entscheidungen, die ihre Rechte oder Interessen betreffen, anzufechten oder eine Abhilfe zu suchen.

Rotes Teaming

Ein proaktiver Testansatz, bei dem interne oder externe Experten Angriffe oder Missbrauchsszenarien simulieren, um Schwachstellen in KI-Systemen aufzudecken.

Regulatorische Konformität

Sicherstellung, dass KI-Systeme während ihres gesamten Betriebs die geltenden Gesetze, Vorschriften und Industriestandards (z. B. DSGVO, FDA, finanzielle Aufsicht) einhalten.

Reproduzierbarkeit

Die Fähigkeit, die Ergebnisse von KI-Modellen unter Verwendung derselben Daten, Codes und Konfigurationen konstant zu reproduzieren, wodurch Transparenz und Prüfbarkeit sichergestellt werden.

Verantwortlichkeitszuordnungsmatrix

Ein Werkzeug (z. B. RACI), das die Rollen und Verantwortlichkeiten für jede Governance-Aktivität klärt—wer verantwortlich, rechenschaftspflichtig, konsultiert und informiert ist.

Verantwortungsvolle KI

Die Praxis des Entwerfens, Entwickelns und Bereitstellens von KI-Systemen auf eine Weise, die ethisch, transparent und rechenschaftspflichtig gegenüber den Interessengruppen und der Gesellschaft ist.

Risikobewertung

Der Prozess der Identifizierung, Analyse und Priorisierung potenzieller Schäden oder Ausfälle in KI-Systemen, um geeignete Minderungsstrategien zu bestimmen.

Risikomanagement-Rahmenwerk

Eine strukturierte Reihe von Richtlinien und Prozessen zur systematischen Bewältigung von KI-Risiken über den gesamten Lebenszyklus des Systems, von der Gestaltung bis zur Außerbetriebnahme.

Robustheit

Die Fähigkeit eines KI-Systems, unter einer Vielzahl von herausfordernden oder gegnerischen Bedingungen eine zuverlässige Leistung zu erbringen.

Ursachenanalyse

Eine strukturierte Untersuchung, um die zugrunde liegenden Gründe für das Versagen von KI-Systemen oder unerwartetem Verhalten zu bestimmen und korrigierende Maßnahmen zu leiten.

S

Genehmigte Nutzungsrichtlinie

Definierte Regeln und Kontrollen, die zugelassene Kontexte, Benutzer und Zwecke für den Betrieb von KI-Systemen spezifizieren, um Missbrauch zu verhindern.

Sicherheit durch Design

Die Integration von Sicherheitskontrollen und bewährten Praktiken in KI-Systeme von den frühesten Designphasen an, um Schwachstellen und Datenverletzungen zu verhindern.

Schatten-KI

Die unautorisierte Verwendung von KI-Modellen, -Agenten oder -Werkzeugen durch Mitarbeiter ohne Genehmigung der IT-Abteilung schafft verdeckte Sicherheitslücken durch Datenleckagen und unbefugte autonome Aktionen.

Bewertung der gesellschaftlichen Auswirkungen

Eine strukturierte Bewertung, wie ein KI-System die sozialen, wirtschaftlichen und kulturellen Aspekte von Gemeinschaften beeinflusst, wobei mögliche Schäden und Vorteile identifiziert werden.

Software-Entwicklungslebenszyklus

Der End-to-End-Prozess (Anforderungen, Design, Erstellung, Test, Bereitstellung, Überwachung) für KI-Anwendungen, der in jeder Phase Governance- und Compliance-Prüfungen integriert.

Stakeholder-Engagement

Der Prozess der Einbeziehung betroffener Parteien (z.B. Benutzer, Regulierungsbehörden, betroffene Gemeinschaften) in die Entwicklung und Überwachung von KI, um vielfältige Perspektiven und Unterstützung sicherzustellen.

Überwachungsrisiko

Die Bedrohung, dass KI-Systeme für invasive Überwachung von Einzelpersonen oder Gruppen ausgenutzt werden könnten, wobei die Privatsphäre und bürgerliche Freiheiten verletzt werden.

Synthetische Daten

Künstlich generierte Datensätze, die reale Datenverteilungen nachahmen und zur Erweiterung von Trainingssätzen verwendet werden, während der Datenschutz gewahrt bleibt.

T

Extremes Risiko

Das Potenzial für seltene, extreme Ergebnisse im Verhalten oder in der Entscheidungsfindung von KI, die außerhalb normaler Erwartungen liegen und spezielle Maßnahmenplanung erfordern.

Testen & Validierung

Der systematische Prozess der Bewertung von KI-Modellen anhand von Benchmark-Tests, speziellen Randfällen und Belastungsbedingungen, um sicherzustellen, dass sie Leistungs-, Sicherheits- und Compliance-Kriterien erfüllen.

Risiko durch Dritte

Das Risiko, das sich aus der Abhängigkeit von externen Datenanbietern, Modelllieferanten oder Dienstleistungsplattformen ergibt, die möglicherweise Compliance- oder Sicherheitsanfälligkeiten einführen.

Schwellenwert Einstellung

Festlegung von Grenzen oder Grenzwerten in KI-Entscheidungsregeln (z. B. Vertrauenswerte), um Risiken wie falsch-positive gegenüber falsch-negativen Ergebnissen auszubalancieren.

Rückverfolgbarkeit

Die Fähigkeit, jeden Schritt im KI-Lebenszyklus nachzuverfolgen und zu dokumentieren—von der Datenerfassung über die Modellentwicklung bis hin zur Bereitstellung—um Prüfungen und forensische Analysen zu unterstützen.

Schulungsdatensatz

Die kuratierte Sammlung von gelabelten oder ungelabelten Daten, die verwendet wird, um einem KI-Modell die Beziehungen und Muster beizubringen, die es lernen muss, um seine Aufgabe auszuführen.

Transfer-Lernen

Eine Technik, bei der ein für eine Aufgabe entwickeltes Modell für eine verwandte Aufgabe angepasst wird. Dies verkürzt die Entwicklungszeit, erfordert jedoch eine Steuerung der übernommenen Vorurteile.

Transparenz

Die Praxis, Prozesse von KI-Systemen, Entscheidungslogik und Datennutzung für Transparenz und Verständlichkeit gegenüber Stakeholdern klar darzustellen.

Verlässliche KI

KI-Systeme, die in einer Weise entworfen und betrieben werden, die ethisch, zuverlässig, sicher und im Einklang mit menschlichen Werten und gesellschaftlichen Normen steht.

Sie

Unteranpassung

Ein Modellierungsproblem, bei dem ein KI-System zu einfach ist, um zugrunde liegende Datenmuster zu erfassen, was zu einer schlechten Leistung sowohl bei Trainingsdaten als auch bei neuen Daten führt.

Einheitlichkeit

Sicherstellung einer konsistenten Anwendung von Richtlinien, Kontrollen und Standards über alle KI-Systeme hinweg, um Governance-Lücken oder ungleiche Risikomanagementpraktiken zu vermeiden.

Unüberwachtes Lernen

Ein maschineller Lernansatz, bei dem Modelle Muster oder Gruppierungen in nicht gekennzeichneten Daten erkennen, ohne explizite Ergebnisanweisungen.

Verfügbarkeitsüberwachung

Kontinuierliche Überwachung der Verfügbarkeit und Leistung von KI-Systemen, um Ausfälle oder Leistungseinbußen zu erkennen, die kritische Abläufe oder Compliance-Verpflichtungen beeinträchtigen könnten.

Anwendungsfall-Governance

Die Praxis der Definition, Genehmigung und Überwachung spezifischer KI-Anwendungsfälle, um sicherzustellen, dass jeder mit den organisatorischen Richtlinien, ethischen Standards und der Risikobereitschaft übereinstimmt.

Benutzerzustimmung

Der Prozess des Einholens und Aufzeichnens ausdrücklicher Zustimmung von Einzelpersonen, bevor ihre persönlichen Daten in KI-Systemen gesammelt, verarbeitet oder verwendet werden.

Dienstprogramm

Ein Maß dafür, wie wertvoll oder effektiv ein KI-System bei der Erreichung seiner vorgesehenen Ziele ist, im Verhältnis zu den damit verbundenen Risiken oder Ressourcenaufwendungen.

V

Validierung

Der Prozess der Bestätigung, dass ein KI-Modell genaue und zuverlässige Leistungen bei den vorgesehenen Aufgaben erbringt und definierte Leistungskriterien erfüllt.

Varianzüberwachung

Verfolgung von Schwankungen in den Ausgaben von KI-Modellen oder Leistungskennzahlen im Laufe der Zeit, um Drift zu erkennen und potenziellen Abbau oder Risiken zu ermitteln.

Lieferantenrisikomanagement

Bewertung und Überwachung von Drittanbietern von KI-Komponenten oder -Dienstleistungen zur Identifizierung und Minderung potenzieller Compliance-, Sicherheits- oder ethischer Risiken.

Versionskontrolle

Die Praxis, Änderungen an KI-Code, Modellen und Datensätzen im Laufe der Zeit zu verwalten und nachzuverfolgen, um Reproduzierbarkeit und Prüfbarkeit sicherzustellen.

Vetorecht

Das formale Recht, das von einem Governance-Gremium oder einem Stakeholder ausgeübt wird, um AI-Implementierungen, die unannehmbare Risiken darstellen, zu blockieren oder Änderungen zu verlangen.

Überwachungsinstrument

Kontinuierliche Überwachung des Verhaltens von KI und externer Signale (z.B. regulatorische Aktualisierungen), um aufkommende Risiken oder Nicht-Einhaltungen frühzeitig zu erkennen und darauf zu reagieren.

Visuelle KI-Überwachung

Die Governance-Prozesse, die speziell für Computer-Vision-Systeme entwickelt wurden, gewährleisten die Datenqualität, führen Bias-Prüfungen durch und sorgen für Transparenz bei auf Bild/Video basierenden Entscheidungsprozessen.

Schwachstellenbewertung

Identifizierung, Analyse und Priorisierung von Sicherheitsschwächen in AI-Infrastrukturen und -Anwendungen zur Steuerung von Behebungsmaßnahmen.

W

Watchdog-Überwachung

Unabhängige Laufzeitprüfungen, die KI-Entscheidungen überwachen und Warnungen oder Eingriffe auslösen, wenn Richtlinien oder Schwellenwerte überschritten werden.

Gewichtskontrolle

Untersuchung von Modellgewichten und -strukturen auf Anomalien, Hintertüren oder Vorurteile, die auf Manipulationen oder unbeabsichtigte Verhaltensweisen hindeuten könnten.

White-Box-Tests

Bewertung von KI-Systemen mit umfassendem Wissen über interne Abläufe (Code, Parameter, Architektur), um Korrektheit, Sicherheit und Compliance zu überprüfen.

Richtlinie zur Zulassungsliste/Sperrliste

Governance-Regel, die erlaubte (Whitelist) und nicht erlaubte (Blacklist) Eingaben, Funktionen oder Vorgänge definiert, um die Einhaltung der Vorschriften zu gewährleisten und Missbrauch zu verhindern.

Positivliste

Nur vorab genehmigte Datenquellen, Bibliotheken oder Modellkomponenten in KI-Pipelines zuzulassen, um das Risiko durch nicht überprüfte oder bösartige Elemente zu reduzieren.

Arbeitsablauf-Orchestrierung

Automatisierung und Sequenzierung von KI-Lebenszyklusaufgaben (Datenaufnahme, Training, Validierung, Bereitstellung), um Governance-Richtlinien durchzusetzen und Konsistenz sicherzustellen.

Arbeitslasttrennung

Trennung von KI-Computing-Umgebungen (z. B. Entwicklung, Test, Produktion) und Datenbereichen, um den Ausbreitungsradius von Fehlern oder Sicherheitsverletzungen zu begrenzen.

Worst-Case-Analyse

Bewertung der extremsten potenziellen Ausfälle oder Missbräuche eines KI-Systems, um solide Risikominderungs- und Notfallplanungsstrategien zu entwickeln.

Speicher für einmaliges Schreiben und mehrfaches Lesen (WORM)

Unveränderlicher Speicher gewährleistet, dass Protokolle, Prüfpfade und Modellartefakte nach dem Schreiben nicht mehr verändert werden können, was die Nichtabstreitbarkeit unterstützt und eine forensische Überprüfung ermöglicht.

X

X-Validierung

Eine Modellvalidierungstechnik (häufig als „X-Val“ abgekürzt), die Daten in Falten aufteilt, um die Generalisierung des Modells rigoros zu bewerten und Überanpassung zu erkennen.

XAI (Erklärbare KI)

Techniken und Methoden, die den Entscheidungsprozess eines KI-Modells für Menschen transparent und verständlich machen und somit Verantwortlichkeit und Compliance unterstützen.

XAI-Prüfung

Ein Überprüfungsprozess, der bewertet, ob die Ausgaben zur Erklärbarkeit von KI den internen Richtlinien und behördlichen Anforderungen entsprechen und ausreichende Transparenz gewährleisten.

XAI-Framework

Ein strukturierter Ansatz oder ein Satz von Richtlinien, den Organisationen verwenden, um die Umsetzbarkeit, Messung und Steuerung von Erklärbarkeitspraktiken in ihren KI-Systemen zu implementieren und zu verwalten.

XAI-Metriken

Quantitative oder qualitative Messgrößen (z. B. Wichtigkeitsscores von Funktionen, Erklärungsgenauigkeit), die zur Bewertung der Qualität und Zuverlässigkeit von KI-Erklärungen verwendet werden.

Ja

YARA-Regeln

Ein Satz von signaturbasierten Erkennungsmustern, die verwendet werden, um KI-Pipelines und Artefakte auf bekannte bösartige Codes oder Manipulationen zu überprüfen.

Jährliche Compliance-Überprüfung

Eine jährliche Bewertung der KI-Governance-Prozesse, -Richtlinien und -Systeme, um die fortwährende Einhaltung von Vorschriften und internen Standards sicherzustellen.

Z

Null-Fehlertoleranz

Ein Governance-Prinzip, das darauf abzielt, keine Fehler oder Richtlinienverstöße in den KI-Ergebnissen zuzulassen, unterstützt durch rigorose Tests, Überwachung und kontinuierliche Verbesserungszyklen.

Zero-Day-Schwachstelle

Eine zuvor unbekannte Sicherheitslücke in der KI-Software oder -Infrastruktur, die ausgenutzt werden kann, bevor ein Patch oder eine Abhilfe verfügbar ist.

Null-Schuss-Lernen

Eine Modellfähigkeit, Aufgaben korrekt zu bewältigen oder Daten zu klassifizieren, auf die es nie explizit trainiert wurde, indem es generalisierte Wissensdarstellungen nutzt.

Zonenbasierte Zugriffskontrolle

Ein Netzwerk- oder Daten-Governance-Ansatz, der Ressourcen in Zonen mit unterschiedlichen Richtlinien unterteilt und den Zugriff von KI-Systemen gemäß der Datenempfindlichkeit einschränkt.

Alle

Whitepaper

Vorschriften für KI

Podcasts

Produktaktualisierungen

Presseberichterstattung

Glossar

Treten Sie unserem Podcast bei oder arbeiten Sie an Inhalten mit uns zusammen

Kontaktieren Sie uns, und wir werden sehen, was wir gemeinsam produzieren können.

Ein

Verantwortlichkeit der KI

Die Verpflichtung der Entwickler und Betreiber von KI-Systemen, sicherzustellen, dass ihre Systeme verantwortungsvoll entworfen und verwendet werden, unter Einhaltung ethischer Standards und gesetzlicher Anforderungen.

KI-Ausrichtung

Der Prozess, sicherzustellen, dass die Ziele und Verhaltensweisen von KI-Systemen mit menschlichen Werten und Absichten in Einklang stehen.

KI-Prüfung

Die systematische Bewertung von KI-Systemen zur Beurteilung der Einhaltung von ethischen Standards, Vorschriften und Leistungskennzahlen.

KI-Voreingenommenheit

Systematische Fehler in den Ausgaben der KI, die durch voreingenommene Trainingsdaten oder fehlerhafte Algorithmen entstehen und zu unfaire Ergebnisse führen.

KI-Konformität

Die Einhaltung von geltenden Gesetzen, Vorschriften und ethischen Richtlinien durch KI-Systeme während ihres gesamten Lebenszyklus.

KI-Ethik

Das Fachgebiet, das sich mit den moralischen Implikationen und Verantwortlichkeiten im Zusammenhang mit der Entwicklung und Implementierung von KI-Technologien befasst.

Erklärbarkeit von KI

Das Ausmaß, in dem die internen Mechanismen eines KI-Systems von Menschen verstanden und interpretiert werden können.

KI-Governance

Das Rahmenwerk aus Richtlinien, Prozessen und Kontrollmechanismen, das die ethische und effektive Entwicklung und Nutzung von KI-Systemen leitet.

KI-Inventar

Ein umfassender, zentralisierter Katalog aller KI-Systeme, Modelle und Agenten, die in einer Organisation verwendet werden, der ihren Geschäftszweck, das Risikoniveau und die Eigentümerschaft verfolgt.

KI-Kompetenz

Das Verständnis von KI-Konzepten, Fähigkeiten und Einschränkungen, ermöglicht eine informierte Interaktion mit KI-Technologien.

KI-Überwachung

Die kontinuierliche Beobachtung und Analyse der Leistung von KI-Systemen, um Zuverlässigkeit, Sicherheit und Compliance zu gewährleisten.

KI-Risiko

Das Potenzial von KI-Systemen, Schaden oder unbeabsichtigte Folgen zu verursachen, einschließlich ethischer, rechtlicher und betrieblicher Risiken.

KI-Risikomanagement

Der Prozess der Identifizierung, Bewertung und Minderung von Risiken im Zusammenhang mit KI-Systemen.

KI TRiSM

Ein von Gartner geprägtes Akronym, das für KI-Vertrauen, Risiko- und Sicherheitsmanagement steht; ein Rahmenwerk, das Governance, Vertrauenswürdigkeit und Sicherheit in eine einzige operative Strategie vereint.

KI-Transparenz

Das Prinzip, dass KI-Systeme offen und transparent über ihre Abläufe, Entscheidungen und Datennutzung informieren sollten.

Genauigkeit

Der Grad, zu dem die Ausgaben eines KI-Systems korrekt reale Daten oder beabsichtigte Ergebnisse widerspiegeln.

Gegnerischer Angriff

Techniken, die AI-Modelle durch das Einführen täuschender Eingaben manipulieren, um fehlerhafte Ergebnisse zu verursachen.

Agentic KI

Eine Klasse von künstlichen Intelligenzsystemen, die darauf ausgelegt ist, komplexe Ziele selbstständig zu verfolgen und mehrstufige Aktionen (wie Softwarebereitstellung oder Finanztransaktionen) mit minimalem menschlichen Eingriff auszuführen.

Agentische KI-Governance

Die Steuerung autonomer KI-Systeme, die unabhängig agieren können (z.B. Transaktionen, Code-Bereitstellung), unterscheidet sich von voraussschauender KI (die Einblicke bietet) und generativer KI (die Inhalte erstellt).

Algorithmus

Ein Satz von Regeln oder Anweisungen, die einem KI-System gegeben werden, um ihm zu helfen, eigenständig zu lernen.

Algorithmische Verzerrung

Ein Bias, der auftritt, wenn ein Algorithmus systematisch voreingenommene Ergebnisse produziert, aufgrund fehlerhafter Annahmen im maschinellen Lernprozess.

Algorithmische Verwaltung

Der Einsatz von Algorithmen zur Steuerung und Regulierung gesellschaftlicher Funktionen, der potenziell die Entscheidungsprozesse beeinflussen kann.

Allgemeine Künstliche Intelligenz

Eine Art von KI, die über die Fähigkeit verfügt, Wissen auf eine verallgemeinerte Weise zu verstehen, zu lernen und anzuwenden, ähnlich der menschlichen Intelligenz.

Künstliche Intelligenz

Die Simulation menschlicher Intelligenzprozesse durch Maschinen, insbesondere Computersysteme, einschließlich Lernen, Schlussfolgern und Selbstkorrektur.

B

Rückpropagation

Ein Trainingsalgorithmus, der in neuronalen Netzwerken verwendet wird, um Gewichte anzupassen, indem Fehler vom Ausgabeschicht rückwärts propagiert werden, um den Verlust zu minimieren.

Stapelverarbeitung Lernen

Ein maschinelles Lernverfahren, bei dem das Modell auf einmal mit dem gesamten Datensatz trainiert wird, im Gegensatz zum inkrementellen Lernen.

Benchmarking

Der Prozess des Vergleichs der Leistung eines KI-Systems mit Standardkennzahlen oder anderen Systemen zur Bewertung der Effektivität.

Voreingenommenheit

Systematische Fehler in den Ausgaben der KI, die durch voreingenommene Trainingsdaten oder fehlerhafte Algorithmen entstehen und zu unfaire Ergebnisse führen.

Verstärkung von Verzerrungen

Das Phänomen, bei dem KI-Systeme bestehende Vorurteile in den Trainingsdaten verstärken und zu zunehmend verzerrten Ergebnissen führen.

Voreingenommenheitsprüfung

Ein Bewertungsprozess zur Erkennung und Minderung von Verzerrungen in KI-Systemen, um Fairness und die Einhaltung ethischer Standards sicherzustellen.

Voreingenommenheitserkennung

Der Prozess der Identifizierung von Verzerrungen in KI-Modellen durch Analyse ihrer Ergebnisse und Entscheidungsprozesse.

Voreingenommenheitsminderung

Techniken, die während der KI-Entwicklung angewendet werden, um Vorurteile in Modellen und Datensätzen zu reduzieren oder zu beseitigen.

Schwarzkastenmodell

Ein KI-System, dessen interne Abläufe nicht transparent oder interpretierbar sind, was es schwierig macht zu verstehen, wie Entscheidungen getroffen werden.

Bot

Eine Softwareanwendung, die automatisierte Aufgaben ausführt und häufig in der KI für Aufgaben wie Kundenservice oder Datenerfassung eingesetzt wird.

C

Kausale Inferenz

Eine Methode in der KI und Statistik, die verwendet wird, um Ursache-Wirkungs-Beziehungen zu bestimmen und dabei hilft, die Auswirkungen von Interventionen oder Änderungen von Variablen zu verstehen.

Chatbot

Eine KI-gestützte Softwareanwendung, die darauf ausgelegt ist, menschliche Gespräche zu simulieren und häufig im Kundenservice sowie zur Informationsbeschaffung eingesetzt wird.

Klassifizierung

Ein überwachtes Lernverfahren im Bereich des maschinellen Lernens, bei dem das Modell die Kategorie oder Klassenbezeichnung neuer Beobachtungen basierend auf den Trainingsdaten vorhersagt.

Kognitive Voreingenommenheit

Systematische Abweichungsmuster von der Norm oder Rationalität im Urteil, die die Entscheidungsfindung von KI beeinflussen können, wenn sie in den Trainingsdaten vorhanden sind.

Kognitives Computing

Ein Teilbereich der KI, der menschliche Denkprozesse in einem computergestützten Modell simuliert, mit dem Ziel, komplexe Probleme ohne menschliche Unterstützung zu lösen.

Kognitive Belastung

Der gesamte mentale Aufwand, der im Arbeitsgedächtnis verwendet wird, wird im Bereich der KI berücksichtigt, um Systeme zu entwerfen, die Benutzer nicht überfordern.

Compliance-Rahmenwerk

Ein strukturierter Satz von Richtlinien und Best Practices, denen Organisationen folgen, um sicherzustellen, dass ihre KI-Systeme regulatorische und ethische Standards erfüllen.

Compliance-Risiko

Das Potenzial für rechtliche oder regulatorische Sanktionen, finanzielle Verluste oder Reputationsschäden, dem ein Unternehmen ausgesetzt ist, wenn es versäumt, gesetzliche Vorschriften, Regulierungen oder vorgegebene Praktiken einzuhalten.

Computer Vision

Ein Bereich der KI, der Computer darin schult, visuelle Informationen aus der Welt, wie Bilder und Videos, zu interpretieren und zu verarbeiten.

Konzeptdrift

Die Veränderung der statistischen Eigenschaften der Zielvariablen, die das Modell vorherzusagen versucht, im Laufe der Zeit, was zu einer Verschlechterung des Modells führt.

Vertrauensintervall

Ein Wertebereich, abgeleitet von Stichprobenstatistiken, der wahrscheinlich den Wert eines unbekannten Populationsparameters enthält, wird in der KI verwendet, um Unsicherheiten auszudrücken.

Konformitätsbewertung

Ein Verfahren zur Bestimmung, ob ein KI-System festgelegte Anforderungen, Standards oder Vorschriften erfüllt, das häufig Tests und Zertifizierungen umfasst.

Kontinuierliches Lernen

Die Fähigkeit eines KI-Systems, kontinuierlich aus neuen Dateneingaben zu lernen und sich ohne menschliches Eingreifen anzupassen, verbessert sich im Laufe der Zeit.

Steuerbarkeit

In welchem Maße Menschen die Entscheidungen und Verhaltensweisen eines KI-Systems lenken, beeinflussen oder übersteuern können.

Kreuzvalidierung

Eine Modellvalidierungsmethode zur Beurteilung, wie die Ergebnisse einer statistischen Analyse auf ein unabhängiges Datenset verallgemeinert werden können.

Cybersicherheit

Die Praxis des Schutzes von Systemen, Netzwerken und Programmen vor digitalen Angriffen ist entscheidend für den Schutz von KI-Systemen vor Bedrohungen.

D

Datenabweichung

Die Veränderung der Modell-Eingabedaten im Laufe der Zeit kann zu einer Verschlechterung der Modellleistung führen, wenn diese nicht überwacht und behoben wird.

Datenethik

Der Bereich der Ethik, der Datenpraktiken im Hinblick auf die moralischen Verpflichtungen bei der Erfassung, dem Schutz und der Nutzung personenbezogener Informationen bewertet.

Datenverwaltung

Die umfassende Verwaltung der Datenverfügbarkeit, Benutzerfreundlichkeit, Integrität und Sicherheit in einem Unternehmen, um sicherzustellen, dass Daten während ihres gesamten Lebenszyklus ordnungsgemäß behandelt werden.

Datenlebenszyklusverwaltung

Die richtlinienbasierte Verwaltung des Datenflusses über den gesamten Lebenszyklus: von der Erstellung und anfänglichen Speicherung bis zu dem Zeitpunkt, an dem die Daten veraltet sind und gelöscht werden.

Datenminimierung

Das Prinzip, nur die Daten zu erfassen, die für einen bestimmten Zweck erforderlich sind, reduziert das Risiko von Missbrauch oder Verstößen.

Datenschutz

Der Bereich der Informationstechnologie, der sich mit der Fähigkeit befasst, zu kontrollieren, welche Daten geteilt werden und mit wem, und dabei sicherzustellen, dass personenbezogene Daten angemessen behandelt werden.

Datenschutz

Der Prozess, wichtige Informationen vor Beschädigung, Kompromittierung oder Verlust zu schützen und die Einhaltung der Datenschutzgesetze und -vorschriften zu gewährleisten.

Datenqualität

Der Zustand von Daten, basierend auf Faktoren wie Genauigkeit, Vollständigkeit, Zuverlässigkeit und Relevanz, ist entscheidend für die effektive Leistung von KI-Modellen.

Datenresidenz

Der physische oder geografische Standort der Daten einer Organisation, der Auswirkungen auf die Einhaltung von Datenschutzgesetzen haben kann.

Datenhoheit

Das Konzept, dass Daten den Gesetzen und Governance-Strukturen des Landes unterliegen, in dem sie gesammelt, gespeichert oder verarbeitet werden.

Betroffene Person

Eine Person, deren personenbezogene Daten erfasst, gespeichert oder verarbeitet werden, was insbesondere im Kontext von Datenschutzgesetzen wie der DSGVO relevant ist.

De-Identifikation

Der Prozess der Entfernung oder Verschleierung personenbezogener Kennungen in Datensätzen, um es schwierig zu machen, Einzelpersonen zu identifizieren, wird verwendet, um die Privatsphäre zu schützen.

Tiefes Lernen

Ein Teilbereich des maschinellen Lernens, der neuronale Netze mit mehreren Schichten umfasst und die Modellierung komplexer Muster in Daten ermöglicht.

Täuschungstechnologie

Synthetische Medien, bei denen eine Person in einem bestehenden Bild oder Video durch das Abbild einer anderen Person ersetzt wird, das mit Hilfe von Deep-Learning-Techniken erstellt wurde.

Differentialer Datenschutz

Ein System zur öffentlichen Weitergabe von Informationen über einen Datensatz, indem Muster von Gruppen innerhalb des Datensatzes beschrieben werden, während Informationen über Einzelpersonen zurückgehalten werden.

Diskriminierung

Im Bereich der KI bezieht sich dies auf die unfaire Behandlung von Einzelpersonen oder Gruppen aufgrund von Verzerrungen in Daten oder Algorithmen, die zu ungleichen Ergebnissen führen.

Verteiltes Lernen

Ein maschineller Lernansatz, bei dem Trainingsdaten auf mehrere Geräte oder Standorte verteilt werden und Modelle kollaborativ trainiert werden, ohne rohe Daten auszutauschen.

Domänenanpassung

Eine Technik im maschinellen Lernen, bei der ein in einem Bereich trainiertes Modell angepasst wird, um in einem anderen, aber verwandten Bereich zu funktionieren.

Dynamische Risikoanalyse

Der kontinuierliche Prozess der Identifizierung und Bewertung von Risiken in Echtzeit ermöglicht rechtzeitige Reaktionen auf neu auftretende Bedrohungen in KI-Systemen.

E

Edge-KI

Die Bereitstellung von KI-Algorithmen auf Edge-Geräten ermöglicht die Datenverarbeitung und Entscheidungsfindung direkt an der Quelle der Datenerzeugung.

Edge-Analytik

Die Analyse von Daten am Rand des Netzwerks, nahe der Quelle der Datenerzeugung, reduziert Latenzzeiten und Bandbreitennutzung.

Ensemble-Lernen

Ein maschinelles Lernparadigma, bei dem mehrere Modelle trainiert und kombiniert werden, um dasselbe Problem zu lösen und die Gesamtleistung zu verbessern.

Entitätsauflösung

Der Prozess der Identifizierung und Verknüpfung von Datensätzen, die sich auf dasselbe reale Objekt in verschiedenen Datenbeständen beziehen.

Enzai

Eine Unternehmensplattform für KI-Governance, die es Organisationen ermöglicht, ihre KI-Systeme zu inventarisieren, bewerten und steuern, um eine maximale Einführung von KI zu gewährleisten und zugleich das Risiko zu minimieren.

Ethische KI

Die Praxis, KI-Systeme auf eine Weise zu entwerfen, zu entwickeln und bereitzustellen, die mit ethischen Prinzipien und Werten übereinstimmt, um Fairness, Verantwortlichkeit und Transparenz zu gewährleisten.

Ethisches KI-Audit

Der Prozess der systematischen Bewertung von KI-Systemen, um sicherzustellen, dass sie den ethischen Standards entsprechen und keinen Schaden verursachen.

Zertifizierung für ethische KI

Eine formale Anerkennung, dass ein KI-System etablierten ethischen Standards und Richtlinien entspricht.

Ethische KI-Governance

Der Rahmen von Richtlinien, Verfahren und Praktiken, die sicherstellen, dass KI-Systeme verantwortungsvoll und ethisch entwickelt und verwendet werden.

Ethische Rahmenwerke

Strukturierte Sätze von Prinzipien und Richtlinien, die dazu bestimmt sind, die ethische Entwicklung und Implementierung von KI-Systemen zu leiten.

Ethisches Hacken

Die bewusste Überprüfung von Systemen auf Schwachstellen, um Sicherheitsprobleme zu identifizieren und zu beheben, gewährleistet die Robustheit von KI-Systemen.

Ethische Auswirkungen Bewertung

Ein systematischer Evaluierungsprozess zur Identifizierung und Berücksichtigung der ethischen Implikationen und potenziellen gesellschaftlichen Auswirkungen von KI-Systemen vor deren Einsatz.

Ethisches Risiko

Das Potenzial eines KI-Systems, Schaden durch unethisches Verhalten wie Voreingenommenheit, Diskriminierung oder Verletzung der Privatsphäre zu verursachen.

Ethische Leitlinien für vertrauenswürdige KI

Ein Satz von Richtlinien, die von der hochrangigen Expertengruppe der Europäischen Kommission für KI entwickelt wurden, um vertrauenswürdige KI zu fördern, wobei der Schwerpunkt auf menschlicher Handlungskompetenz, technischer Robustheit, Datenschutz, Transparenz, Vielfalt, gesellschaftlichem Wohlergehen und Verantwortung liegt.

Techniken der Erklärbarkeit

Methoden zur Interpretation und zum Verständnis der Entscheidungen von KI-Modellen, wie LIME, SHAP und Salienzabbildungen.

Erklärbarkeit vs. Interpretierbarkeit

Während beide darauf abzielen, KI-Entscheidungen verständlich zu machen, konzentriert sich die Erklärbarkeit auf die Begründung der Entscheidungen, während sich die Interpretierbarkeit auf die Transparenz der internen Mechanismen des Modells bezieht.

Erklärbare KI (XAI)

KI-Systeme, die darauf ausgelegt sind, nachvollziehbare Begründungen für ihre Entscheidungen und Handlungen bereitzustellen, wodurch Transparenz und Vertrauen gestärkt werden.

Erklärbare Maschinelles Lernen

Maschinelle Lernmodelle, die entwickelt wurden, um klare und verständliche Erklärungen für ihre Vorhersagen und Entscheidungen bereitzustellen.

F

Gerechtigkeit

Sicherstellen, dass KI-Systeme unvoreingenommene und gerechte Ergebnisse für verschiedene Einzelpersonen und Gruppen liefern und diskriminierende Auswirkungen mindern.

Fairness-Kennzahlen

Quantitative Maße (z.B. demografische Parität, gleichberechtigte Chancen), die verwendet werden, um zu bewerten, wie fair die Vorhersagen eines KI-Modells über verschiedene Gruppen hinweg sind.

Falsch Negativ

Wenn ein AI-Modell fälschlicherweise eine negative Klasse für eine Instanz vorhersagt, die tatsächlich positiv ist (Typ-II-Fehler).

Falsch-Positiv

Wenn ein KI-Modell fälschlicherweise eine positive Klasse für ein Beispiel prognostiziert, das in Wirklichkeit negativ ist (Typ-I-Fehler).

Fehlertoleranz

Die Fähigkeit eines KI-Systems, auch dann korrekt weiterzuarbeiten, wenn einige Komponenten ausfallen oder Fehler produzieren.

Merkmalsengineering

Erstellen, Auswählen oder Transformieren von Rohdatensatzattributen in Merkmale, die die Leistung von maschinellen Lernmodellen verbessern.

Merkmalextraktion

Der Prozess der Zuordnung von Rohdaten (z. B. Text, Bilder) zu numerischen Darstellungen (Merkmale), die sich für die Eingabe in maschinelle Lernalgorithmen eignen.

Funktionsauswahl

Identifizierung und Auswahl der relevantesten Merkmale für das Modelltraining, um die Komplexität zu reduzieren und die Genauigkeit zu verbessern.

Föderiertes Lernen

Ein dezentraler Ansatz für maschinelles Lernen, bei dem Modelle auf mehreren Geräten oder Servern trainiert werden, die lokale Daten halten, ohne dass Rohdaten zentral geteilt werden müssen.

Rückkopplungsschleife

Ein Prozess, bei dem KI-Ausgaben als Eingaben zurückgeführt werden, was das Modellverhalten sowohl positiv (verstärkendes Lernen) als auch negativ (Verstärkung von Vorurteilen) verstärken kann.

Feinabstimmung

Anpassen eines vortrainierten KI-Modells an eine spezifische Aufgabe oder ein spezifisches Dataset durch Fortsetzung des Trainings mit neuen Daten, was oft die leistungsbezogene Effizienz verbessert.

Formale Verifikation

Mathematisch beweisen, dass KI-Algorithmen spezifischen Korrektheitseigenschaften entsprechen, die häufig in sicherheitskritischen Systemen verwendet werden.

Rahmenwerk

Ein strukturiertes Set von Richtlinien, Prozessen und Werkzeugen zur Steuerung, Entwicklung, Bereitstellung und Überwachung von KI-Systemen.

Betrugserkennung

Verwendung von KI-Techniken (z.B. Anomalieerkennung, Mustererkennung), um betrügerische Aktivitäten in Finanzwesen, Versicherungen usw. zu identifizieren und zu verhindern.

Funktionale Sicherheit

Sicherzustellen, dass KI-Systeme unter allen Bedingungen sicher funktionieren, insbesondere in Branchen wie der Automobilindustrie oder dem Gesundheitswesen, erfolgt oft durch Redundanz und Überprüfungen.

Fuzzy-Logik

Ein logisches System, das das Schlussfolgern mit ungefähren statt binären Wahrheitswerten handhabt – nützlich in Steuerungssystemen und im Umgang mit Unsicherheit.

G

DSGVO

Die Datenschutz-Grundverordnung der EU legt strenge Anforderungen für die Erfassung, Verarbeitung und die individuellen Rechte persönlicher Daten fest.

GPU

Spezialisierter Hardware-Beschleuniger für parallele Berechnungen, der häufig zum effizienten Trainieren und Ausführen groß angelegter KI-Modelle verwendet wird.

Lückenanalyse

Der Prozess, aktuelle KI-Governance-Praktiken mit den gewünschten Standards oder Vorschriften zu vergleichen, um Bereiche zu identifizieren, die Verbesserungen benötigen.

Verallgemeinerung

Die Fähigkeit eines KI-Modells, auf neuen, unbekannten Daten gute Leistungen zu erbringen, indem es zugrunde liegende Muster erfasst, anstatt Trainingsbeispiele auswendig zu lernen.

Generative KI

KI-Techniken (z.B. GANs, Transformer), die neue Inhalte wie Text, Bilder oder andere Medien erstellen, werfen häufig neuartige Fragen zur Governance und zum geistigen Eigentum auf.

Globales Modell

Ein konsolidiertes KI-Modell, das auf aggregierten Daten aus mehreren Quellen trainiert ist, im Gegensatz zu lokalisierten oder personalisierten Modellen.

Governance

Das Gesamtkonstrukt aus Richtlinien, Verfahren, Rollen und Verantwortlichkeiten, das die ethische, legale und effektive Entwicklung sowie den Einsatz von KI-Systemen leitet.

Lenkungsgremium

Eine funktionsübergreifende Gruppe (z. B. rechtlich, ethisch, technisch), die damit betraut ist, die Richtlinien zur KI-Governance innerhalb einer Organisation zu überwachen und deren Umsetzung zu gewährleisten.

Governance-Rahmenwerk

Ein strukturiertes Modell, das darlegt, wie die Komponenten der KI-Governance (Risikomanagement, Verantwortlichkeit, Aufsicht) zusammenpassen, um die Einhaltung von Vorschriften und die ethische Nutzung sicherzustellen.

Reifegradmodell für Governance

Ein gestuftes Rahmenwerk, das bewertet, wie fortgeschritten die KI-Governance-Praktiken einer Organisation sind, von ad-hoc bis optimiert.

Richtlinie zur Unternehmensführung

Ein formales Dokument, das Regeln, Rollen und Verfahren für die Entwicklung und Überwachung von KI innerhalb einer Organisation kodifiziert.

Governance-Bewertungssystem

Ein Dashboard oder Bericht, das wichtige Kennzahlen (z. B. Vorfälle von Voreingenommenheit, Compliance-Audits) zur Messung der Effektivität der KI-Governance im Laufe der Zeit verfolgt.

Gradientenabstieg

Ein Optimierungsalgorithmus, der die Modellparameter iterativ in die Richtung anpasst, die die Verlustfunktion minimal verringert.

Granulare Zustimmung

Ein Datenschutzansatz, der es Einzelpersonen ermöglicht, spezifische Berechtigungen für jede Art der Datennutzung zu erteilen oder zu verweigern, wodurch Transparenz und Kontrolle verbessert werden.

Grüne KI

Die Praxis, den ökologischen Fußabdruck von KI durch energieeffiziente Algorithmen und nachhaltige Computerpraktiken zu reduzieren.

Grauer-Box-Modell

Ein Modell, dessen innere Logik teilweise transparent ist (einige Komponenten sind interpretierbar, andere undurchsichtig), das Leistung und Erklärbarkeit ausbalanciert.

Tatsächliche Gegebenheit

Die präzisen, praxisnahen Daten oder Kennzeichnungen, die als Maßstab zur Schulung und Bewertung der Leistung von KI-Modellen verwendet werden.

Leitplanken

Vordefinierte Einschränkungen oder Überprüfungen (technisch und richtlinienbasiert), die in KI-Systeme eingebettet sind, um unsicheres oder nicht konformes Verhalten zur Laufzeit zu verhindern.

Leitlinie (Ethische KI)

Eine unverbindliche Empfehlung oder ein Best-Practice-Dokument, das von Organisationen (z.B. IEEE, EU) herausgegeben wird, um die verantwortungsvolle Entwicklung und Implementierung von KI zu gestalten.

H

Halluzination

Wenn generative KI inkorrekte oder erfundene Informationen erstellt, die plausibel erscheinen, aber keine Grundlage in den Trainingsdaten haben.

Umgang mit fehlenden Daten

Techniken (z.B. Imputation, Löschung, Modellierung) zur Schließung von Lücken in Datensätzen, um die Integrität und Fairness des Modells zu bewahren.

Hardware-Beschleuniger

Spezialisierte Chips (z.B. GPUs, TPUs), die zur Beschleunigung von KI-Berechnungen entwickelt wurden, mit Auswirkungen auf den Energieverbrauch und das Lieferkettenrisiko.

Schadensbewertung

Bewertung potenzieller negativer Auswirkungen (physisch, psychologisch, gesellschaftlich) von KI-Systemen und Definition von Minderungsstrategien.

Harmonisierung

Harmonisierung von KI-Richtlinien, -Standards und -Vorschriften über verschiedene Rechtsgebiete hinweg, um Konflikte zu reduzieren und Interoperabilität zu ermöglichen.

Hashierung

Der Prozess der Umwandlung von Daten in eine Zeichenfolge fester Größe wird für Datenintegritätsprüfungen und die datenschutzfreundliche Verknüpfung von Aufzeichnungen verwendet.

Heterogene Daten

Die Kombination von Daten unterschiedlicher Typen (Text, Bild, Sensor) oder aus mehreren Domänen stellt Herausforderungen an Integration und Governance dar.

Heuristik

Eine Faustregel oder vereinfachte Entscheidungsstrategie, die verwendet wird, um KI-Prozesse zu beschleunigen, wobei oft Optimalität gegen Effizienz eingetauscht wird.

Heuristische Bewertung

Eine Methode zur Gebrauchstauglichkeitsprüfung, bei der Experten ein KI-System anhand etablierter Gebrauchstauglichkeitsprinzipien beurteilen, um potenzielle Probleme zu identifizieren.

KI im Hochspannungsbereich

KI-Anwendungen, deren Ausfälle erheblichen Schaden verursachen könnten (z. B. medizinische Diagnosen, autonome Fahrzeuge), erfordern verstärkte Governance und Aufsicht.

Menschliche Aufsicht

Mechanismen, die es ausgewählten Personen ermöglichen, Entscheidungen von KI-Systemen zu überwachen, einzugreifen oder zu überschreiben, um ethische und gesetzliche Konformität sicherzustellen.

Auswirkungen auf die Menschenrechte Bewertung

Ein Verfahren zur Bewertung, wie KI-Systeme die Grundrechte (Privatsphäre, Meinungsfreiheit, Nichtdiskriminierung) beeinflussen, und zur Identifizierung von Minderungsmaßnahmen.

Mensch-in-der-Schleife

Einbeziehung menschlicher Urteilsfähigkeit in KI-Prozesse (Schulung, Validierung, Entscheidungsüberprüfung), um Genauigkeit und Verantwortlichkeit zu verbessern.

Hybrides Modell

KI-Systeme, die mehrere Lernparadigmen kombinieren (z. B. symbolische und neuronale), um Erklärbarkeit und Leistung in Einklang zu bringen.

Hyperparameter

Eine Konfigurationsvariable (z. B. Lernrate, Baumeistiefe), die vor dem Modelltraining festgelegt wird und das Lernverhalten sowie die Leistung beeinflusst.

Optimierung von Hyperparametern

Der Prozess der Suche nach den optimalen Hyperparameterwerten (z.B. durch Grid-Suche oder Bayes'sche Optimierung), um die Modellleistung zu maximieren.

Ich

ISO/IEC JTC 1/SC 42

Der gemeinsame ISO/IEC-Ausschuss für die Standardisierung Künstlicher Intelligenz entwickelt internationale KI-Standards für Governance, Risiko und Interoperabilität.

Ungleichgewichtige Daten

Ein Datensatz, bei dem eine Klasse oder Kategorie die anderen signifikant überwiegt, was dazu führen kann, dass KI-Modelle zugunsten der Mehrheitsklasse voreingenommen sind, es sei denn, dies wird behoben.

Unveränderliches Hauptbuch

Ein manipulationssicheres Aufzeichnungsmechanismus (z.B. Blockchain), der sicherstellt, dass Daten nach der Speicherung nicht verändert werden können, ohne dass eine Erkennung erfolgt - nützlich für KI-Audit-Trails.

Auswirkungsbewertung

Eine strukturierte Bewertung zur Identifizierung, Analyse und Minderung potenzieller ethischer, rechtlicher und gesellschaftlicher Auswirkungen eines KI-Systems vor dessen Einsatz.

Implizite Voreingenommenheit

Unbewusste oder unbeabsichtigte Verzerrungen, die in den Trainingsdaten oder im Modellentwurf eingebettet sind und zu diskriminierenden Ergebnissen führen können.

Anreizabstimmung

Die Gestaltung von Belohnungsstrukturen und Zielen, sodass die Zielsetzungen von KI-Systemen mit menschlichen Werten und organisatorischen Prioritäten übereinstimmen.

Induktive Verzerrung

Die Menge von Annahmen, die ein Lernalgorithmus verwendet, um von beobachteten Daten auf nicht gesehene Instanzen zu verallgemeinern.

Schlussfolgerung

Der Prozess, bei dem ein trainiertes KI-Modell neue Daten eingibt, um Vorhersagen oder Entscheidungen zu treffen.

Schlussfolgerungsmaschine

Die Komponente eines KI-Systems (oft in regelbasierten oder Expertensystemen), die eine Wissensdatenbank auf Eingabedaten anwendet, um Schlussfolgerungen zu ziehen.

Informationsverwaltung

Die Richtlinien, Verfahren und Kontrollen, die die Datenqualität, den Datenschutz und die Nutzbarkeit über die Datenbestände einer Organisation hinweg gewährleisten, einschließlich der Schulungsdatensätze für künstliche Intelligenz.

Datenschutzinformationen

Das Recht von Personen, zu kontrollieren, wie ihre persönlichen Daten von KI-Systemen gesammelt, verwendet, gespeichert und geteilt werden.

Infrastruktur als Code (IaC)

Verwalten und Bereitstellen von KI-Infrastruktur (Rechenleistung, Speicher, Netzwerk) durch maschinenlesbare Konfigurationsdateien, wodurch Wiederholbarkeit und Prüfungsfähigkeit verbessert werden.

Interoperabilität

Die Fähigkeit verschiedener KI-Systeme und -Komponenten, Informationen nahtlos auszutauschen, zu verstehen und zu nutzen, häufig über offene Standards oder APIs.

Interpretierbarkeit

Das Maß, in dem ein Mensch die inneren Mechanismen oder Entscheidungsgründe eines KI-Modells verstehen kann.

Einbruchserkennung

Überwachung der KI-Infrastruktur und -Anwendungen auf bösartige Aktivitäten oder Verstöße gegen Richtlinien, Auslösung von Warnungen oder automatisierten Reaktionen.

J

Jacobian-Matrix

In der Erklärbarkeit von KI ist die Matrix aller partiellen Ableitungen erster Ordnung der Ausgaben eines Modells in Bezug auf seine Eingaben, die zur Bewertung der Empfindlichkeit und der Merkmalsbedeutung verwendet wird.

Jailbreak-Angriff

Eine Art von Prompt-Injection, bei der Benutzer Schwachstellen ausnutzen, um Schutzmaßnahmen in generativen KI-Modellen zu umgehen, was möglicherweise zu unsicheren oder unautorisierten Ausgaben führen kann.

Gemeinsame Haftung

Rechtsprinzip, bei dem mehrere Parteien (z. B. Entwickler, Betreiber) die Verantwortung für KI-bedingte Schäden teilen, was Einfluss auf Vertrags- und Governance-Strukturen hat.

Gemeinsame Modellierung

Entwicklung von KI-Systemen, die mehrere Aufgaben gleichzeitig lernen (z. B. Spracherkennung + Übersetzung), wobei eine Governance für Komplexität und Überprüfbarkeit erforderlich ist.

Urteilsverzerrung

Systematische Fehler in menschlichen oder KI-Entscheidungsprozessen, die durch kognitive Abkürzungen oder fehlerhafte Daten verursacht werden, erfordern eine Überprüfung und Minderung von Verzerrungen.

Gerichtliche Überprüfung

Der rechtliche Prozess, bei dem Gerichte die Gesetzmäßigkeit von Entscheidungen prüfen, die von KI getroffen oder unterstützt werden, um Verantwortlichkeit und ordnungsgemäßen Ablauf sicherzustellen.

Rechtsraum

Die rechtliche Zuständigkeit über Daten, KI-Operationen und Haftung, die je nach geografischer Lage variiert und die Einhaltung regionaler Vorschriften beeinflusst (z. B. DSGVO, CCPA).

Juror Automatisierung

Der Einsatz von KI zur Unterstützung bei der Jury-Auswahl oder der Fallanalyse wirft ethische Bedenken hinsichtlich Fairness, Transparenz und rechtlicher Aufsicht auf.

Gerechtigkeitsmetriken

Quantitative Messgrößen (z. B. unterschiedliche Auswirkungen, Chancengleichheit), die zur Bewertung von Fairness und Nichtdiskriminierung bei KI-Entscheidungsprozessen verwendet werden.

K

Schlüsselindikator für die Leistung

Ein quantifizierbarer Messwert (z. B. Modellgenauigkeitsdrift, Zeit zur Beseitigung von Vorurteilen), der zur Überwachung und Berichterstattung über Ziele der KI-Governance und Compliance verwendet wird.

Schlüsselrisikoindikator

Ein führender Messwert (z.B. Häufigkeit von unzutreffenden Vorhersagen, Rate unerklärlicher Entscheidungen), der auf aufkommende KI-Risiken hinweist, bevor sie sich manifestieren.

Kennen Sie Ihren Kunden (KYC)

Compliance-Prozesse zur Überprüfung der Identität, des Risikoprofils und der Legitimität von Personen oder Unternehmen, die mit KI-Systemen interagieren, insbesondere in regulierten Branchen.

Wissensverdichtung

Eine Methode zur Übertragung von Erkenntnissen von einem größeren „Lehrer“-Modell auf ein kleineres „Schüler“-Modell, um Leistung mit Ressourcen- und Governance-Einschränkungen in Einklang zu bringen.

Wissensgraph

Eine strukturierte Darstellung von Entitäten und deren Beziehungen, die dazu verwendet wird, die Erklärbarkeit, Prüfbarkeit und Anpassung von KI an Domänenontologien zu verbessern.

Wissensmanagement

Praktiken und Werkzeuge zur Erfassung, Organisation und Weitergabe von Organisationswissen (z. B. Modeldokumentation, Prüfungsprotokolle), um Reproduzierbarkeit und Aufsicht sicherzustellen.

L

Etikettenleckage

Die unbeabsichtigte Aufnahme von Ausgabedaten in die Trainingsdatenetiketten, die Leistungskennzahlen beeinflussen und tatsächliche Generalisierungsprobleme des Modells verschleiern können.

Großes Sprachmodell

Ein Deep-Learning-Modell, das auf umfangreichen Textkorpora trainiert wurde und Aufgaben wie Textgenerierung, Übersetzung und Zusammenfassung ausführen kann, wobei oft eine sorgfältige Steuerung von Vorurteilen und Missbrauch erforderlich ist.

Prinzip der minimalen Rechte

Ein Sicherheitsprinzip, bei dem KI-Komponenten und Benutzer nur die minimal erforderlichen Zugriffsrechte erhalten, die notwendig sind, um ihre Funktionen auszuführen, wodurch das Risiko eines Missbrauchs verringert wird.

Rechtliche Konformität

Die Praxis, sicherzustellen, dass KI-Systeme während ihres gesamten Lebenszyklus den geltenden Gesetzen, Vorschriften und Industriestandards entsprechen.

Haftungsrahmen

Ein strukturierter Ansatz zur Bestimmung der Verantwortlichkeiten bei KI-bezogenen Schäden oder Ausfällen, einschließlich Entwicklern, Implementierern und Betreibern.

Lebenszyklusmanagement

Die koordinierten Prozesse für Entwicklung, Bereitstellung, Überwachung, Wartung und Außerdienststellung von KI-Systemen, um kontinuierliche Compliance und Risikokontrolle sicherzustellen.

Lebendigkeitserkennung

Techniken, die verwendet werden, um zu überprüfen, dass eine Eingabe (z. B. biometrische Daten) von einem lebenden Subjekt stammt und nicht von einem Spoof oder Replay, wodurch die Systemsicherheit und Integrität verbessert wird.

Lokalisierung

Anpassung von KI-Systemen an lokale Sprachen, Vorschriften, kulturelle Normen und Anforderungen an die Datenresidenz in verschiedenen Gerichtsbarkeiten.

Protokollverwaltung

Die Sammlung, Speicherung und Analyse von System- und Anwendungsprotokollen aus AI-Workflows zur Unterstützung von Audits, Reaktionsmaßnahmen auf Vorfälle und der Nachverfolgung von Modellleistung.

Verlustfunktion

Eine mathematische Funktion, die den Unterschied zwischen vorhergesagten Ausgaben und tatsächlichen Werten quantifiziert und die Modellschulung und -optimierung steuert.

M

Bedeutungsvolle Menschliche Kontrolle

Ein regulatorischer und betrieblicher Standard, der sicherstellt, dass Menschen die Fähigkeit behalten, AI-Entscheidungsprozesse zu überwachen, einzugreifen und zu übersteuern.

Metadatenverwaltung

Die Praxis der Erfassung und Pflege beschreibender Daten (z. B. Datenherkunft, Merkmaldefinitionen, Modellparameter), um Rückverfolgbarkeit und Audits zu unterstützen.

Kennzahlen & Leistungsindikatoren

Quantitative Maße (z.B. Abweichung der Genauigkeit, Fairness-Scores, Reaktionszeiten bei Vorfällen), die zur Überwachung der Systemgesundheit, Risiken und Compliance-Ziele von KI-Systemen verwendet werden.

Minderungsstrategien

Geplante Maßnahmen (z. B. Beseitigung von Voreingenommenheit, erneutes Training, Feature-Re-Engineering) zur Behebung identifizierter KI-Risiken und Compliance-Lücken.

Modellerklärbarkeit

Techniken und Dokumentation, die die Entscheidungslogik eines KI-Modells verständlich für Stakeholder und Prüfer machen.

Modellführung

Die Richtlinien, Rollen und Kontrollen, die sicherstellen, dass KI-Modelle in Übereinstimmung mit den organisatorischen Standards und regulatorischen Anforderungen entwickelt, genehmigt und verwendet werden.

Modellüberwachung

Kontinuierliches Überwachen der Leistung eines KI-Modells, der Datenverschiebung und der Betriebskennzahlen zur Erkennung von Verschlechterungen oder aufkommenden Risiken.

Modell-Neutraining

Der Prozess der Aktualisierung eines KI-Modells mit neuen oder aktualisierten Daten, um die Leistung und die Einhaltung der Vorschriften aufrechtzuerhalten, während sich die Datenverteilung weiterentwickelt.

Modellrisikomanagement

Der strukturierte Prozess zur Identifizierung, Bewertung und Minderung von Risiken, die sich aus KI/ML-Modellen während ihres gesamten Lebenszyklus ergeben.

Modellvalidierung

Die Evaluierungstätigkeiten (z. B. Tests mit zurückgestellten Daten, Stressszenarien), die bestätigen, dass ein KI-Modell seinen vorgesehenen Zweck und die Leistungskriterien erfüllt.

Engagement von mehreren Interessengruppen

Einbeziehung verschiedener Gruppen (z. B. Recht, Ethik, Betrieb, Endbenutzer) in die Prozesse der KI-Governance, um eine ausgewogene Risikokontrolle und die Ausrichtung auf Unternehmensziele sicherzustellen.

N

NIST KI-Risikomanagement-Rahmenwerk

Eine freiwillige Anleitung des US-amerikanischen National Institute of Standards and Technology, die bewährte Verfahren zur Risikominderung über den gesamten Lebenszyklus von KI-Systemen darlegt.

Verarbeitung natürlicher Sprache (NLP)

Techniken und Werkzeuge, die Maschinen ermöglichen, menschliche Sprache in Text- oder Sprachform zu interpretieren, zu generieren und zu analysieren.

Netzwerksicherheit

Maßnahmen und Kontrollen (z. B. Segmentierung, Firewalls, Eindringungserkennung), um die KI-Infrastruktur und Datenpipelines vor unbefugtem Zugriff oder Manipulation zu schützen.

Neuronale Architektur-Suche

Automatisierte Methoden zur Gestaltung und Optimierung von neuronalen Netzwerkstrukturen, um die Modellleistung zu verbessern, während die Komplexität und Ressourcenbeschränkungen ausgewogen werden.

Rauschinjektion

Gezielte Einführung zufälliger Störungen in Trainingsdaten oder Modellparameter, um die Robustheit zu erhöhen und gegen manipulative Angriffe zu schützen.

Neuartigkeitserkennung

Techniken zur Identifizierung von Eingaben oder Szenarien, die erheblich von den Trainingsdaten abweichen und eine Überprüfung oder einen Sicherheitsmodus auslösen, um unerwartete Ausfälle zu verhindern.

O

Beobachtbarkeit

Die Fähigkeit, den internen Zustand und das Verhalten eines KI-Systems durch die Sammlung und Analyse von Protokollen, Metriken und Ausgaben für effektive Überwachung und Fehlerbehebung abzuleiten.

Fortlaufende Überwachung

Kontinuierliches Tracking der Leistung von KI-Systemen, Datenverschiebungen, Verzerrungsmessungen und Sicherheitsereignissen, um auftretende Risiken im Laufe der Zeit zu erkennen und zu adressieren.

Deckkraft

Das Fehlen von Transparenz bei der Art und Weise, wie ein KI-Modell Entscheidungen oder Vorhersagen trifft, stellt Herausforderungen für das Vertrauen und die Einhaltung von Vorschriften dar.

Betriebliche Resilienz

Die Fähigkeit von KI-Systemen und deren unterstützender Infrastruktur, Störungen oder widrigen Ereignissen vorherzusehen, ihnen standzuhalten, sich davon zu erholen und sich anzupassen.

Orchestrierung

Die automatisierte Koordination von KI-Arbeitsabläufen und -Diensten—Datenaufnahme, Modelltraining, Bereitstellung—gewährleistet die Einhaltung von Richtlinien und Ressourcenverwaltung.

Ausreißererkennung

Techniken zur Identifizierung von Datenpunkten oder Modellvorhersagen, die erheblich von den erwarteten Mustern abweichen und Überprüfungs- oder Abhilfemaßnahmen auslösen.

Überanpassung

Ein Modellierungsproblem, bei dem ein KI-System Rauschen oder Eigenheiten in den Trainingsdaten erlernt und dadurch seine Fähigkeit zur Verallgemeinerung auf neue, unsichtbare Daten verringert.

Überblick

Der strukturierte Prozess der Überprüfung, Genehmigung und Verantwortlichkeit für die Entwicklung und Bereitstellung von KI, der typischerweise funktionsübergreifende Governance-Instanzen umfasst.

Eigentum

Die klare Zuordnung von Verantwortung und Befugnissen für KI-Vermögenswerte—Daten, Modelle, Prozesse—um die Verantwortlichkeit über den gesamten Lebenszyklus des Systems zu gewährleisten.

P

Berechtigungsverwaltung

Die Verwaltung von Benutzer- und Systemzugriffsrechten auf KI-Daten und -Funktionen, um sicherzustellen, dass nur die minimalen erforderlichen Rechte vergeben werden und unbefugte Nutzung verhindert wird.

Pilotversuche

Ein begrenzter Versuch eines KI-Systems in einer kontrollierten Umgebung, um Leistung, Risiken und Governance-Kontrollen vor der vollständigen Einführung zu bewerten.

Richtlinienumsetzung

Die automatisierten oder manuellen Mechanismen, die sicherstellen, dass KI-Operationen den organisatorischen Richtlinien, regulatorischen Vorschriften und ethischen Leitlinien entsprechen.

Überwachungen nach der Bereitstellung

Fortlaufende Beobachtung des Verhaltens und der Umgebung von KI-Systemen nach deren Freigabe, um Abbau, Abweichungen oder Verstöße gegen die Compliance zu erkennen.

Vorausschauende Wartung

KI-gesteuerte Überwachung und Analyse zur Vorhersage von Komponenten- oder Systemausfällen, um die Betriebskontinuität zu gewährleisten und Risiken in kritischen Umgebungen zu mindern.

Datenschutz-Folgenabschätzung

Eine strukturierte Analyse zur Identifizierung und Minderung von Datenschutzrisiken im Zusammenhang mit KI-Systemen, die Datenerfassung, -nutzung, -weitergabe und -speicherung abdeckt.

Datenschutz durch Design

Ein Ansatz, der Datenschutz und die Privatsphäre der Nutzer von Anfang an in die Architektur und die Prozesse des KI-Systems einbindet.

Prozessautomatisierung

Der Einsatz von KI und Workflow-Tools zur Straffung von Governance, Compliance-Prüfungen und Risikominderungsaktivitäten, wodurch manueller Aufwand und Fehler verringert werden.

F

Qualitative Bewertung

Die subjektive Überprüfung von Verhaltensweisen, Entscheidungen und Dokumentationen von KI-Systemen durch Experten, um ethische, rechtliche oder rufschädigende Bedenken zu identifizieren, die quantitativ nicht erfasst werden.

Qualitätssicherung

Die systematischen Prozesse und Überprüfungen zur Sicherstellung, dass KI-Modelle und Datenpipelines definierte Standards für Genauigkeit, Zuverlässigkeit und ethische Konformität erfüllen.

Qualitätskontrolle

Die fortlaufende Überprüfung von AI-Ergebnissen und -Prozessen anhand von Benchmarks und Testfällen, um Mängel, Vorfälle von Voreingenommenheit oder Verstöße gegen Richtlinien aufzudecken.

Quantitative Risikoanalyse

Eine datenbasierte Bewertung potenzieller Bedrohungen durch KI, die Wahrscheinlichkeiten und Auswirkungen numerisch abschätzt, um Priorisierungsmaßnahmen zu ermöglichen und Risikokontrollstrategien zu optimieren.

Quantencomputing

Das aufstrebende Rechenparadigma, das die Quantenmechanik nutzt und neue Herausforderungen in Bezug auf Sicherheit, Standardisierung und Risiko aufwirft.

Abfrageprotokollierung

Die Praxis der Aufzeichnung von KI-Systemeingaben und Benutzeranfragen, um Prüfpfade zu ermöglichen, Missbrauch zu erkennen und Verantwortlichkeit zu unterstützen.

Datenschutz bei Abfragen

Techniken und Richtlinien zum Schutz sensibler Informationen in Benutzeranfragen, um sicherzustellen, dass aufgezeichnete Eingaben keine persönlichen oder proprietären Daten gefährden.

Fragebogenrahmen

Ein strukturierter Satz von governance-orientierten Fragen, der während der Gestaltung, Beschaffung oder Implementierung verwendet wird, um sicherzustellen, dass KI-Systeme mit den Anforderungen der Richtlinien übereinstimmen.

Beschlussfähigkeit des Governance Boards

Die Mindestanzahl der erforderlichen Mitglieder des Governance-Ausschusses, die anwesend sein müssen, um offizielle Entscheidungen über KI-Risiken, Genehmigungen von Richtlinien oder Prüfergebnisse zu treffen.

Kontingentverwaltung

Die Steuerungen und Begrenzungen der Nutzung von KI-Ressourcen (z. B. API-Aufrufe, Rechenzeit), um Governance-Richtlinien durchzusetzen und unkontrollierte Kosten oder Missbrauch zu verhindern.

R

Rückgriff

Mechanismen, die betroffenen Personen ermöglichen, KI-gesteuerte Entscheidungen, die ihre Rechte oder Interessen betreffen, anzufechten oder eine Abhilfe zu suchen.

Rotes Teaming

Ein proaktiver Testansatz, bei dem interne oder externe Experten Angriffe oder Missbrauchsszenarien simulieren, um Schwachstellen in KI-Systemen aufzudecken.

Regulatorische Konformität

Sicherstellung, dass KI-Systeme während ihres gesamten Betriebs die geltenden Gesetze, Vorschriften und Industriestandards (z. B. DSGVO, FDA, finanzielle Aufsicht) einhalten.

Reproduzierbarkeit

Die Fähigkeit, die Ergebnisse von KI-Modellen unter Verwendung derselben Daten, Codes und Konfigurationen konstant zu reproduzieren, wodurch Transparenz und Prüfbarkeit sichergestellt werden.

Verantwortlichkeitszuordnungsmatrix

Ein Werkzeug (z. B. RACI), das die Rollen und Verantwortlichkeiten für jede Governance-Aktivität klärt—wer verantwortlich, rechenschaftspflichtig, konsultiert und informiert ist.

Verantwortungsvolle KI

Die Praxis des Entwerfens, Entwickelns und Bereitstellens von KI-Systemen auf eine Weise, die ethisch, transparent und rechenschaftspflichtig gegenüber den Interessengruppen und der Gesellschaft ist.

Risikobewertung

Der Prozess der Identifizierung, Analyse und Priorisierung potenzieller Schäden oder Ausfälle in KI-Systemen, um geeignete Minderungsstrategien zu bestimmen.

Risikomanagement-Rahmenwerk

Eine strukturierte Reihe von Richtlinien und Prozessen zur systematischen Bewältigung von KI-Risiken über den gesamten Lebenszyklus des Systems, von der Gestaltung bis zur Außerbetriebnahme.

Robustheit

Die Fähigkeit eines KI-Systems, unter einer Vielzahl von herausfordernden oder gegnerischen Bedingungen eine zuverlässige Leistung zu erbringen.

Ursachenanalyse

Eine strukturierte Untersuchung, um die zugrunde liegenden Gründe für das Versagen von KI-Systemen oder unerwartetem Verhalten zu bestimmen und korrigierende Maßnahmen zu leiten.

S

Genehmigte Nutzungsrichtlinie

Definierte Regeln und Kontrollen, die zugelassene Kontexte, Benutzer und Zwecke für den Betrieb von KI-Systemen spezifizieren, um Missbrauch zu verhindern.

Sicherheit durch Design

Die Integration von Sicherheitskontrollen und bewährten Praktiken in KI-Systeme von den frühesten Designphasen an, um Schwachstellen und Datenverletzungen zu verhindern.

Schatten-KI

Die unautorisierte Verwendung von KI-Modellen, -Agenten oder -Werkzeugen durch Mitarbeiter ohne Genehmigung der IT-Abteilung schafft verdeckte Sicherheitslücken durch Datenleckagen und unbefugte autonome Aktionen.

Bewertung der gesellschaftlichen Auswirkungen

Eine strukturierte Bewertung, wie ein KI-System die sozialen, wirtschaftlichen und kulturellen Aspekte von Gemeinschaften beeinflusst, wobei mögliche Schäden und Vorteile identifiziert werden.

Software-Entwicklungslebenszyklus

Der End-to-End-Prozess (Anforderungen, Design, Erstellung, Test, Bereitstellung, Überwachung) für KI-Anwendungen, der in jeder Phase Governance- und Compliance-Prüfungen integriert.

Stakeholder-Engagement

Der Prozess der Einbeziehung betroffener Parteien (z.B. Benutzer, Regulierungsbehörden, betroffene Gemeinschaften) in die Entwicklung und Überwachung von KI, um vielfältige Perspektiven und Unterstützung sicherzustellen.

Überwachungsrisiko

Die Bedrohung, dass KI-Systeme für invasive Überwachung von Einzelpersonen oder Gruppen ausgenutzt werden könnten, wobei die Privatsphäre und bürgerliche Freiheiten verletzt werden.

Synthetische Daten

Künstlich generierte Datensätze, die reale Datenverteilungen nachahmen und zur Erweiterung von Trainingssätzen verwendet werden, während der Datenschutz gewahrt bleibt.

T

Extremes Risiko

Das Potenzial für seltene, extreme Ergebnisse im Verhalten oder in der Entscheidungsfindung von KI, die außerhalb normaler Erwartungen liegen und spezielle Maßnahmenplanung erfordern.

Testen & Validierung

Der systematische Prozess der Bewertung von KI-Modellen anhand von Benchmark-Tests, speziellen Randfällen und Belastungsbedingungen, um sicherzustellen, dass sie Leistungs-, Sicherheits- und Compliance-Kriterien erfüllen.

Risiko durch Dritte

Das Risiko, das sich aus der Abhängigkeit von externen Datenanbietern, Modelllieferanten oder Dienstleistungsplattformen ergibt, die möglicherweise Compliance- oder Sicherheitsanfälligkeiten einführen.

Schwellenwert Einstellung

Festlegung von Grenzen oder Grenzwerten in KI-Entscheidungsregeln (z. B. Vertrauenswerte), um Risiken wie falsch-positive gegenüber falsch-negativen Ergebnissen auszubalancieren.

Rückverfolgbarkeit

Die Fähigkeit, jeden Schritt im KI-Lebenszyklus nachzuverfolgen und zu dokumentieren—von der Datenerfassung über die Modellentwicklung bis hin zur Bereitstellung—um Prüfungen und forensische Analysen zu unterstützen.

Schulungsdatensatz

Die kuratierte Sammlung von gelabelten oder ungelabelten Daten, die verwendet wird, um einem KI-Modell die Beziehungen und Muster beizubringen, die es lernen muss, um seine Aufgabe auszuführen.

Transfer-Lernen

Eine Technik, bei der ein für eine Aufgabe entwickeltes Modell für eine verwandte Aufgabe angepasst wird. Dies verkürzt die Entwicklungszeit, erfordert jedoch eine Steuerung der übernommenen Vorurteile.

Transparenz

Die Praxis, Prozesse von KI-Systemen, Entscheidungslogik und Datennutzung für Transparenz und Verständlichkeit gegenüber Stakeholdern klar darzustellen.

Verlässliche KI

KI-Systeme, die in einer Weise entworfen und betrieben werden, die ethisch, zuverlässig, sicher und im Einklang mit menschlichen Werten und gesellschaftlichen Normen steht.

Sie

Unteranpassung

Ein Modellierungsproblem, bei dem ein KI-System zu einfach ist, um zugrunde liegende Datenmuster zu erfassen, was zu einer schlechten Leistung sowohl bei Trainingsdaten als auch bei neuen Daten führt.

Einheitlichkeit

Sicherstellung einer konsistenten Anwendung von Richtlinien, Kontrollen und Standards über alle KI-Systeme hinweg, um Governance-Lücken oder ungleiche Risikomanagementpraktiken zu vermeiden.

Unüberwachtes Lernen

Ein maschineller Lernansatz, bei dem Modelle Muster oder Gruppierungen in nicht gekennzeichneten Daten erkennen, ohne explizite Ergebnisanweisungen.

Verfügbarkeitsüberwachung

Kontinuierliche Überwachung der Verfügbarkeit und Leistung von KI-Systemen, um Ausfälle oder Leistungseinbußen zu erkennen, die kritische Abläufe oder Compliance-Verpflichtungen beeinträchtigen könnten.

Anwendungsfall-Governance

Die Praxis der Definition, Genehmigung und Überwachung spezifischer KI-Anwendungsfälle, um sicherzustellen, dass jeder mit den organisatorischen Richtlinien, ethischen Standards und der Risikobereitschaft übereinstimmt.

Benutzerzustimmung

Der Prozess des Einholens und Aufzeichnens ausdrücklicher Zustimmung von Einzelpersonen, bevor ihre persönlichen Daten in KI-Systemen gesammelt, verarbeitet oder verwendet werden.

Dienstprogramm

Ein Maß dafür, wie wertvoll oder effektiv ein KI-System bei der Erreichung seiner vorgesehenen Ziele ist, im Verhältnis zu den damit verbundenen Risiken oder Ressourcenaufwendungen.

V

Validierung

Der Prozess der Bestätigung, dass ein KI-Modell genaue und zuverlässige Leistungen bei den vorgesehenen Aufgaben erbringt und definierte Leistungskriterien erfüllt.

Varianzüberwachung

Verfolgung von Schwankungen in den Ausgaben von KI-Modellen oder Leistungskennzahlen im Laufe der Zeit, um Drift zu erkennen und potenziellen Abbau oder Risiken zu ermitteln.

Lieferantenrisikomanagement

Bewertung und Überwachung von Drittanbietern von KI-Komponenten oder -Dienstleistungen zur Identifizierung und Minderung potenzieller Compliance-, Sicherheits- oder ethischer Risiken.

Versionskontrolle

Die Praxis, Änderungen an KI-Code, Modellen und Datensätzen im Laufe der Zeit zu verwalten und nachzuverfolgen, um Reproduzierbarkeit und Prüfbarkeit sicherzustellen.

Vetorecht

Das formale Recht, das von einem Governance-Gremium oder einem Stakeholder ausgeübt wird, um AI-Implementierungen, die unannehmbare Risiken darstellen, zu blockieren oder Änderungen zu verlangen.

Überwachungsinstrument

Kontinuierliche Überwachung des Verhaltens von KI und externer Signale (z.B. regulatorische Aktualisierungen), um aufkommende Risiken oder Nicht-Einhaltungen frühzeitig zu erkennen und darauf zu reagieren.

Visuelle KI-Überwachung

Die Governance-Prozesse, die speziell für Computer-Vision-Systeme entwickelt wurden, gewährleisten die Datenqualität, führen Bias-Prüfungen durch und sorgen für Transparenz bei auf Bild/Video basierenden Entscheidungsprozessen.

Schwachstellenbewertung

Identifizierung, Analyse und Priorisierung von Sicherheitsschwächen in AI-Infrastrukturen und -Anwendungen zur Steuerung von Behebungsmaßnahmen.

W

Watchdog-Überwachung

Unabhängige Laufzeitprüfungen, die KI-Entscheidungen überwachen und Warnungen oder Eingriffe auslösen, wenn Richtlinien oder Schwellenwerte überschritten werden.

Gewichtskontrolle

Untersuchung von Modellgewichten und -strukturen auf Anomalien, Hintertüren oder Vorurteile, die auf Manipulationen oder unbeabsichtigte Verhaltensweisen hindeuten könnten.

White-Box-Tests

Bewertung von KI-Systemen mit umfassendem Wissen über interne Abläufe (Code, Parameter, Architektur), um Korrektheit, Sicherheit und Compliance zu überprüfen.

Richtlinie zur Zulassungsliste/Sperrliste

Governance-Regel, die erlaubte (Whitelist) und nicht erlaubte (Blacklist) Eingaben, Funktionen oder Vorgänge definiert, um die Einhaltung der Vorschriften zu gewährleisten und Missbrauch zu verhindern.

Positivliste

Nur vorab genehmigte Datenquellen, Bibliotheken oder Modellkomponenten in KI-Pipelines zuzulassen, um das Risiko durch nicht überprüfte oder bösartige Elemente zu reduzieren.

Arbeitsablauf-Orchestrierung

Automatisierung und Sequenzierung von KI-Lebenszyklusaufgaben (Datenaufnahme, Training, Validierung, Bereitstellung), um Governance-Richtlinien durchzusetzen und Konsistenz sicherzustellen.

Arbeitslasttrennung

Trennung von KI-Computing-Umgebungen (z. B. Entwicklung, Test, Produktion) und Datenbereichen, um den Ausbreitungsradius von Fehlern oder Sicherheitsverletzungen zu begrenzen.

Worst-Case-Analyse

Bewertung der extremsten potenziellen Ausfälle oder Missbräuche eines KI-Systems, um solide Risikominderungs- und Notfallplanungsstrategien zu entwickeln.

Speicher für einmaliges Schreiben und mehrfaches Lesen (WORM)

Unveränderlicher Speicher gewährleistet, dass Protokolle, Prüfpfade und Modellartefakte nach dem Schreiben nicht mehr verändert werden können, was die Nichtabstreitbarkeit unterstützt und eine forensische Überprüfung ermöglicht.

X

X-Validierung

Eine Modellvalidierungstechnik (häufig als „X-Val“ abgekürzt), die Daten in Falten aufteilt, um die Generalisierung des Modells rigoros zu bewerten und Überanpassung zu erkennen.

XAI (Erklärbare KI)

Techniken und Methoden, die den Entscheidungsprozess eines KI-Modells für Menschen transparent und verständlich machen und somit Verantwortlichkeit und Compliance unterstützen.

XAI-Prüfung

Ein Überprüfungsprozess, der bewertet, ob die Ausgaben zur Erklärbarkeit von KI den internen Richtlinien und behördlichen Anforderungen entsprechen und ausreichende Transparenz gewährleisten.

XAI-Framework

Ein strukturierter Ansatz oder ein Satz von Richtlinien, den Organisationen verwenden, um die Umsetzbarkeit, Messung und Steuerung von Erklärbarkeitspraktiken in ihren KI-Systemen zu implementieren und zu verwalten.

XAI-Metriken

Quantitative oder qualitative Messgrößen (z. B. Wichtigkeitsscores von Funktionen, Erklärungsgenauigkeit), die zur Bewertung der Qualität und Zuverlässigkeit von KI-Erklärungen verwendet werden.

Ja

YARA-Regeln

Ein Satz von signaturbasierten Erkennungsmustern, die verwendet werden, um KI-Pipelines und Artefakte auf bekannte bösartige Codes oder Manipulationen zu überprüfen.

Jährliche Compliance-Überprüfung

Eine jährliche Bewertung der KI-Governance-Prozesse, -Richtlinien und -Systeme, um die fortwährende Einhaltung von Vorschriften und internen Standards sicherzustellen.

Z

Null-Fehlertoleranz

Ein Governance-Prinzip, das darauf abzielt, keine Fehler oder Richtlinienverstöße in den KI-Ergebnissen zuzulassen, unterstützt durch rigorose Tests, Überwachung und kontinuierliche Verbesserungszyklen.

Zero-Day-Schwachstelle

Eine zuvor unbekannte Sicherheitslücke in der KI-Software oder -Infrastruktur, die ausgenutzt werden kann, bevor ein Patch oder eine Abhilfe verfügbar ist.

Null-Schuss-Lernen

Eine Modellfähigkeit, Aufgaben korrekt zu bewältigen oder Daten zu klassifizieren, auf die es nie explizit trainiert wurde, indem es generalisierte Wissensdarstellungen nutzt.

Zonenbasierte Zugriffskontrolle

Ein Netzwerk- oder Daten-Governance-Ansatz, der Ressourcen in Zonen mit unterschiedlichen Richtlinien unterteilt und den Zugriff von KI-Systemen gemäß der Datenempfindlichkeit einschränkt.

Abonnieren Sie unseren Newsletter

Indem Sie sich anmelden, stimmen Sie der Enzai Datenschutzerklärung zu.

Abonnieren Sie unseren Newsletter

Indem Sie sich anmelden, stimmen Sie der Enzai Datenschutzerklärung zu.

Abonnieren Sie unseren Newsletter

Indem Sie sich anmelden, stimmen Sie der Enzai Datenschutzerklärung zu.

Abonnieren Sie unseren Newsletter

Indem Sie sich anmelden, stimmen Sie der Enzai Datenschutzerklärung zu.

KI-Governance

KI-Governance

Infrastruktur

Infrastruktur

Entwickelt für Vertrauen.

Entwickelt für Vertrauen.

Ermöglichen Sie Ihrer Organisation die Einführung, Steuerung und Überwachung von KI mit unternehmensgerechtem Vertrauen. Entwickelt für regulierte Organisationen, die im großen Maßstab operieren.

Verbinden Sie nahtlos Ihre bestehenden Systeme, Richtlinien und KI-Workflows – alles auf einer einheitlichen Plattform.

Verbinden Sie nahtlos Ihre bestehenden Systeme, Richtlinien und KI-Workflows – alles auf einer einheitlichen Plattform.