Verstehen Sie die wichtigsten Begriffe und Konzepte der KI-Governance mit einfachen Definitionen, die Ihnen die Navigation auf der Enzai-Plattform erleichtern.
Ein abgestuftes Framework, das bewertet, wie fortgeschritten die KI-Governance-Praktiken einer Organisation sind, von ad hoc bis optimiert.
Die Fähigkeit, KI-Modellergebnisse unter Verwendung derselben Daten, Codes und Konfigurationen konsistent zu regenerieren und so Transparenz und Überprüfbarkeit zu gewährleisten.
Definierte Regeln und Kontrollen, die genehmigte Kontexte, Benutzer und Zwecke für den Betrieb des KI-Systems angeben, um Missbrauch zu verhindern.
Ein formelles Dokument, das Regeln, Rollen und Verfahren für die KI-Entwicklung und -Überwachung innerhalb einer Organisation kodifiziert.
Das Risiko, das sich aus der Abhängigkeit von externen Datenanbietern, Modellanbietern oder Serviceplattformen ergibt, die zu Compliance- oder Sicherheitslücken führen können.
Der Prozess der Identifizierung, Analyse und Priorisierung potenzieller Schäden oder Ausfälle in KI-Systemen zur Festlegung geeigneter Minderungsstrategien.
Bewertung und Überwachung von Drittanbietern von KI-Komponenten oder -Diensten zur Identifizierung und Minderung potenzieller Compliance-, Sicherheits- oder ethischer Risiken.
Der strukturierte Prozess zur Identifizierung, Bewertung und Minderung von Risiken, die sich aus KI/ML-Modellen während ihres gesamten Lebenszyklus ergeben.
Die Fähigkeit eines KI-Systems, unter einer Vielzahl von schwierigen oder widrigen Bedingungen eine zuverlässige Leistung aufrechtzuerhalten.
Ein proaktiver Testansatz, bei dem interne oder externe Experten Angriffe oder Missbrauchsszenarien simulieren, um Schwachstellen in KI-Systemen aufzudecken.
Die Fähigkeit, jeden Schritt im KI-Lebenszyklus — von der Datenerfassung über die Modellentwicklung bis hin zur Bereitstellung — zu verfolgen und zu dokumentieren, um Audits und Forensik zu unterstützen.
Bewertung potenzieller negativer Auswirkungen (physisch, psychisch, gesellschaftlich) von KI-Systemen und Definition von Minderungsstrategien.
Das Potenzial seltener, extremer Folgen im Verhalten oder bei der Entscheidungsfindung von KI, die außerhalb der normalen Erwartungen liegen und eine spezielle Planung zur Schadensbegrenzung erfordern.
Ein Dashboard oder eine Berichtskarte, die wichtige Kennzahlen (z. B. voreingenommene Vorfälle, Compliance-Audits) verfolgt, um die Effektivität der KI-Governance im Laufe der Zeit zu messen.
Integration von Sicherheitskontrollen und Best Practices in KI-Systeme von den frühesten Entwurfsphasen an, um Sicherheitslücken und Datenschutzverletzungen zu verhindern.
Maßnahmen und Kontrollen (z. B. Segmentierung, Firewalls, Erkennung von Eindringlingen) zum Schutz der KI-Infrastruktur und der Datenleitungen vor unbefugtem Zugriff oder Manipulation.
Das Ausmaß, in dem Menschen die Entscheidungen und Verhaltensweisen eines KI-Systems steuern, beeinflussen oder außer Kraft setzen können.
Geplante Maßnahmen (z. B. Korrektur von Verzerrungen, Umschulung, Neugestaltung von Funktionen) zur Behebung identifizierter KI-Risiken und Compliance-Lücken.
Automatisierte Methoden für den Entwurf und die Optimierung neuronaler Netzwerkstrukturen, um die Modellleistung zu verbessern und gleichzeitig Komplexität und Ressourcenbeschränkungen auszugleichen.
Künstlich generierte Datensätze, die reale Datenverteilungen nachahmen, werden verwendet, um Trainingseinheiten zu erweitern und gleichzeitig die Privatsphäre zu schützen.
Der systematische Prozess der Bewertung von KI-Modellen anhand von Benchmarks, Randfällen und Stressbedingungen, um sicherzustellen, dass sie die Leistungs-, Sicherheits- und Compliance-Kriterien erfüllen.
Eine Teilmenge des maschinellen Lernens, an der neuronale Netze mit mehreren Schichten beteiligt sind und die Modellierung komplexer Muster in Daten ermöglichen.
Die kuratierte Sammlung von beschrifteten oder unbeschrifteten Daten, die verwendet wird, um einem KI-Modell die Beziehungen und Muster beizubringen, die es lernen muss, um seine Aufgabe zu erfüllen.
Eine Technik, bei der ein für eine Aufgabe entwickeltes Modell an eine verwandte Aufgabe angepasst wird, wodurch die Entwicklungszeit reduziert wird, aber ererbte Vorurteile berücksichtigt werden müssen.
Die Praxis, KI-Systemprozesse, Entscheidungslogik und Datennutzung für Interessengruppen klar und verständlich zu machen, damit sie zur Rechenschaft gezogen werden können.
Trennung von KI-Rechenumgebungen (z. B. Entwicklung, Test, Produktion) und Datendomänen, um den Explosionsradius von Ausfällen oder Sicherheitslücken zu begrenzen.
Techniken (z. B. Imputation, Löschung, Modellierung) zur Behebung von Lücken in Datensätzen zur Wahrung der Modellintegrität und Fairness.
Ein Datensatz, bei dem eine Klasse oder Kategorie anderen deutlich überlegen ist, was dazu führen kann, dass KI-Modelle sich der Mehrheitsklasse zuwenden, sofern nicht gemildert wird.
Ein maschineller Lernansatz, bei dem Modelle Muster oder Gruppierungen in unbeschrifteten Daten ohne explizite Ergebnisorientierung identifizieren.
Ein Modellierungsproblem, bei dem ein KI-System zu einfach ist, um die zugrunde liegenden Datenmuster zu erfassen, was zu einer schlechten Leistung sowohl bei Trainingsdaten als auch bei neuen Daten führt.
Die Reihe von Richtlinien, Verfahren, Rollen und Verantwortlichkeiten, die die ethische, rechtliche und effektive Entwicklung und den Einsatz von KI-Systemen leiten.
Ein manipulationssicherer Aufzeichnungsmechanismus (z. B. Blockchain), der sicherstellt, dass einmal geschriebene Daten nicht unbemerkt geändert werden können — nützlich für KI-Audit-Trails.
Eine strukturierte Untersuchung, um die zugrunde liegenden Gründe für Ausfälle oder unerwartete Verhaltensweisen von KI-Systemen zu ermitteln und Abhilfemaßnahmen anzuleiten.
Der Prozess, bei dem bestätigt wird, dass ein KI-Modell die vorgesehenen Aufgaben genau und zuverlässig erfüllt und definierte Leistungskriterien erfüllt.
Die Praxis, KI-Systeme auf ethische, transparente und gegenüber Interessengruppen und der Gesellschaft rechenschaftspflichtige Weise zu entwerfen, zu entwickeln und einzusetzen.
Techniken und Werkzeuge, die es Maschinen ermöglichen, menschliche Sprache in Text- oder Sprachform zu interpretieren, zu erzeugen und zu analysieren.
Eine mathematische Funktion, die den Unterschied zwischen vorhergesagten Ergebnissen und wahren Werten quantifiziert und als Richtschnur für Modelltraining und -optimierung dient.
Die Praxis, Änderungen an KI-Code, -Modellen und -Datensätzen im Laufe der Zeit zu verwalten und zu verfolgen, um Reproduzierbarkeit und Überprüfbarkeit sicherzustellen.
Ein maschineller Lernansatz, bei dem Trainingsdaten auf mehrere Geräte oder Standorte verteilt werden und Modelle gemeinsam trainiert werden, ohne Rohdaten auszutauschen.
KI-Systeme, die auf ethische, zuverlässige, sichere und an menschlichen Werten und gesellschaftlichen Normen ausgerichtete Weise konzipiert und betrieben werden.
Die Richtlinien, Verfahren und Kontrollen, die die Datenqualität, den Datenschutz und die Benutzerfreundlichkeit aller Datenbestände eines Unternehmens sicherstellen, einschließlich KI-Schulungsdatensätzen.
Die richtlinienbasierte Verwaltung des Datenflusses während seines gesamten Lebenszyklus: von der Erstellung und ersten Speicherung bis zu dem Zeitpunkt, an dem er veraltet ist und gelöscht wird.
Die Praxis, spezifische KI-Anwendungsfälle zu definieren, zu genehmigen und zu überwachen, um sicherzustellen, dass sie den Unternehmensrichtlinien, ethischen Standards und der Risikobereitschaft entsprechen.
Die Kontrollen und Beschränkungen der Nutzung von KI-Ressourcen (z. B. API-Aufrufe, Rechenzeit), um Governance-Richtlinien durchzusetzen und unkontrollierbare Kosten oder Missbrauch zu verhindern.
Die Praxis der Erfassung und Pflege beschreibender Daten (z. B. Datenherkunft, Merkmalsdefinitionen, Modellparameter) zur Unterstützung der Rückverfolgbarkeit und Audits.
Erfassung, Speicherung und Analyse von System- und Anwendungsprotokollen aus KI-Workflows zur Unterstützung von Audits, Reaktion auf Vorfälle und Nachverfolgung der Modellleistung.
Das formelle Recht eines Leitungsorgans oder eines Interessenvertreters, KI-Bereitstellungen, die mit inakzeptablen Risiken verbunden sind, zu blockieren oder zu verlangen.
Die für Computer-Vision-Systeme spezifischen Verwaltungsprozesse, die Datenqualität, Bias-Prüfungen und Transparenz bei bild-/videobasierten Entscheidungen sicherstellen.
Systematische Fehler in den KI-Ergebnissen, die auf voreingenommene Trainingsdaten oder fehlerhafte Algorithmen zurückzuführen sind und zu unfairen Ergebnissen führen.
Systematische Fehler in menschlichen oder KI-gestützten Entscheidungsprozessen, die durch kognitive Abkürzungen oder fehlerhafte Daten verursacht werden und Verzerrungen und Abhilfemaßnahmen erfordern.
Unveränderlicher Speicher, der sicherstellt, dass Protokolle, Audit-Trails und Modellartefakte nicht mehr geändert werden können, wenn sie einmal geschrieben wurden, was die Unwiderlegbarkeit und forensische Überprüfung unterstützt.
Unabhängige Laufzeitprüfungen, die KI-Entscheidungen beobachten und Warnmeldungen oder Interventionen auslösen, wenn Richtlinien oder Schwellenwerte verletzt werden.
Bewertung von KI-Systemen mit umfassender Kenntnis der internen Abläufe (Code, Parameter, Architektur) zur Überprüfung von Richtigkeit, Sicherheit und Konformität.
Verwaltungsregel, die zulässige (Whitelist) und unzulässige (schwarze Liste) Eingaben, Funktionen oder Operationen definiert, um die Einhaltung von Vorschriften durchzusetzen und Missbrauch zu verhindern.
Nur vorab genehmigte Datenquellen, Bibliotheken oder Modellkomponenten in KI-Pipelines zulassen, um das Risiko durch ungeprüfte oder bösartige Elemente zu reduzieren.
Eine quantifizierbare Kennzahl (z. B. Abweichung der Modellgenauigkeit, Zeit für die Korrektur von Verzerrungen), die zur Überwachung und Berichterstattung über KI-Governance- und Compliance-Ziele verwendet wird.
Eine wichtige Kennzahl (z. B. Häufigkeit von Prognosen, die außerhalb des Geltungsbereichs liegen, Rate unerklärlicher Entscheidungen), die aufkommende KI-Risiken signalisiert, bevor sie eintreten.
Eine Methode zur Übertragung von Erkenntnissen aus einem größeren „Lehrer“ -Modell in ein kleineres „Schüler“ -Modell, bei dem Leistung mit Ressourcen- und Verwaltungsbeschränkungen in Einklang gebracht werden.
Eine strukturierte Darstellung von Entitäten und ihren Beziehungen, die verwendet wird, um die Erklärbarkeit und Überprüfbarkeit von KI und die Abstimmung mit Domänenontologien zu verbessern.
Praktiken und Tools zur Erfassung, Organisation und Weitergabe von Unternehmenswissen (z. B. Modelldokumentation, Auditprotokolle), um Reproduzierbarkeit und Kontrolle zu gewährleisten.
Automatisierung und Sequenzierung von KI-Lebenszyklusaufgaben (Datenaufnahme, Schulung, Validierung, Bereitstellung), um Governance-Richtlinien durchzusetzen und Konsistenz sicherzustellen.
Bewertung der extremsten potenziellen Ausfälle oder Missbräuche eines KI-Systems als Grundlage für eine solide Risikominderung und Notfallplanung.
Eine Methode zur Modellvalidierung (oft als „X-Val“ abgekürzt), bei der Daten in Falten aufgeteilt werden, um die Modellgeneralisierung genau zu bewerten und Überanpassungen zu erkennen.
Techniken und Methoden, die den Entscheidungsprozess eines KI-Modells für Menschen transparent und verständlich machen und so Rechenschaftspflicht und Compliance unterstützen.
Quantitative oder qualitative Messgrößen (z. B. Merkmalsbedeutungswerte, Erklärungstreue), die zur Bewertung der Qualität und Zuverlässigkeit von KI-Erklärungen verwendet werden.
Ein Überprüfungsprozess, bei dem bewertet wird, ob die Ergebnisse der KI-Erklärbarkeit den internen Richtlinien und regulatorischen Anforderungen entsprechen, um eine ausreichende Transparenz zu gewährleisten.
Ein strukturierter Ansatz oder eine Reihe von Richtlinien, die Unternehmen verwenden, um Erklärbarkeitspraktiken in ihren KI-Systemen zu implementieren, zu messen und zu regeln.
Eine Reihe signaturbasierter Erkennungsmuster, mit denen KI-Pipelines und Artefakte nach bekanntem bösartigem Code oder Manipulation durchsucht werden.
Eine bisher unbekannte Sicherheitslücke in KI-Software oder -Infrastruktur, die ausgenutzt werden kann, bevor ein Patch oder eine Abschwächung verfügbar ist.
Ein Netzwerk- oder Data-Governance-Ansatz, der Ressourcen in Zonen mit unterschiedlichen Richtlinien unterteilt und den Zugriff auf KI-Systeme je nach Datensensibilität einschränkt.
Der Prozess, bei dem die ausdrückliche Zustimmung von Einzelpersonen eingeholt und aufgezeichnet wird, bevor ihre personenbezogenen Daten in KI-Systemen erfasst, verarbeitet oder verwendet werden.
Ein Modellierungsproblem, bei dem ein KI-System Geräusche oder Eigenheiten in Trainingsdaten lernt und so seine Fähigkeit zur Generalisierung auf neue, unsichtbare Daten reduziert.
Verfolgen Sie Schwankungen der Ergebnisse oder Leistungskennzahlen von KI-Modellen im Laufe der Zeit, um Abweichungen zu erkennen und mögliche Beeinträchtigungen oder Risiken abzuleiten.
Kontinuierliche Verfolgung der Verfügbarkeit und Leistung von KI-Systemen, um Ausfälle oder Beeinträchtigungen zu erkennen, die sich auf kritische Abläufe oder Compliance-Verpflichtungen auswirken könnten.
Kontinuierliche Überwachung des KI-Verhaltens und externer Signale (z. B. regulatorische Aktualisierungen), um neu auftretende Risiken oder Verstöße umgehend zu erkennen und darauf zu reagieren.
Kontinuierliche Beobachtung des Verhaltens und der Umgebung des KI-Systems nach der Veröffentlichung, um Degradation, Drift oder Compliance-Verstöße zu erkennen.
Die Gefahr, dass KI-Systeme zur invasiven Überwachung von Einzelpersonen oder Gruppen ausgenutzt werden können, wodurch die Privatsphäre und die bürgerlichen Freiheiten verletzt werden.