Verstehen Sie die wichtigsten Begriffe und Konzepte der KI-Governance mit einfachen Definitionen, die Ihnen die Navigation auf der Enzai-Plattform erleichtern.
Untersuchung von Modellgewichten und -strukturen auf Anomalien, Hintertüren oder Verzerrungen, die auf Manipulationen oder unbeabsichtigtes Verhalten hinweisen könnten.
Ein konsolidiertes KI-Modell, das auf aggregierten Daten aus mehreren Quellen trainiert wurde, im Gegensatz zu lokalisierten oder personalisierten Modellen.
Ein Datenschutzansatz, der es Einzelpersonen ermöglicht, spezifische Genehmigungen für jede Art der Datennutzung zu gewähren oder zu verweigern, wodurch Transparenz und Kontrolle verbessert werden.
Die genauen, realen Daten oder Labels, die als Benchmark für das Training und die Bewertung der KI-Modellleistung verwendet werden.
Ein Deep-Learning-Modell, das auf riesigen Textkorpora trainiert wurde und Aufgaben wie Textgenerierung, Übersetzung und Zusammenfassung ausführen kann, wobei häufig Vorurteile und Missbrauch vermieden werden müssen.
Ein strukturierter Ansatz, der definiert, wer für Schäden oder Ausfälle im Zusammenhang mit KI verantwortlich ist, einschließlich Entwickler, Bereitsteller und Betreiber.
Wenn generative KI falsche oder erfundene Informationen produziert, die plausibel erscheinen, aber in den Trainingsdaten keine Grundlage haben.
Spezialisierte Chips (z. B. GPUs, TPUs), die darauf ausgelegt sind, KI-Berechnungen zu beschleunigen, was Auswirkungen auf den Energieverbrauch und das Risiko der Lieferkette hat.
Angleichung der KI-Richtlinien, -Standards und -Vorschriften zwischen den einzelnen Ländern, um Konflikte zu reduzieren und Interoperabilität zu ermöglichen.
Die Kombination von Daten verschiedener Typen (Text, Bild, Sensor) oder aus mehreren Domänen, was Integrations- und Governance-Herausforderungen mit sich bringt.
Eine Faustregel oder eine vereinfachte Entscheidungsstrategie zur Beschleunigung von KI-Prozessen, bei der oft Optimalität gegen Effizienz eingetauscht wird.
Eine Methode zur Überprüfung der Benutzerfreundlichkeit, bei der Experten ein KI-System anhand etablierter Usability-Prinzipien beurteilen, um potenzielle Probleme zu identifizieren.
KI-Systeme, die mehrere Lernparadigmen (z. B. symbolisch und neuronal) kombinieren, um Erklärbarkeit und Leistung in Einklang zu bringen.
Eine Konfigurationsvariable (z. B. Lernrate, Baumtiefe), die vor dem Modelltraining festgelegt wird und das Lernverhalten und die Leistung beeinflusst.
Der Prozess der Suche nach den optimalen Hyperparameterwerten (z. B. über Rastersuche, Bayessche Optimierung) zur Maximierung der Modellleistung.
Das gemeinsame ISO/IEC-Komitee für die Standardisierung künstlicher Intelligenz, das internationale KI-Standards für Unternehmensführung, Risiko und Interoperabilität entwickelt.
Unbewusste oder unbeabsichtigte Vorurteile, die in Trainingsdaten oder im Modelldesign eingebettet sind und zu diskriminierenden Ergebnissen führen können.
Der Satz von Annahmen, die ein Lernalgorithmus verwendet, um beobachtete Daten auf unsichtbare Ereignisse zu verallgemeinern.
Die Komponente eines KI-Systems (häufig in regelbasierten Systemen oder Expertensystemen), die eine Wissensbasis auf Eingabedaten anwendet, um daraus Schlüsse zu ziehen.
Verwaltung und Bereitstellung der KI-Infrastruktur (Computer, Speicher, Netzwerk) über maschinenlesbare Konfigurationsdateien zur Verbesserung der Wiederholbarkeit und Überprüfbarkeit.
Die Fähigkeit verschiedener KI-Systeme und -Komponenten, Informationen nahtlos auszutauschen, zu verstehen und zu nutzen, oft über offene Standards oder APIs.
Der Grad, in dem ein Mensch die interne Mechanik oder die Entscheidungsgründe eines KI-Modells verstehen kann.
Bei der KI-Erklärbarkeit handelt es sich um die Matrix aller partiellen Ableitungen erster Ordnung der Ergebnisse eines Modells in Bezug auf seine Eingaben, die zur Bewertung der Sensitivität und der Merkmalsbedeutung verwendet wird.
Eine Art von Prompt-Injection, bei der Benutzer Sicherheitslücken ausnutzen, um Schutzmaßnahmen in generativen KI-Modellen zu umgehen, was möglicherweise zu unsicheren oder nicht autorisierten Ausgaben führt.
Der Einsatz von KI zur Unterstützung der Juryauswahl oder Fallanalyse, wodurch ethische Bedenken in Bezug auf Fairness, Transparenz und Rechtsaufsicht aufgeworfen werden.
Eine jährliche Bewertung der KI-Governance-Prozesse, -Richtlinien und -Systeme, um eine kontinuierliche Anpassung an Vorschriften und interne Standards sicherzustellen.
KI-Anwendungen, deren Ausfall erheblichen Schaden anrichten könnte (z. B. medizinische Diagnosen, autonome Fahrzeuge), die eine verstärkte Steuerung und Überwachung erfordern.
Der Prozess, bei dem sichergestellt wird, dass die Ziele und Verhaltensweisen der KI-Systeme auf menschliche Werte und Absichten abgestimmt sind.
Das Ausmaß, in dem die interne Mechanik eines KI-Systems von Menschen verstanden und interpretiert werden kann.
Der Rahmen von Richtlinien, Prozessen und Kontrollen, die die ethische und effektive Entwicklung und Nutzung von KI-Systemen leiten.
Das Verständnis von KI-Konzepten, Fähigkeiten und Einschränkungen, das eine informierte Interaktion mit KI-Technologien ermöglicht.
Die Einhaltung der geltenden Gesetze, Vorschriften und ethischen Richtlinien durch KI-Systeme während ihres gesamten Lebenszyklus.
Die systematische Bewertung von KI-Systemen zur Bewertung der Einhaltung ethischer Standards, Vorschriften und Leistungskennzahlen.
Die Verpflichtung der Entwickler und Betreiber von KI-Systemen, sicherzustellen, dass ihre Systeme verantwortungsbewusst entworfen und verwendet werden, wobei ethische Standards und gesetzliche Anforderungen eingehalten werden.
Der Prozess der Identifizierung, Bewertung und Minderung von Risiken im Zusammenhang mit KI-Systemen.
Der Grundsatz, dass KI-Systeme offen und klar über ihre Abläufe, Entscheidungen und Datennutzung sein sollten.
Systematische Fehler in den KI-Ergebnissen, die auf voreingenommene Trainingsdaten oder fehlerhafte Algorithmen zurückzuführen sind und zu unfairen Ergebnissen führen.
Die kontinuierliche Beobachtung und Analyse der Leistung von KI-Systemen zur Gewährleistung von Zuverlässigkeit, Sicherheit und Konformität.
Eine Methode in KI und Statistik, die zur Bestimmung von Ursache-Wirkungs-Beziehungen verwendet wird und hilft, die Auswirkungen von Interventionen oder Änderungen von Variablen zu verstehen.
Compliance-Prozesse zur Überprüfung der Identität, des Risikoprofils und der Legitimität von Personen oder Organisationen, die mit KI-Systemen interagieren, insbesondere in regulierten Branchen.
Quantitative Messgrößen (z. B. unterschiedliche Auswirkungen, Chancengleichheit) zur Bewertung von Fairness und Nichtdiskriminierung bei KI-Entscheidungen.
Die Gesamtmenge der geistigen Anstrengung, die im Arbeitsgedächtnis aufgewendet wird, wird in der KI berücksichtigt, um Systeme zu entwerfen, die die Benutzer nicht überfordern.
Eine Untergruppe der KI, die menschliche Denkprozesse in einem computergestützten Modell simuliert und darauf abzielt, komplexe Probleme ohne menschliche Hilfe zu lösen.
Systematische Muster der Abweichung von der Norm oder der Rationalität bei der Beurteilung, die die KI-Entscheidungsfindung beeinflussen können, wenn sie in den Trainingsdaten enthalten sind.
Ein aus Stichprobenstatistiken abgeleiteter Wertebereich, der wahrscheinlich den Wert eines unbekannten Populationsparameters enthält, der in KI verwendet wird, um Unsicherheit auszudrücken.
Ein Prozess, bei dem festgestellt wird, ob ein KI-System bestimmte Anforderungen, Standards oder Vorschriften erfüllt, wobei häufig Tests und Zertifizierungen erforderlich sind.
Die Fähigkeit eines KI-Systems, ohne menschliches Eingreifen kontinuierlich aus neuen Dateneingaben zu lernen und sich anzupassen, und verbessert sich im Laufe der Zeit.
Die Änderung der statistischen Eigenschaften der Zielvariablen, die das Modell im Laufe der Zeit vorherzusagen versucht, was zu einer Verschlechterung des Modells führt.
Eine Modellvalidierungstechnik zur Bewertung, wie die Ergebnisse einer statistischen Analyse auf einen unabhängigen Datensatz verallgemeinert werden.
Die Simulation menschlicher Intelligenzprozesse durch Maschinen, insbesondere Computersysteme, einschließlich Lernen, Denken und Selbstkorrektur.
Eine Art von KI, die die Fähigkeit besitzt, Wissen auf allgemeine Weise zu verstehen, zu lernen und anzuwenden, ähnlich der menschlichen Intelligenz.
Techniken, mit denen überprüft wird, ob eine Eingabe (z. B. biometrische Daten) von einer lebenden Person und nicht von einer Parodie oder Wiederholung stammt, wodurch die Systemsicherheit und -integrität verbessert wird.
Der durchgängige Prozess (Anforderungen, Entwurf, Entwicklung, Test, Bereitstellung, Überwachung) für KI-Anwendungen, der in jeder Phase Governance- und Compliance-Prüfungen beinhaltet.
Die koordinierten Prozesse für die Entwicklung, Bereitstellung, Überwachung, Wartung und Außerbetriebnahme von KI-Systemen zur Sicherstellung der kontinuierlichen Einhaltung von Vorschriften und der Risikokontrolle.
Die versehentliche Aufnahme von Leistungsinformationen in die Beschriftungen der Trainingsdaten, wodurch Leistungskennzahlen in die Höhe getrieben und echte Probleme mit der Modellgeneralisierung verschleiert werden können.
Eine unverbindliche Empfehlung oder ein Best-Practice-Dokument, das von Organisationen (z. B. IEEE, EU) herausgegeben wurde, um die verantwortungsvolle Entwicklung und den Einsatz von KI zu gestalten.
Vordefinierte Einschränkungen oder Prüfungen (technische und politische), die in KI-Systeme eingebettet sind, um unsicheres oder nicht konformes Verhalten während der Laufzeit zu verhindern.
Eine funktionsübergreifende Gruppe (z. B. aus den Bereichen Recht, Ethik, Technik), die mit der Überwachung der KI-Governance-Richtlinien und deren Umsetzung innerhalb einer Organisation beauftragt ist.
Eine Modellfähigkeit zur korrekten Bearbeitung von Aufgaben oder zur Klassifizierung von Daten, für die es nie explizit trainiert wurde, indem generalisierte Wissensrepräsentationen genutzt wurden.
Anpassung von KI-Systemen an lokale Sprachen, Vorschriften, kulturelle Normen und Datenresidenzanforderungen in verschiedenen Jurisdiktionen.
Der Prozess des Vergleichs der aktuellen KI-Governance-Praktiken mit den gewünschten Standards oder Vorschriften, um Bereiche zu identifizieren, die verbessert werden müssen.
Ein Bereich der KI, der Computer darin trainiert, visuelle Informationen aus der Welt wie Bilder und Videos zu interpretieren und zu verarbeiten.
Ein Tool (z. B. RACI), das die Rollen und Verantwortlichkeiten für jede Verwaltungsaktivität klarstellt — wer ist verantwortlich, rechenschaftspflichtig, konsultiert und informiert.
Mechanismen, die es bestimmten Personen ermöglichen, Entscheidungen des KI-Systems zu überwachen, einzugreifen oder sie außer Kraft zu setzen, um die Einhaltung ethischer und gesetzlicher Vorschriften sicherzustellen.
Der Prozess der Abbildung von Rohdaten (z. B. Text, Bilder) in numerische Repräsentationen (Merkmale), die für die Eingabe in ML-Algorithmen geeignet sind.
Quantitative Messgrößen (z. B. Genauigkeitsabweichung, Fairnesswerte, Reaktionszeit bei Vorfällen), die zur Überwachung des Zustands, der Risiken und der Compliance-Ziele des KI-Systems verwendet werden.
Techniken, die während der KI-Entwicklung angewendet wurden, um Verzerrungen in Modellen und Datensätzen zu reduzieren oder zu eliminieren.
Ein Modell, dessen interne Logik teilweise transparent ist (einige Komponenten interpretierbar, andere undurchsichtig), das Leistung und Erklärbarkeit in Einklang bringt.
Die Richtlinien, Rollen und Kontrollen, die sicherstellen, dass KI-Modelle gemäß den organisatorischen Standards und regulatorischen Anforderungen entwickelt, genehmigt und verwendet werden.
Der Prozess der Aktualisierung eines KI-Modells mit neuen oder aktualisierten Daten, um die Leistung und Konformität auch bei sich ändernden Datenverteilungen aufrechtzuerhalten.
Die Bewertungsaktivitäten (z. B. Tests anhand von Hold-Out-Daten, Stressszenarien), die bestätigen, dass ein KI-Modell seinen beabsichtigten Zweck und seine Leistungskriterien erfüllt.
Kontinuierliche Verfolgung der Leistung, der Datendrift und der Betriebsmetriken eines KI-Modells, um Beeinträchtigungen oder neu auftretende Risiken zu erkennen.
Ein freiwilliger Leitfaden des U.S. National Institute of Standards and Technology, in dem bewährte Verfahren zur Minderung von Risiken über den gesamten Lebenszyklus von KI-Systemen hinweg beschrieben werden.
Ein Governance-Prinzip, das darauf abzielt, bei KI-Ergebnissen keine Fehler oder Verstöße gegen Richtlinien zu vermeiden, unterstützt durch strenge Test-, Überwachungs- und kontinuierliche Verbesserungszyklen.
Ein Maß dafür, wie wertvoll oder effektiv ein KI-System bei der Erreichung seiner angestrebten Ziele ist, abgewogen gegen die damit verbundenen Risiken oder Ressourcenkosten.
Die Fähigkeit von KI-Systemen und ihrer unterstützenden Infrastruktur, Störungen oder unerwünschte Ereignisse zu antizipieren, ihnen standzuhalten, sich von ihnen zu erholen und sich an sie anzupassen.
Die automatisierte Koordination von KI-Workflows und -Diensten — Datenaufnahme, Modelltraining, Bereitstellung — gewährleistet die Einhaltung von Richtlinien und Ressourcenmanagement.
Eine begrenzte Erprobung eines KI-Systems in einer kontrollierten Umgebung zur Bewertung von Leistung, Risiken und Governance-Kontrollen vor der vollständigen Bereitstellung.
Die Praxis, Eingaben und Benutzeranfragen von KI-Systemen aufzuzeichnen, um Prüfprotokolle zu erstellen, Missbrauch aufzudecken und die Rechenschaftspflicht zu unterstützen.
Einsatz von KI- und Workflow-Tools zur Rationalisierung von Governance, Compliance-Prüfungen und Aktivitäten zur Risikominderung, wodurch manueller Aufwand und Fehler reduziert werden.
KI-gestützte Überwachung und Analyse zur Prognose von Komponenten- oder Systemausfällen, um die betriebliche Widerstandsfähigkeit und Risikominderung in kritischen Umgebungen sicherzustellen.
Ein Bewertungsprozess zur Erkennung und Abschwächung von Vorurteilen in KI-Systemen, um Fairness und die Einhaltung ethischer Standards sicherzustellen.
Die subjektive Überprüfung des Verhaltens, der Entscheidungen und der Dokumentation von KI-Systemen durch Experten, um ethische, rechtliche oder Reputationsbedenken zu identifizieren, die nicht quantitativ erfasst wurden.
Der Zustand von Daten basiert auf Faktoren wie Genauigkeit, Vollständigkeit, Zuverlässigkeit und Relevanz, die für eine effektive Leistung von KI-Modellen von entscheidender Bedeutung sind.
Die kontinuierliche Überprüfung von KI-Ergebnissen und -Prozessen anhand von Benchmarks und Testfällen, um Fehler, Verzerrungen oder Richtlinienverstöße zu erkennen.
Die systematischen Prozesse und Prüfungen, um sicherzustellen, dass KI-Modelle und Datenpipelines den definierten Standards für Genauigkeit, Zuverlässigkeit und ethische Konformität entsprechen.
Das neue Rechenparadigma, das die Quantenmechanik nutzt und neue Herausforderungen in Bezug auf Sicherheit, Standardisierung und Risiko mit sich bringt.
Eine datengestützte Bewertung potenzieller KI-Bedrohungen, bei der Wahrscheinlichkeiten und Auswirkungen numerisch geschätzt werden, um Maßnahmen zur Eindämmung der Bedrohungen zu priorisieren.
Die Mindestanzahl von Mitgliedern des Verwaltungsausschusses, die anwesend sein müssen, um offizielle Entscheidungen zu KI-Risiken, politischen Genehmigungen oder Prüfungsergebnissen zu treffen.
Ein strukturierter Satz von Richtlinien und Prozessen für den systematischen Umgang mit KI-Risiken im gesamten Systemlebenszyklus, von der Planung bis zur Außerbetriebnahme.
Ein strukturiertes Modell, das skizziert, wie die Komponenten der KI-Governance (Risikomanagement, Rechenschaftspflicht, Aufsicht) zusammenpassen, um die Einhaltung der Vorschriften und den ethischen Einsatz sicherzustellen.
Eine strukturierte Reihe von Richtlinien und Best Practices, die Unternehmen befolgen, um sicherzustellen, dass ihre KI-Systeme regulatorischen und ethischen Standards entsprechen.
Eine strukturierte Reihe von Richtlinien, Prozessen und Tools, die die Steuerung, Entwicklung, Bereitstellung und Überwachung von KI-Systemen leiten.