Verstehen Sie die wichtigsten Begriffe und Konzepte der KI-Governance mit einfachen Definitionen, die Ihnen die Navigation auf der Enzai-Plattform erleichtern.
Der Einsatz von Algorithmen zur Verwaltung und Regulierung gesellschaftlicher Funktionen, was sich möglicherweise auf Entscheidungsprozesse auswirkt.
Verzerrung, die auftritt, wenn ein Algorithmus Ergebnisse liefert, die aufgrund falscher Annahmen im Prozess des maschinellen Lernens systemisch voreingenommen sind.
Eine Reihe von Regeln oder Anweisungen, die einem KI-System gegeben werden, damit es selbstständig lernen kann.
Der Prozess des Entfernens oder Verdeckens persönlicher Identifikatoren aus Datensätzen, der die Identifizierung von Personen erschwert, wird zum Schutz der Privatsphäre verwendet.
Der Prozess der Identifizierung und Verknüpfung von Datensätzen, die sich auf dieselbe reale Entität in verschiedenen Datensätzen beziehen.
Die Gestaltung von Belohnungsstrukturen und -zielen, sodass die Ziele der KI-Systeme mit den menschlichen Werten und organisatorischen Prioritäten übereinstimmen.
Identifizierung und Auswahl der relevantesten Merkmale für das Modelltraining, um die Komplexität zu reduzieren und die Genauigkeit zu verbessern.
Ein in neuronalen Netzwerken verwendeter Trainingsalgorithmus, der Gewichtungen anpasst, indem Fehler von der Ausgabeschicht nach hinten übertragen werden, um den Verlust zu minimieren.
Ein maschineller Lernansatz, bei dem das Modell auf einmal am gesamten Datensatz trainiert wird, im Gegensatz zum inkrementellen Lernen.
Der strukturierte Prozess der Überprüfung, Genehmigung und Rechenschaftspflicht für die Entwicklung und den Einsatz von KI, an dem in der Regel funktionsübergreifende Leitungsgremien beteiligt sind.
Der Prozess, bei dem die Leistung von KI-Systemen mit Standardmetriken oder anderen Systemen verglichen wird, um die Effektivität zu bewerten.
Die Fähigkeit, den internen Zustand und das Verhalten eines KI-Systems durch Erfassung und Analyse von Protokollen, Metriken und Ergebnissen abzuleiten, um eine effektive Überwachung und Fehlerbehebung zu ermöglichen.
Einsatz von KI-Techniken (z. B. Anomalieerkennung, Mustererkennung) zur Identifizierung und Verhinderung betrügerischer Aktivitäten in den Bereichen Finanzen, Versicherungen usw.
Identifizierung, Analyse und Priorisierung von Sicherheitslücken in KI-Infrastrukturen und -Anwendungen als Leitfaden für Abhilfemaßnahmen.
Eine strukturierte Bewertung der Auswirkungen eines KI-Systems auf soziale, wirtschaftliche und kulturelle Aspekte von Gemeinschaften, wobei potenzielle Schäden und Vorteile identifiziert werden.
Das Phänomen, bei dem KI-Systeme bestehende Verzerrungen in den Trainingsdaten verschärfen, was zu zunehmend verzerrten Ergebnissen führt.
Ein KI-System, dessen interne Abläufe nicht transparent oder interpretierbar sind, was es schwierig macht, zu verstehen, wie Entscheidungen getroffen werden.
Das Risiko rechtlicher oder behördlicher Sanktionen, finanzieller Verluste oder Reputationsschäden, denen ein Unternehmen ausgesetzt ist, wenn es Gesetze, Vorschriften oder vorgeschriebene Praktiken nicht einhält.
Die Praxis, Systeme, Netzwerke und Programme vor digitalen Angriffen zu schützen, ist entscheidend für den Schutz von KI-Systemen vor Bedrohungen.
Die Änderung der Modelleingabedaten im Laufe der Zeit, die zu einer Verschlechterung der Modellleistung führen kann, wenn sie nicht überwacht und behoben wird.
Der ethische Zweig, der Datenpraktiken im Hinblick auf die moralischen Verpflichtungen zur Erfassung, zum Schutz und zur Verwendung personenbezogener Daten bewertet.
Das Konzept, dass Daten den Gesetzen und Verwaltungsstrukturen des Landes unterliegen, in dem sie gesammelt, gespeichert oder verarbeitet werden.
Der Grundsatz, nur die Daten zu sammeln, die für einen bestimmten Zweck erforderlich sind, wodurch das Risiko eines Missbrauchs oder einer Verletzung verringert wird.
Der physische oder geografische Standort der Daten einer Organisation, was Auswirkungen auf die Einhaltung der Datenschutzgesetze haben kann.
Der Aspekt der Informationstechnologie, der sich mit der Fähigkeit befasst, zu kontrollieren, welche Daten mit wem geteilt werden, um sicherzustellen, dass personenbezogene Daten angemessen behandelt werden.
Der Prozess, bei dem wichtige Informationen vor Korruption, Kompromittierung oder Verlust geschützt und die Einhaltung der Datenschutzgesetze und -vorschriften sichergestellt werden.
Das Recht von Einzelpersonen, zu kontrollieren, wie ihre personenbezogenen Daten von KI-Systemen erfasst, verwendet, gespeichert und weitergegeben werden.
Techniken und Richtlinien zum Schutz vertraulicher Informationen bei Benutzeranfragen, um sicherzustellen, dass protokollierte Eingaben keine persönlichen oder urheberrechtlich geschützten Daten gefährden.
Ein Ansatz, der Datenschutz- und Benutzerschutzaspekte von Anfang an in die KI-Systemarchitektur und -prozesse einbezieht.
Eine Person, deren personenbezogene Daten erhoben, gespeichert oder verarbeitet werden, was im Zusammenhang mit Datenschutzgesetzen wie der DSGVO besonders relevant ist.
Das Gesamtmanagement der Datenverfügbarkeit, Nutzbarkeit, Integrität und Sicherheit in einem Unternehmen, das sicherstellt, dass Daten während ihres gesamten Lebenszyklus ordnungsgemäß behandelt werden.
Einbeziehung menschlichen Urteilsvermögens in KI-Prozesse (Schulung, Validierung, Entscheidungsüberprüfung), um Genauigkeit und Rechenschaftspflicht zu verbessern.
Ein System zum öffentlichen Teilen von Informationen über einen Datensatz, indem Muster von Gruppen innerhalb des Datensatzes beschrieben und Informationen über Einzelpersonen zurückgehalten werden.
Bezieht sich im Bereich KI auf die unfaire Behandlung von Einzelpersonen oder Gruppen aufgrund von Verzerrungen in Daten oder Algorithmen, die zu ungleichen Ergebnissen führen.
Eine Technik des maschinellen Lernens, bei der ein in einer Domäne trainiertes Modell so angepasst wird, dass es in einer anderen, aber verwandten Domäne funktioniert.
Die automatisierten oder manuellen Mechanismen, die sicherstellen, dass KI-Operationen den Unternehmensrichtlinien, regulatorischen Regeln und ethischen Richtlinien entsprechen.
Der kontinuierliche Prozess der Identifizierung und Bewertung von Risiken in Echtzeit, der eine zeitnahe Reaktion auf neue Bedrohungen in KI-Systemen ermöglicht.
Die Analyse von Daten am Rand des Netzwerks, in der Nähe der Quelle der Datengenerierung, wodurch Latenz und Bandbreitennutzung reduziert werden.
Der Prozess der Einbindung der betroffenen Parteien (z. B. Nutzer, Regulierungsbehörden, betroffene Gemeinschaften) in die KI-Entwicklung und -Überwachung, um unterschiedliche Sichtweisen und Zustimmung sicherzustellen.
Einbindung verschiedener Gruppen (z. B. aus den Bereichen Recht, Ethik, Betrieb, Endnutzer) in KI-Governance-Prozesse, um eine ausgewogene Risikoüberwachung und Ausrichtung auf die Geschäftsziele sicherzustellen.
Die Praxis, sicherzustellen, dass KI-Systeme während ihres gesamten Lebenszyklus die geltenden Gesetze, Vorschriften und Industriestandards einhalten.
Sicherstellen, dass KI-Systeme während ihres gesamten Betriebs die geltenden Gesetze, Vorschriften und Industriestandards (z. B. DSGVO, FDA, Finanzaufsicht) einhalten.
Sicherstellung der konsistenten Anwendung von Richtlinien, Kontrollen und Standards in allen KI-Systemen, um Governance-Lücken oder ein uneinheitliches Risikomanagement zu vermeiden.
Definition von Grenzen oder Grenzwerten in KI-Entscheidungsregeln (z. B. Konfidenzwerte), um Risiken wie falsch positive und falsch negative Ergebnisse abzuwägen.
Eine Technik des überwachten Lernens beim maschinellen Lernen, bei der das Modell auf der Grundlage von Trainingsdaten die Kategorie- oder Klassenbezeichnung neuer Beobachtungen vorhersagt.
Ein Paradigma für maschinelles Lernen, bei dem mehrere Modelle trainiert und kombiniert werden, um dasselbe Problem zu lösen und die Gesamtleistung zu verbessern.
Techniken zur Identifizierung von Datenpunkten oder Modellvorhersagen, die erheblich von den erwarteten Mustern abweichen, was zu Überprüfungs- oder Minderungsmaßnahmen führt.
Überwachung der KI-Infrastruktur und -Anwendungen auf böswillige Aktivitäten oder Richtlinienverstöße, Auslösen von Warnmeldungen oder automatisierten Reaktionen.
Techniken zur Identifizierung von Eingaben oder Szenarien, die erheblich von den Trainingsdaten abweichen, wodurch eine Überprüfung oder ein Betrieb im abgesicherten Modus ausgelöst wird, um unerwartete Ausfälle zu verhindern.
Der Prozess der Identifizierung von Verzerrungen in KI-Modellen durch Analyse ihrer Ergebnisse und Entscheidungsprozesse.
KI-Systeme, die darauf ausgelegt sind, für Menschen verständliche Begründungen für ihre Entscheidungen und Handlungen zu liefern und so Transparenz und Vertrauen zu stärken.
Modelle für maschinelles Lernen, die darauf ausgelegt sind, klare und verständliche Erklärungen für ihre Vorhersagen und Entscheidungen zu liefern.
Techniken und Dokumentationen, die die Entscheidungslogik eines KI-Modells für Stakeholder und Auditoren verständlich machen.
Während beide darauf abzielen, KI-Entscheidungen verständlich zu machen, konzentriert sich die Erklärbarkeit auf die Argumentation hinter Entscheidungen, wohingegen sich Interpretierbarkeit auf die Transparenz der internen Mechanik des Modells bezieht.
Methoden, die verwendet werden, um die von KI-Modellen getroffenen Entscheidungen zu interpretieren und zu verstehen, wie LIME-, SHAP- und Salienzkarten.
Eine Reihe von Leitlinien, die von der Hochrangigen Expertengruppe für KI der Europäischen Kommission zur Förderung einer vertrauenswürdigen KI entwickelt wurden und sich auf menschliche Handlungsfähigkeit, technische Robustheit, Datenschutz, Transparenz, Vielfalt, gesellschaftliches Wohlergehen und Rechenschaftspflicht konzentrieren.
Ein systematischer Bewertungsprozess zur Identifizierung und Behandlung der ethischen Implikationen und potenziellen gesellschaftlichen Auswirkungen von KI-Systemen vor dem Einsatz.
Die Praxis, KI-Systeme in einer Weise zu entwerfen, zu entwickeln und einzusetzen, die ethischen Prinzipien und Werten entspricht und Fairness, Rechenschaftspflicht und Transparenz gewährleistet.
Der Rahmen von Richtlinien, Verfahren und Praktiken, die sicherstellen, dass KI-Systeme verantwortungsvoll und ethisch entwickelt und eingesetzt werden.
Eine formelle Anerkennung, dass ein KI-System etablierte ethische Standards und Richtlinien einhält.
Strukturierte Prinzipien und Richtlinien, die als Leitfaden für die ethische Entwicklung und den Einsatz von KI-Systemen dienen sollen.
Die Praxis, Systeme bewusst auf Sicherheitslücken zu untersuchen, um Sicherheitsprobleme zu identifizieren und zu beheben und so die Robustheit von KI-Systemen sicherzustellen.
Der Prozess der systematischen Bewertung von KI-Systemen, um sicherzustellen, dass sie ethischen Standards entsprechen und keinen Schaden anrichten.
Das Potenzial eines KI-Systems, durch unethisches Verhalten, einschließlich Voreingenommenheit, Diskriminierung oder Verletzung der Privatsphäre, Schaden anzurichten.
Quantitative Kennzahlen (z. B. demografische Parität, Chancengleichheit), die verwendet werden, um zu bewerten, wie fair die Prognosen eines KI-Modells gruppenübergreifend sind.
Wenn ein KI-Modell fälschlicherweise eine negative Klasse für eine Instanz vorhersagt, die tatsächlich positiv ist (Fehler Typ II).
Wenn ein KI-Modell fälschlicherweise eine positive Klasse für eine Instanz vorhersagt, die tatsächlich negativ ist (Fehler Typ I).
Erstellung, Auswahl oder Umwandlung von Rohdatensatzattributen in Funktionen, die die Leistung von Modellen für maschinelles Lernen verbessern.
Ein Prozess, bei dem KI-Ergebnisse als Inputs zurückgegeben werden, was das Modellverhalten verstärken kann — zum Guten (Reinforcement Learning) oder zum Schlechten (Bias Reinforcement).
Die Fähigkeit eines KI-Systems, auch dann korrekt zu arbeiten, wenn einige Komponenten ausfallen oder Fehler erzeugen.
Anpassung eines vortrainierten KI-Modells an eine bestimmte Aufgabe oder einen bestimmten Datensatz durch kontinuierliches Training mit neuen Daten, wodurch häufig die aufgabenspezifische Leistung verbessert wird.
Eine strukturierte Bewertung zur Identifizierung, Analyse und Minderung potenzieller ethischer, rechtlicher und gesellschaftlicher Auswirkungen eines KI-Systems vor dem Einsatz.
Ein Prozess zur Bewertung der Auswirkungen von KI-Systemen auf Grundrechte (Datenschutz, freie Meinungsäußerung, Nichtdiskriminierung) und zur Identifizierung von Minderungsmaßnahmen.
Eine strukturierte Analyse zur Identifizierung und Minderung von Datenschutzrisiken im Zusammenhang mit KI-Systemen, die sich mit der Erfassung, Verwendung, Weitergabe und Aufbewahrung von Daten befasst.
Mathematischer Nachweis, dass KI-Algorithmen bestimmte Korrektheitseigenschaften erfüllen, die häufig in sicherheitskritischen Systemen verwendet werden.
Kontinuierliche Verfolgung der Leistung von KI-Systemen, Datenabweichungen, Bias-Metriken und Sicherheitsereignissen, um neue Risiken im Laufe der Zeit zu erkennen und zu beheben.
Ein strukturierter Satz behördenorientierter Fragen, die bei der Planung, Beschaffung oder Bereitstellung verwendet werden, um sicherzustellen, dass KI-Systeme den politischen Anforderungen entsprechen.
Sicherzustellen, dass KI-Systeme unter allen Bedingungen sicher funktionieren, insbesondere in Branchen wie der Automobilindustrie oder dem Gesundheitswesen, häufig durch Redundanz und Überprüfungen.
Ein Logiksystem, das das Denken mit ungefähren statt binären Wahr-/Falschwerten handhabt — nützlich in Kontrollsystemen und im Umgang mit Unsicherheiten.
Ein dezentraler ML-Ansatz, bei dem Modelle auf mehreren Geräten oder Servern trainiert werden, auf denen lokale Daten gespeichert sind, ohne dass Rohdaten zentral geteilt werden.
Ein Optimierungsalgorithmus, der die Modellparameter iterativ in die Richtung anpasst, die die Verlustfunktion minimal verringert.
Techniken, die KI-Modelle manipulieren, indem irreführende Eingaben eingeführt werden, um falsche Ausgaben zu verursachen.
Rechtsprinzip, nach dem mehrere Parteien (z. B. Entwickler, Bereitsteller) gemeinsam für Schäden im Zusammenhang mit KI verantwortlich sind und die Vertrags- und Verwaltungsstrukturen beeinflussen.
Entwicklung von KI-Systemen, die gemeinsam mehrere Aufgaben (z. B. Spracherkennung und Übersetzung) erlernen, wobei die Steuerung für Komplexität und Überprüfbarkeit erforderlich ist.
Der Grad, in dem die Ergebnisse eines KI-Systems reale Daten oder beabsichtigte Ergebnisse korrekt widerspiegeln.
Die Fähigkeit eines KI-Modells, bei neuen, unsichtbaren Daten gute Ergebnisse zu erzielen, indem es zugrunde liegende Muster erfasst, anstatt Trainingsbeispiele auswendig zu lernen.
KI-Techniken (z. B. GANs, Transformatoren), die neue Inhalte — Text, Bilder oder andere Medien — erstellen, werfen häufig neuartige Bedenken hinsichtlich der Unternehmensführung und des geistigen Eigentums auf.
Das Rechtsverfahren, mit dem Gerichte die Rechtmäßigkeit von Entscheidungen bewerten, die von KI getroffen oder unterstützt werden, um Rechenschaftspflicht und ein ordnungsgemäßes Verfahren sicherzustellen.
Die gesetzliche Befugnis über Daten, KI-Operationen und Haftung, die je nach Region unterschiedlich ist und sich auf die Einhaltung regionaler Vorschriften (z. B. DSGVO, CCPA) auswirkt.
Ein Sicherheitsprinzip, bei dem KI-Komponenten und Benutzern nur die minimalen Zugriffsrechte gewährt werden, die für die Ausführung ihrer Funktionen erforderlich sind, wodurch das Risiko eines Missbrauchs verringert wird.
Absichtliches Einbringen zufälliger Störungen in Trainingsdaten oder Modellparameter, um die Robustheit zu erhöhen und gegnerische Manipulationen zu verhindern.