Unteranpassung
Ein Modellierungsproblem, bei dem ein KI-System zu einfach ist, um zugrunde liegende Datenmuster zu erfassen, was zu einer schlechten Leistung sowohl bei Trainingsdaten als auch bei neuen Daten führt.
Tritt auf, wenn die Modellkomplexität (z. B. zu wenige Parameter, übermäßig starke Regularisierung) das Erlernen der tatsächlichen Zusammenhänge verhindert, was zu hohen Trainings- und Validierungsfehlern führt. Zu den Governance-Praktiken gehören die Überwachung sowohl des Trainings- als auch des Validierungsverlusts, die Festlegung akzeptabler Fehlerschwellen sowie die iterative Erhöhung der Modellkapazität oder der Merkmalskomplexität, bis das Underfitting behoben ist – wobei sichergestellt wird, dass Änderungen durch Versionskontrolle und Validierungs-Gates nachverfolgt und überprüft werden.
Ein als einfache lineare Regression entwickeltes Nachfrageprognosemodell weist sowohl auf historischen Daten als auch auf Hold-out-Daten einen Fehler von 10 % auf – ein Hinweis auf Underfitting. Das Team ergänzt iterativ polynomiale Merkmale und wechselt zu einem Random-Forest-Modell, wodurch der Fehler vor der Bereitstellung auf 3 % reduziert wird.

Wir helfen Ihnen, Antworten zu finden
Welches Problem löst Enzai?
Enzai bietet eine Infrastruktur auf Unternehmensniveau, um KI-Risiken und Compliance zu verwalten. Es schafft ein zentrales Aufzeichnungssystem, in dem KI-Systeme, Modelle, Datensätze und Governance-Entscheidungen dokumentiert, bewertet und prüfbar sind.
Für wen ist Enzai entwickelt?
Wie unterscheidet sich Enzai von anderen Governance-Tools?
Können wir beginnen, wenn wir keinen vorhandenen AI-Governance-Prozess haben?
Verlangsamt die KI-Governance die Innovation?
Wie bleibt Enzai im Einklang mit den sich entwickelnden KI-Vorschriften?
Forschung, Einblicke und Neuigkeiten
Ermöglichen Sie Ihrer Organisation die Einführung, Steuerung und Überwachung von KI mit unternehmensgerechtem Vertrauen. Entwickelt für regulierte Organisationen, die im großen Maßstab operieren.
