Ensemblelernen
Ein Paradigma für maschinelles Lernen, bei dem mehrere Modelle trainiert und kombiniert werden, um dasselbe Problem zu lösen und die Gesamtleistung zu verbessern.
Definition
Kombiniert verschiedene Basislerner (Bäume, neuronale Netze) mithilfe von Strategien wie Bagging, Boosting oder Stacking, um Varianz und Verzerrungen zu reduzieren. Ensembles erfordern ein sorgfältiges Diversitätsmanagement, eine Kalibrierung der kombinierten Ergebnisse und behördliche Kontrollen, um Interpretierbarkeit und Ressourceneffizienz sicherzustellen. Sie übertreffen häufig einzelne Modelle, erfordern jedoch mehr Rechenleistung und eine robuste Überwachung der einzelnen Komponenten.
Real-World Example
Eine Abteilung für Kreditrisiken verwendet ein gestapeltes Ensemble, das logistische Regression, Random Forest und neuronales Netzwerk kombiniert, um Kreditanträge zu bewerten. Das Ensemble verbessert die AUC gegenüber jedem einzelnen Modell um 5%. Die Unternehmensführung schreibt für jedes Basismodell separate Überwachungs-Dashboards vor, um Komponentenausfälle schnell zu erkennen.