Überwachung nach der Bereitstellung

Kontinuierliche Beobachtung des Verhaltens und der Umgebung des KI-Systems nach der Veröffentlichung, um Degradation, Drift oder Compliance-Verstöße zu erkennen.

Definition

Erweitert die Modellüberwachung um Governance-Signale — Datenschutzvorfälle, Protokolle von Richtlinienverstößen, ethische Trends — sowie Leistungs- und Sicherheitsmetriken. Monitoring-Frameworks nach der Bereitstellung erfassen verschiedene Telemetriedaten, führen regelmäßige Audits durch (z. B. Fairness-Checks, Anomalie-Scans) und lösen bei Überschreitung von Schwellenwerten Governance-Workflows aus, um sicherzustellen, dass Abhilfemaßnahmen (Umschulung, Rollback, rechtliche Benachrichtigung) umgehend ergriffen werden.

Real-World Example

Der Hasssprachendetektor einer Social-Media-Plattform sendet alle Inhalte, die von der KI als hochriskant oder nicht klassifiziert gekennzeichnet wurden, in eine Moderatorenwarteschlange. Nach der Bereitstellung überwacht das System monatlich die Falsch-Positiv-Raten. Wenn die Falsch-Positiv-Rate 2% übersteigt, öffnet das Governance-Dashboard ein Ermittlungsticket für eine Umschulung des Modells und für Regelanpassungen.