Robustheit
Die Fähigkeit eines KI-Systems, unter einer Vielzahl von schwierigen oder widrigen Bedingungen eine zuverlässige Leistung aufrechtzuerhalten.
Definition
Die Eigenschaft, Eingangsstörungen, Verteilungsverschiebungen oder Angriffsvektoren standzuhalten (kontradiktorische Beispiele). Erreicht durch kontradiktorisches Training, Ensemble-Methoden oder robuste Optimierung. Die Steuerung erfordert die Festlegung von Robustheitsanforderungen für jeden Anwendungsfall, das Testen unter definierten Stressszenarien und die Einbeziehung von Robustheitsprüfungen in die Validierungs- und Überwachungsprozesse, um sicherzustellen, dass die Systeme unter realen Bedingungen zuverlässig bleiben.
Real-World Example
Ein Autohändler für selbstfahrende Autos setzt sein Sichtsystem simulierten Nebel-, Blendlicht- und gegnerischen Patch-Angriffen aus. Sie beziehen diese kontradiktorischen Beispiele in das Schulungsangebot ein und setzen eine behördliche Richtlinie durch, nach der die Leistung unter allen Bedingungen vor dem Einsatz auf Autobahnen die Mindesterkennungsraten erfüllen muss.