Feedback-Schleife
Ein Prozess, bei dem KI-Ergebnisse als Inputs zurückgegeben werden, was das Modellverhalten verstärken kann — zum Guten (Reinforcement Learning) oder zum Schlechten (Bias Reinforcement).
Definition
Beschreibt sowohl absichtliche (verstärkendes Lernen) als auch unbeabsichtigte (Empfehlungsverstärkung) Schleifen. Positive Loops können die Leistung im Laufe der Zeit optimieren, negative Loops bergen jedoch die Gefahr einer Verzerrung — z. B. wenn ein Empfehlungsgeber beliebte Inhalte anzeigt, macht ihn beliebter. Zu den Governance-Strategien gehören Kennzahlen zur Loop-Erkennung, Interventionsstrategien (Diversitätsquoten) und simulierte Loop-Tests vor der Live-Bereitstellung.
Real-World Example
Der Empfehlungsgeber einer Nachrichtenplattform zeigt Trendartikel. Da die Nutzer häufiger auf diese klicken, verstärkt das System sie weiter und schränkt so die Inhaltsvielfalt ein. Um die grenzenlose Feedback-Schleife zu durchbrechen und die Vielfalt der Inhalte beizubehalten, führt das Team sogenannte „Serendipity“ -Beschränkungen ein. Dabei werden Themen, die weniger angeklickt wurden, zu einer festen Rate hinzugefügt.