Föderiertes Lernen

Ein dezentraler ML-Ansatz, bei dem Modelle auf mehreren Geräten oder Servern trainiert werden, auf denen lokale Daten gespeichert sind, ohne dass Rohdaten zentral geteilt werden.

Definition

Ein datenschutzfreundliches Paradigma, das Modellaktualisierungen (Gradienten) — keine Rohdaten — zwischen Clients (z. B. Smartphones) und einem zentralen Server sendet und diese Aktualisierungen zu einem globalen Modell zusammenfasst. Es reduziert die Kosten für die Datenübertragung und wahrt die lokale Datenhoheit. Die Unternehmensleitung muss die Aggregation von Updates sicherstellen (um eine Vergiftung zu verhindern), die Modellversionierung verwalten und sicherstellen, dass die Beiträge der einzelnen Kunden angemessen gewichtet werden, um Verzerrungen durch unterrepräsentierte Knoten zu vermeiden.

Real-World Example

Eine KI zur Tastatureingabe lernt durch föderiertes Lernen aus den Tippmustern der Nutzer auf ihren Telefonen: Jedes Gerät trainiert lokal anhand des aktuellen Textes, sendet verschlüsselte Gradientenaktualisierungen, und der zentrale Server aggregiert sie. Kein persönlicher Text verlässt das Gerät, wodurch die Privatsphäre der Nutzer gewahrt bleibt und gleichzeitig das globale Sprachmodell verbessert wird.