Großes Sprachmodell

Ein Deep-Learning-Modell, das auf riesigen Textkorpora trainiert wurde und Aufgaben wie Textgenerierung, Übersetzung und Zusammenfassung ausführen kann, wobei häufig Vorurteile und Missbrauch vermieden werden müssen.

Definition

Transformatorbasierte Architekturen (z. B. GPT, BERT) mit Hunderten von Millionen bis Billionen von Parametern, die auf verschiedenen Daten im Internetmaßstab vortrainiert wurden. Sie zeichnen sich durch Lernen in wenigen Schritten aus, können aber gesellschaftliche Vorurteile verbreiten oder schädliche Inhalte generieren. Die Unternehmensführung muss Prüfungen von Vorurteilen, Nutzungsüberwachung, Inhaltsfilterung und klare Richtlinien für zulässige und verbotene Aufforderungen beinhalten, um Missbrauch zu verhindern.

Real-World Example

Ein Marketingteam verwendet Modelle im GPT-Stil, um Anzeigentexte zu verfassen. Vor der Bereitstellung überprüfen sie generierte Texte auf Vorurteile (z. B. geschlechtsspezifische Sprache), setzen Filter für Obszönitäten durch und setzen Nutzungsquoten ein, um vertrauliche Datenlecks zu verhindern. So wird sichergestellt, dass das Modell die Kreativität fördert, ohne dass es zu Reputations- oder Rechtsrisiken kommt.