Wie Sie Shadow AI in Ihrem gesamten Unternehmen identifizieren und steuern – Erkennungsmethoden, Richtlinien für die zulässige Nutzung und der Aufbau von Governance, ohne Innovationen zu blockieren.
•
•
12 Minuten Lesezeit
Themen
Shadow AI ist bereits in jeder großen Organisation vorhanden. Genau jetzt fügt irgendwo in Ihrer Organisation ein Mitarbeitender vertrauliche Vertragssprache in ChatGPT ein. Ein Produktmanager speist Kundendaten in ein KI-Zusammenfassungstool ein. Ein Finanzanalyst nutzt ein Copilot-Plugin, das in der IT niemand genehmigt, darauf trainiert oder dessen Existenz überhaupt kennt. Nichts davon ist hypothetisch. Eine Studie von Salesforce aus dem Jahr 2024 ergab, dass mehr als die Hälfte der Nutzer generativer KI am Arbeitsplatz Tools verwendete, die von ihrem Arbeitgeber nicht freigegeben waren [1]. Nach einigen Schätzungen liegt der tatsächliche Wert deutlich höher, weil sich die Natur nicht genehmigter Nutzung einer Messung grundsätzlich entzieht.
Dieses Phänomen – Mitarbeitende übernehmen KI-Tools außerhalb der Sicht von IT-, Sicherheits- und Compliance-Teams – hat einen Namen erhalten, der vom Vorgängerproblem übernommen wurde: Shadow AI. Doch während die Bezeichnung an das bekannte Konzept von Shadow IT erinnert, sind die damit verbundenen Risiken wesentlich anders, die regulatorischen Anforderungen höher, und das Zeitfenster für wirksame Governance schließt sich schnell.
Wie Shadow AI in der Praxis aussieht
Die erste Herausforderung bei der Steuerung von Shadow AI besteht darin, zu erkennen, wie allgegenwärtig und vielfältig sie geworden ist. Die sichtbarste Form ist die direkte Nutzung verbrauchernaher KI-Dienste: ChatGPT, Google Gemini, Claude von Anthropic, Perplexity und Dutzende kleinerer Tools. Mitarbeitende registrieren sich mit privaten E-Mail-Adressen, nutzen kostenlose Tarife und verarbeiten innerhalb von Minuten Arbeitsdaten. Es wird kein Beschaffungsprozess ausgelöst. Es findet keine Sicherheitsprüfung statt.
Doch die direkte Nutzung ist nur eine Ebene. KI-Funktionen sind inzwischen in Tools eingebettet, für die Organisationen bereits bezahlen. Notion, Canva, Grammarly, Slack, Zoom, Microsoft 365 und Google Workspace liefern alle KI-Funktionen aus, die automatisch oder mit einem einzigen Klick aktiviert werden. Wenn ein Mitglied des Marketingteams den KI-Bildgenerator von Canva nutzt oder ein Vertriebsmitarbeiter bei einer Zoom-Aufzeichnung auf „KI-Zusammenfassung“ klickt, werden KI-Modelle mit Unternehmensdaten aufgerufen – oft ohne zu erkennen, dass dies überhaupt eine KI-Nutzung darstellt.
Eine dritte Ebene umfasst Browser-Erweiterungen und Plugins. Der Chrome Web Store und ähnliche Marktplätze hosten Tausende KI-gestützte Erweiterungen für Schreibhilfe, E-Mail-Entwürfe, Datenextraktion und Codegenerierung. Diese Erweiterungen können Seiteninhalte lesen, Formulardaten abfangen und Informationen an externe Server übertragen. Die meisten Organisationen haben kein Inventar darüber, welche Erweiterungen ihre Mitarbeitenden installiert haben.
Der kumulative Effekt ist eine Organisation, die Dutzende oder Hunderte KI-Systeme betreibt, die ihre Governance-, Risiko- und Compliance-Funktionen weder sehen noch bewerten noch kontrollieren können.
Warum Shadow AI nicht einfach Shadow IT unter anderem Namen ist
Es wäre verlockend, Shadow AI als Unterkategorie des Shadow-IT-Problems zu behandeln, das Sicherheitsteams seit Jahren managen. Schließlich ist das Muster ähnlich: Mitarbeitende übernehmen Technologie schneller, als Governance Schritt halten kann. Doch das Risikoprofil unterscheidet sich in mehreren kritischen Punkten.
Datenpersistenz und Modelltraining
Wenn ein Mitarbeitender ein Dokument in einen nicht genehmigten Filesharing-Dienst hochlädt, besteht das Datenrisiko in der Eindämmung: Wer kann auf diese Datei zugreifen, und kann sie gelöscht werden? Bei vielen KI-Diensten reicht das Risiko weiter. Abhängig von den Nutzungsbedingungen des Anbieters und dem konkreten Tarif, den ein Mitarbeitender nutzt, können Eingabedaten zum Trainieren oder Feinabstimmen von Modellen verwendet werden [2]. Sobald Daten in eine Trainingspipeline gelangen, gibt es keinen Rückholmechanismus. Die Information wird Teil des parametrischen Wissens des Modells, verteilt über Milliarden Gewichtungen. Klassische Ansätze zur Verhinderung von Datenverlust setzen voraus, dass Daten lokalisiert und entfernt werden können. Bei der Aufnahme in KI-Training versagt diese Annahme.
Ausgaberisiko
Shadow IT betrifft typischerweise Tools, die Daten speichern, verschieben oder anzeigen. KI-Tools erzeugen neue Inhalte, und diese Inhalte können falsch sein. Wenn ein Mitarbeitender ein nicht genehmigtes KI-Tool nutzt, um eine regulatorische Meldung zu entwerfen, einen Rechtsvertrag zusammenzufassen oder Finanzprognosen zu erstellen, können halluzinierte Ausgaben in formale Geschäftsentscheidungen einfließen. Die Organisation trägt Verantwortung für Ergebnisse, von denen sie nicht wusste, dass sie KI-generiert sind, erstellt von Tools, von deren Einsatz sie nichts wusste.
Bias- und Diskriminierungsrisiken
KI-Systeme können Ausgaben erzeugen, die auf Basis geschützter Merkmale diskriminieren. Wenn ein HR-Team ein nicht genehmigtes KI-Tool nutzt, um Lebensläufe zu prüfen oder Stellenbeschreibungen zu verfassen, kann die Organisation Bias in Beschäftigungsentscheidungen einführen – ohne jeglichen Audit-Trail. Die Haftung liegt bei der Organisation, unabhängig davon, ob jemand die Nutzung des Tools autorisiert hat.
Geschwindigkeit der Einführung
Traditionelle Shadow IT verbreitete sich im Tempo von Software-Downloads und Kontoerstellungen. Shadow AI verbreitet sich im Tempo eines Browser-Tabs. Viele KI-Tools erfordern keine Installation, kein Konto und keine Zahlung. Ein Mitarbeitender kann in weniger als sechzig Sekunden von Neugier zur Verarbeitung sensibler Daten gelangen.
Shadow AI erweitert das Shadow-IT-Problem nicht nur. Es führt eine qualitativ andere Risikokategorie ein, die eine eigene Governance-Antwort erfordert.
Das regulatorische Argument für Sichtbarkeit
Selbst Organisationen, die ein gewisses Maß an ungemanagtem Technologierisiko akzeptieren, stellen fest, dass die Regulierung inzwischen einen höheren Standard der KI-Sichtbarkeit verlangt.
Der EU AI Act, dessen Anwendung ab 2024 stufenweise begann, legt sowohl Anbietern als auch Betreibern von KI-Systemen Pflichten auf [3]. Anbieter müssen Systeme nach Risikostufen klassifizieren und für Hochrisiko-Systeme die Einhaltung der Artikel 9–15 sicherstellen. Betreiber von Hochrisiko-KI-Systemen tragen eigene Pflichten nach Artikel 26 – einschließlich der Nutzung gemäß Anbieteranweisungen, Zuweisung menschlicher Aufsicht, Protokollaufbewahrung und Vorfallmeldung. Auch Betreiber von Systemen mit geringerem Risiko unterliegen Transparenzpflichten nach Artikel 50. Keine dieser Pflichten kann für Systeme erfüllt werden, die außerhalb des Wissens der Organisation existieren.
ISO/IEC 42001, der internationale Standard für KI-Managementsysteme, macht ein KI-Inventar zu einer grundlegenden Anforderung [4]. Eine Organisation kann keine Konformität mit dem Standard beanspruchen, während sie KI-Systeme betreibt, die sie nicht identifiziert, bewertet oder dokumentiert hat.
In den Vereinigten Staaten betont das NIST AI Risk Management Framework ebenfalls die Notwendigkeit, KI-Systeme zu „kartieren“, als Voraussetzung für das Management ihrer Risiken [5]. Executive Orders und sektorspezifische Leitlinien von Aufsichtsbehörden in Finanzdienstleistungen, Gesundheitswesen und staatlicher Auftragsvergabe konvergieren auf dieselbe Erwartung: Organisationen müssen wissen, welche KI sie nutzen.
Die regulatorische Logik ist eindeutig. Risikoklassifizierung ist ohne Discovery bedeutungslos. Compliance-Verpflichtungen können auf unsichtbare Systeme nicht angewendet werden. Eine Organisation, die kein Inventar ihrer KI-Nutzung vorlegen kann, ist nicht nur ungesteuert – sie ist nicht steuerbar. Plattformen wie Enzai existieren genau, um diese Lücke zu schließen, indem sie die kontinuierlichen Discovery- und Klassifizierungsfunktionen bereitstellen, die die Regulierung heute verlangt.
Entdecken, was Sie nicht wissen
Zu akzeptieren, dass Shadow AI Governance erfordert, ist der einfachere Schritt. Der schwierigere ist, sie zu finden. Effektive Discovery erfordert mehrere komplementäre Methoden, da keine einzelne Technik vollständige Sichtbarkeit bietet.
Netzwerkverkehrs- und DNS-Analyse
KI-Dienste erzeugen charakteristische Muster im Netzwerkverkehr. Die Überwachung von DNS-Abfragen und HTTP/HTTPS-Verkehr auf Verbindungen zu bekannten KI-Service-Domains (api.openai.com, generativelanguage.googleapis.com, api.anthropic.com usw.) liefert eine Basissicht darauf, welche Dienste Mitarbeitende erreichen. Diese Methode ist für direkte Consumer-KI-Nutzung effektiv, jedoch weniger für KI, die in genehmigte SaaS-Tools eingebettet ist, bei denen API-Aufrufe serverseitig erfolgen können.
Analyse von SSO- und Authentifizierungsprotokollen
Viele KI-Dienste unterstützen Single Sign-on. Selbst wenn Mitarbeitende private Konten verwenden, können Authentifizierungsprotokolle von Identity Providern OAuth-Consent-Freigaben an KI-Dienste offenlegen. Die Überprüfung von OAuth-Anwendungsberechtigungen, die über Google Workspace oder Microsoft Entra ID gewährt wurden, bringt häufig KI-Tools ans Licht, die Mitarbeitende mit Unternehmenskonten verbunden haben.
Beschaffungs- und Ausgabenprüfung
Ein Teil der Shadow-AI-Nutzung erzeugt finanzielle Spuren. Mitarbeitende oder Budgetverantwortliche in Fachbereichen können Abonnements für KI-Tools abrechnen, Premium-Tarife mit Unternehmenskreditkarten kaufen oder Rechnungen für KI-Dienste einreichen. Eine gezielte Prüfung von Spesenberichten und Beschaffungsunterlagen, insbesondere mit Suche nach bekannten KI-Anbieternamen, kann bezahlte Nutzung identifizieren, die die formale Beschaffung umgangen hat.
Programme zur Mitarbeitenden-Offenlegung
Technische Discovery-Methoden werden immer blinde Flecken haben. Freiwillige Offenlegungsprogramme, in denen Mitarbeitende eingeladen werden, die von ihnen genutzten KI-Tools ohne Angst vor Sanktionen zu melden, schließen Lücken, die Monitoring nicht erreichen kann. Die Gestaltung dieser Programme ist entscheidend: Wenn Mitarbeitende disziplinarische Maßnahmen befürchten, bleiben die Offenlegungsraten vernachlässigbar. Die Maßnahme als Inventarisierungsinitiative statt als Durchsetzungsaktion zu rahmen, liefert bessere Ergebnisse.
Audits von Browser-Erweiterungen
Für Organisationen mit verwalteten Geräten oder Endpoint-Management-Plattformen schaffen Audits installierter Browser-Erweiterungen Sichtbarkeit in KI-gestützte Plugins. Viele Endpoint-Detection-and-Response-Tools können Erweiterungen inventarisieren. Das Abgleichen installierter Erweiterungen mit einer Datenbank bekannter KI-gestützter Tools identifiziert Shadow-Nutzung, die keinen Netzwerkverkehr zu offensichtlich KI-bezogenen Domains erzeugt.
Analyse von API-Verkehr und Datenflüssen
Weiter entwickelte Organisationen können API-Gateways und Data-Loss-Prevention-Tools instrumentieren, um Muster zu erkennen, die mit KI-Service-Nutzung konsistent sind: große Text-Payloads an externe Endpunkte, Antworten mit Markern für generierte Inhalte oder Verkehr zu IP-Bereichen großer KI-Anbieter. Dieser Ansatz erfordert Investitionen, erfasst jedoch Nutzung, die einfachere Methoden übersehen.
Kein Discovery-Programm sollte sich auf eine einzelne Methode stützen. Die wirksamsten Ansätze kombinieren mehrere Techniken und behandeln Discovery als kontinuierlichen Prozess statt als einmaliges Audit. Eine KI-Governance-Plattform wie Enzai kann diese mehrschichtige Discovery automatisieren, Signale aus Netzwerk-, Identitäts-, Beschaffungs- und Endpoint-Daten korrelieren und ein lebendes Inventar aufrechterhalten.
Shadow-AI-Governance ohne Verbote
Discovery ist notwendig, aber nicht ausreichend. Die folgende Frage lautet, was mit den Erkenntnissen zu tun ist – und hier machen viele Organisationen einen strategischen Fehler. Angesichts des Ausmaßes nicht genehmigter KI-Nutzung ist der Reflex häufig ein Verbot: Domains blockieren, Zugriffe entziehen, pauschale Verbote aussprechen. Dieser Ansatz scheitert aus drei Gründen.
Erstens treibt ein Verbot die Nutzung weiter in den Untergrund. Mitarbeitende, die KI-Tools tatsächlich nützlich finden, werden Umgehungen finden – private Geräte, mobile Hotspots, Heimnetzwerke. Das Ergebnis ist weniger Sichtbarkeit, nicht weniger Nutzung.
Zweitens verursachen pauschale Verbote Wettbewerbsnachteile. Organisationen, die Mitarbeitenden die Nutzung von KI-Tools verwehren, verzichten auf Produktivitätsgewinne, die ihre Wettbewerber realisieren. McKinsey schätzte 2023, dass generative KI jährlich 2,6 bis 4,4 Billionen US-Dollar zu den weltweiten Unternehmensgewinnen über Branchen hinweg beitragen könnte [6]. Auf diesen Wert zu verzichten, ist selbst ein Risiko.
Drittens signalisiert ein Verbot den Mitarbeitenden, dass die Organisation KI als Bedrohung statt als Fähigkeit betrachtet – und vergiftet damit die kulturelle Grundlage, die für eine verantwortungsvolle KI-Einführung auf längere Sicht erforderlich ist.
Die Alternative ist strukturierte Governance, die KI-Nutzung kanalisiert, statt sie zu blockieren.
Amnestie und Baseline
Ein wirksamer Ausgangspunkt ist ein zeitlich begrenzter Amnestiezeitraum, in dem Mitarbeitende eingeladen werden, alle derzeit genutzten KI-Tools offenzulegen, mit ausdrücklicher Zusicherung ohne disziplinarische Konsequenzen. Dies schafft eine umfassende Baseline, die durch technische Discovery allein nicht erreichbar ist. Die Amnestie sollte mit klarer Kommunikation verbunden werden, dass nach Ablauf der Amnestie nicht offengelegte Nutzung als Richtlinienverstoß behandelt wird.
Richtlinien zur zulässigen Nutzung
Anstatt einer binären Unterscheidung zwischen genehmigt und verboten entwickeln reife Organisationen Richtlinien zur zulässigen Nutzung, die Kategorien der KI-Nutzung definieren: welche Datenklassifizierungen mit KI-Tools verarbeitet werden dürfen, welche Arten von Ausgaben vor der Nutzung eine menschliche Prüfung erfordern und welche Offenlegungspflichten gelten, wenn KI-generierte Inhalte in formalen Deliverables verwendet werden.
Listen genehmigter Tools und der „Paved Road“
Das „Paved Road“-Konzept, aus dem Platform Engineering übernommen, ist für Shadow-AI-Governance besonders wirksam. Statt Barrieren zu errichten, schafft die Organisation einen gut ausgeleuchteten, gut gepflegten Pfad, dem leichter zu folgen ist als der Alternative. Das bedeutet, genehmigte KI-Tools bereitzustellen, die Sicherheits- und Compliance-Anforderungen erfüllen, mit geeigneten Einstellungen zur Datenverarbeitung vorkonfiguriert sind, in die Unternehmensidentität integriert sind und durch Schulung und Dokumentation unterstützt werden. Wenn die sanktionierte Option tatsächlich gut ist, sinkt der Anreiz, nicht genehmigte Alternativen zu suchen.
Sandbox-Umgebungen
Für Experimente mit neuen KI-Tools oder Fähigkeiten, die noch nicht auf der Liste genehmigter Tools stehen, können Organisationen Sandbox-Umgebungen bereitstellen, in denen Mitarbeitende Tools mit synthetischen oder nicht sensiblen Daten testen können. So bleibt der Innovationsnutzen der Exploration erhalten, während das Datenrisiko eingegrenzt wird.
Kontinuierliche Überprüfung und Feedback
Governance-Frameworks, die statisch bleiben, werden zu Hindernissen. Eine regelmäßige Taktung zur Überprüfung und Aktualisierung der Liste genehmigter Tools, zur Einbeziehung von Mitarbeitenden-Feedback und zur Bewertung neuer Tools stellt sicher, dass sich das Governance-Framework in etwa mit dem Tempo der KI-Entwicklung weiterentwickelt.
Das Ziel ist nicht, jedes Risiko aus der KI-Nutzung zu eliminieren, sondern den gesteuerten Pfad so klar überlegen zu machen, dass ungesteuerte Nutzung unnötig wird.
Aufbau eines nachhaltigen Discovery-Prozesses
Einmalige Discovery-Initiativen liefern eine Momentaufnahme. Shadow AI ist ein kontinuierliches Phänomen – neue Tools starten wöchentlich, bestehende Tools fügen KI-Funktionen hinzu, Mitarbeitende wechseln Rollen und übernehmen neue Arbeitsabläufe. Ein nachhaltiger Discovery-Prozess muss kontinuierlich sein und in breitere organisatorische Prozesse integriert werden.
Integration in die Beschaffung
KI-Discovery sollte in Beschaffungsworkflows eingebettet sein. Jede Bewertung neuer SaaS-Tools sollte eine Prüfung eingebetteter KI-Funktionen, der Datenverarbeitung für KI-Features und der Modelltrainingsrichtlinien umfassen. Beschaffungsteams benötigen Schulungen und Checklisten, um die richtigen Fragen zu stellen, da Anbieter KI-Funktionalität in ihren Verkaufsunterlagen nicht immer hervorheben.
Integration in Onboarding und Rollenwechsel
Neue Mitarbeitende bringen KI-Gewohnheiten von früheren Arbeitgebern mit. Onboarding-Prozesse sollten einen Schritt zur Offenlegung der KI-Nutzung sowie eine Einführung in das KI-Governance-Framework und die genehmigten Tools der Organisation enthalten. Ebenso sollten bei Rollenwechseln und dem Zugriff auf neue Datenklassifizierungen die Berechtigungen für KI-Tools überprüft werden.
Change Management, nicht nur Compliance
Nachhaltige Shadow-AI-Governance erfordert kulturellen Wandel, nicht nur Richtliniendurchsetzung. Mitarbeitende müssen verstehen, warum KI-Governance existiert – nicht als bürokratischer Overhead, sondern als Schutz für die Organisation, ihre Kunden und sie selbst. Schulungsprogramme sollten praxisnah, szenariobasiert und regelmäßig aktualisiert sein, um die sich wandelnde Tool-Landschaft abzubilden.
Kennzahlen und Berichterstattung
Was gemessen wird, wird gesteuert. Organisationen sollten Discovery-Raten von Shadow AI im Zeitverlauf, Time-to-Governance für neu entdeckte Tools, Mitarbeitendenzufriedenheit mit genehmigten KI-Tools sowie das Volumen von Anträgen auf Richtlinienausnahmen verfolgen. Diese Kennzahlen liefern Frühwarnsignale, wenn Governance hinter der Einführung zurückbleibt und wenn genehmigte Tools die Bedürfnisse der Mitarbeitenden nicht erfüllen.
Verantwortung auf Führungsebene
Shadow-AI-Governance kann nicht ausschließlich in IT oder Informationssicherheit verankert sein. Sie erfordert Sponsoring auf Führungsebene, idealerweise durch einen Chief AI Officer oder eine gleichwertige Rolle, mit klarer Verantwortung für die Vollständigkeit des KI-Inventars und die Governance-Abdeckung. Berichterstattung auf Vorstandsebene zur KI-Governance-Position wird bei Organisationen, die das Risiko ernst nehmen, zunehmend zur Standardpraxis.
Ein Discovery-Prozess, der kontinuierlich, integriert, messbar und gesponsert ist, erfasst, was ein einmaliges Audit verpasst, und passt sich an das an, was die KI-Landschaft des nächsten Quartals bringt.
Praktische Implikationen
Shadow AI ist kein Problem, das sich von selbst löst. Unadressiert verstärkt es sich: mehr Tools, höhere Datenexposition, mehr regulatorisches Risiko, mehr Entscheidungen auf Basis ungeprüfter KI-Ausgaben. Organisationen, die dies gut managen, sind jene, die Discovery als kontinuierliche operative Fähigkeit statt als Projekt behandeln, die durch Befähigung statt durch Verbote steuern und in die kulturelle und prozessuale Infrastruktur investieren, um beides dauerhaft zu tragen.
Der praktische Weg nach vorn ist klar. Schaffen Sie Sichtbarkeit durch mehrschichtige Discovery. Bauen Sie Governance auf, der Mitarbeitende folgen wollen. Integrieren Sie KI-Aufsicht in die Rhythmen von Beschaffung, Onboarding und Change Management. Messen Sie Fortschritt und ziehen Sie Führungskräfte zur Verantwortung.
Für Organisationen, die bereit sind, von ad-hoc Reaktionen zu strukturierter Shadow-AI-Governance überzugehen, bietet Enzai die Plattform, um nicht genehmigte KI-Nutzung unter Kontrolle zu bringen – von kontinuierlicher Discovery und Inventarisierung bis hin zu Richtlinienmanagement und Compliance-Reporting. Demo buchen, um zu sehen, wie es in der Praxis funktioniert.
Referenzen
[1] Salesforce, „Die Versprechen und Fallstricke von KI bei der Arbeit“, Salesforce Research, 2024.
[2] OpenAI, „Wie Ihre Daten zur Verbesserung der Modellleistung genutzt werden“, OpenAI Help Centre, aktualisiert 2025.
[3] Europäisches Parlament und Rat, Verordnung (EU) 2024/1689 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (EU AI Act), 2024.
[4] Internationale Organisation für Normung, ISO/IEC 42001:2023 Informationstechnik – Künstliche Intelligenz – Managementsystem, 2023.
[5] National Institute of Standards and Technology, „AI Risk Management Framework (AI RMF 1.0)“, NIST AI 100-1, Januar 2023.
[6] McKinsey Global Institute, „Das wirtschaftliche Potenzial generativer KI: Die nächste Produktivitätsgrenze“, McKinsey & Company, Juni 2023.
Ermöglichen Sie Ihrer Organisation die Einführung, Steuerung und Überwachung von KI mit unternehmensgerechtem Vertrauen. Entwickelt für regulierte Organisationen, die im großen Maßstab operieren.
