Shadow AI im KMU erkennen und kontrollieren
Ihre Mitarbeitenden nutzen mehr KI-Tools, als Sie denken. Nicht aus Böswilligkeit, sondern weil die Tools funktionieren, kostenlos zugänglich sind und schneller helfen als ein interner Genehmigungsprozess. Das Ergebnis ist Shadow AI: KI-Einsatz ohne Wissen der Unternehmensführung, ohne Datenschutzprüfung, ohne jede Governance.
Das ist kein Randphänomen. In Erhebungen zum KI-Einsatz in Unternehmen geben regelmässig mehr als ein Drittel der Mitarbeitenden an, KI-Tools zu nutzen, die nicht offiziell freigegeben sind. Die Frage ist nicht mehr ob, sondern wie Sie damit umgehen.

Das Wichtigste in Kürze
Shadow AI bezeichnet den nicht freigegebenen betrieblichen Einsatz von KI-Tools durch Mitarbeitende, oft ohne Wissen der IT oder Geschäftsleitung.
Die Risiken umfassen Datenverlust, revDSG- und DSGVO-Verstösse, AI-Act-Compliance-Lücken und Reputationsschäden.
Verbote funktionieren nicht: Sie verschieben Shadow AI in nicht kontrollierbare Bereiche, ohne das Problem zu lösen.
Der wirksame Ansatz kombiniert Transparenz (Inventar), Governance (Ampelsystem) und legale Alternativen (freigegebene Business-Tools).
Shadow AI ist auch ein Signal: Mitarbeitende wollen effizienter arbeiten. Wer das ernst nimmt, kann es in einen Vorteil verwandeln.
Was ist Shadow AI genau?
Shadow AI ist das KI-Äquivalent von Shadow IT: Mitarbeitende setzen Anwendungen ein, die nicht offiziell geprüft, freigegeben oder überwacht wurden. Konkret sind das generative KI-Tools wie ChatGPT, Claude, Perplexity, Midjourney oder spezialisierte Tools für Texterstellung, Datenanalyse, Bildgenerierung und Übersetzung.
Der entscheidende Unterschied zu klassischer Shadow IT: KI-Tools verarbeiten Inhalte aktiv. Sie lesen, analysieren, synthetisieren. Ein Mitarbeitender, der ein Kundendokument in einen öffentlichen Chatbot lädt, überträgt damit Inhalte auf US-Server und gibt sie potenziell für das Modelltraining frei. Das ist etwas anderes als ein USB-Stick mit einer Tabelle.
Shadow AI tritt in zwei häufigen Szenarien auf. Im ersten nutzen Mitarbeitende bekannte generative Tools privat weiter und bringen sie in den Arbeitskontext, weil niemand explizit etwas dagegen gesagt hat. Im zweiten aktivieren sie KI-Funktionen in bereits genehmigten Tools, ohne zu erkennen, dass das eine neue Datenschutzprüfung erfordern würde: Copilot in Teams, KI-Assistenten in CRM-Systemen, Zusammenfassungsfunktionen in Projektmanagement-Tools.
Warum ist Shadow AI ein Problem?
Die Risiken sind konkret.
Datenschutz und revDSG/DSGVO: Wenn Mitarbeitende Kundendaten, Personalinformationen oder vertragliche Details in nicht freigegebene KI-Tools eingeben, können diese Daten auf ausländischen Servern landen, ohne die notwendige Rechtsgrundlage, ohne AVV, ohne Dokumentation. Das ist ein potenziell meldepflichtiger Datenschutzvorfall nach Art. 24 revDSG, wenn dadurch ein hohes Risiko für betroffene Personen entsteht.
EU AI Act Compliance: Seit Februar 2025 verlangt Art. 4 EU AI Act, dass Unternehmen sicherstellen, dass ihre Mitarbeitenden ausreichend KI-kompetent sind. Wer nicht einmal weiss, welche KI-Tools im Einsatz sind, kann diese Pflicht nicht erfüllen. Shadow AI macht Art.-4-Compliance strukturell unmöglich.
Qualitäts- und Haftungsrisiken: KI-Tools können fehlerhafte Informationen produzieren. Es gab international bereits öffentlich bekannte Fälle, in denen unkritisch übernommene KI-Outputs zu rechtlichen Konsequenzen geführt haben. Im Schweizer B2B-Kontext können fehlerhafte KI-Outputs in Kundenberichten oder Entscheidungen zu Schadensersatzforderungen führen.
Reputationsschaden: Wenn ein Kunde erfährt, dass seine vertraulichen Informationen in einem öffentlichen Chatbot gelandet sind, ist das erklärungsbedürftig. Und solche Erklärungen kosten in der Regel mehr als die Prävention.
Warum funktionieren Verbote nicht?
Das ist die wichtigste strategische Erkenntnis im Umgang mit Shadow AI: Verbote verschieben das Problem, sie lösen es nicht.
Mitarbeitende, die einem KI-Verbot ausgesetzt sind, weichen erfahrungsgemäss auf private Geräte, private Accounts oder weniger bekannte Tools aus, die das Monitoring nicht erfasst. Das Ergebnis ist eine Shadow AI, die noch weniger kontrollierbar ist als zuvor.
Der wirksame Ansatz ist nicht Verbot, sondern Transparenz, Governance und legale Alternativen. Mitarbeitende wollen effizienter arbeiten. Das ist kein Problem, sondern ein Signal. Wer dieses Signal ernst nimmt, kann KI-Adoption in einen strukturierten Prozess umwandeln.
Wie erkennt man Shadow AI im Unternehmen?
Transparenz ist der erste Schritt. Ohne Übersicht über den KI-Fussabdruck des Unternehmens ist keine Governance möglich.
Methode 1: Strukturierte Befragung. Ein offenes, sanktionsfreies Gespräch mit Team-Leads und Mitarbeitenden über die im Alltag genutzten Tools ist der schnellste Ausgangspunkt. Wer eine Umgebung schafft, in der ehrliche Antworten keine Konsequenzen haben, bekommt ein realistisches Bild.
Methode 2: IT-Infrastruktur-Check. Netzwerk-Logs, Browser-Erweiterungen, SaaS-Zugänge und installierte Anwendungen liefern Hinweise auf KI-Tools, die nicht offiziell beschafft wurden. Für KMU ohne eigenes Security-Operations-Center ist das begrenzt, aber ein erster Filter.
Methode 3: Tool-Audit in Standard-Software. Viele Shadow-AI-Risiken entstehen nicht durch externe Tools, sondern durch KI-Funktionen in bereits genehmigter Software: Copilot-Integration in Microsoft 365, KI-Features in Salesforce, Zusammenfassungsfunktionen in Zoom oder Notion. Diese sollten explizit auf ihre Datenschutzimplikationen geprüft werden.
Methode 4: Onboarding und Exit-Gespräche. Neue und ausscheidende Mitarbeitende haben oft den klarsten Blick auf informelle Praxis. Was nutzen Kollegen wirklich? Was fehlt an offiziellen Tools? Diese Perspektive ist wertvoll.
Wie kontrolliert man Shadow AI sinnvoll?
Das Ziel ist nicht Null-Shadow-AI, das ist unrealistisch und kontraproduktiv. Das Ziel ist ein kontrolliertes, dokumentiertes KI-Ökosystem, das Mitarbeitenden die Tools gibt, die sie brauchen, und dem Unternehmen die Übersicht, die es für Governance und Compliance braucht.
Schritt 1: KI-Inventar aufbauen. Alle KI-Tools, die im Unternehmen genutzt werden, erfassen: Toolname, Anbieter, Einsatzzweck, Abteilung, Datenschutzkategorie, AVV-Status. Das ist kein Jahresprojekt. In den meisten KMU lässt sich ein Grundinventar in einem halben Tag erstellen, wenn man die richtigen Personen befragt.
Schritt 2: Ampelsystem einführen. Eine einfache Klassifikation schafft Klarheit ohne Komplexität.
Kategorie | Beschreibung | Beispiel |
|---|---|---|
Grün | Freigegeben, geprüft, AVV vorhanden | ChatGPT Teams, Microsoft Copilot (Enterprise) |
Gelb | Bedingt freigegeben, Einschränkungen gelten | Spezifische Tools für bestimmte Zwecke, keine Kundendaten |
Rot | Nicht freigegeben für betriebliche Nutzung | ChatGPT Free für Kundendaten, nicht geprüfte Tools |
Schritt 3: Legale Alternativen anbieten. Shadow AI entsteht vor allem dort, wo keine offiziellen Alternativen vorhanden sind. Wer Mitarbeitenden ein freigegebenes, leistungsfähiges KI-Tool bereitstellt, nimmt den grössten Anreiz zur Umgehung weg. ChatGPT Teams, Microsoft Copilot oder Azure OpenAI sind für die meisten KMU praktikable Optionen mit AVV und Datenschutzgarantien.
Schritt 4: Nutzungsrichtlinie kommunizieren. Eine KI-Nutzungsrichtlinie mit dem Ampelsystem, Beispielen für erlaubte und nicht erlaubte Einsätze, und einem klaren Meldeprozess für neue Tools schafft den Rahmen. Sie wirkt aber nur, wenn sie kommuniziert, erklärt und regelmässig wiederholt wird. Ein PDF im Intranet ist kein Governance-System.
Schritt 5: Meldeprozess für neue Tools einrichten. Mitarbeitende, die ein neues KI-Tool entdecken, das sie nutzen wollen, brauchen einen einfachen, schnellen Weg, es prüfen zu lassen. Wer Wochen auf eine Antwort wartet, weicht aus. Eine realistische Frist für eine erste Einschätzung: 5 Arbeitstage.
Shadow AI und EU AI Act: Was der Zusammenhang bedeutet
Shadow AI ist unter dem EU AI Act kein rein praktisches Problem, sondern ein Compliance-Risiko in zwei Dimensionen.
Erstens: Art. 4 AI Act verlangt nachweisbare KI-Kompetenz aller Personen, die KI-Systeme im Unternehmenskontext nutzen. Wer nicht weiss, welche Tools im Einsatz sind, kann keine zielgerichteten Schulungen oder Massnahmen entwickeln.
Zweitens: Ab August 2026 gelten für Hochrisiko-KI-Systeme umfangreiche Pflichten: menschliche Aufsicht, Dokumentation, Risikomanagement. Wenn solche Systeme im Verborgenen laufen, zum Beispiel ein KI-gestütztes HR-Tool, das Lebensläufe vorselektiert, sind diese Pflichten faktisch nicht erfüllbar.
Shadow AI zu kontrollieren ist damit keine Nice-to-have-Massnahme, sondern eine Voraussetzung für jede ernsthafte AI-Act-Compliance.
Häufig gestellte Fragen
Wie erkenne ich, ob in meinem KMU Shadow AI vorkommt?
Praktisch in jedem Unternehmen mit mehr als zehn Mitarbeitenden kommt Shadow AI vor. Die Frage ist nicht ob, sondern in welchem Ausmass. Eine strukturierte, sanktionsfreie Befragung der Team-Leads liefert in den meisten Fällen innerhalb eines Tages ein ausreichend genaues Bild.
Darf ich den KI-Einsatz von Mitarbeitenden überwachen?
Das ist eine arbeitsrechtliche Frage, die je nach Anstellungsverhältnis und internen Regelungen unterschiedlich beantwortet wird. Netzwerk-Monitoring ist arbeitsrechtlich und datenschutzrechtlich stark kontextabhängig. Was zulässig ist, hängt vom Anstellungsvertrag, der Betriebsordnung und den anwendbaren Datenschutzregeln ab. Im Zweifelsfall: Rechtlichen Rat einholen, bevor technische Überwachungsmassnahmen eingerichtet werden. Kooperative Methoden wie strukturierte Befragungen sind in den meisten KMU ohnehin ergiebiger.
Was tue ich, wenn ein Mitarbeitender Kundendaten in ein nicht freigegebenes Tool eingegeben hat?
Den Vorfall intern dokumentieren und einschätzen, ob eine meldepflichtige Datenschutzverletzung nach Art. 24 revDSG vorliegt. Das ist der Fall, wenn voraussichtlich ein hohes Risiko für die Persönlichkeit oder Grundrechte der betroffenen Person entsteht. Im Zweifel rechtlichen Rat einholen. Den betroffenen Mitarbeitenden schulen, nicht sanktionieren: Shadow AI ist selten Böswilligkeit, fast immer Informationsmangel.
Wie verhindere ich, dass neue Tools zur Shadow AI werden?
Mit einem einfachen, schnellen Freigabeprozess. Wenn Mitarbeitende ein neues Tool innerhalb von wenigen Tagen prüfen lassen können, haben sie keinen Anreiz zur informellen Umgehung. Der Prozess muss einfacher sein als das Ignorieren der Regeln.
Ist Shadow AI im Finanzsektor besonders riskant?
Ja. Die FINMA hat mit dem Rundschreiben 2024/08 Anforderungen an das Management von IT- und Cyberrisiken gestellt, die auch den Einsatz von KI-Tools erfassen. Für Banken, Versicherungen und andere regulierte Finanzinstitute ist die Kontrolle des KI-Fussabdrucks eine regulatorische Anforderung, nicht nur eine Governance-Empfehlung.
Fazit
Shadow AI ist kein Kontrollverlust, den man hinnehmen muss. Sie ist ein Signal dafür, dass Mitarbeitende produktiver arbeiten wollen, und das ist eine gute Ausgangslage. Der Unterschied liegt darin, ob man dieses Signal ignoriert oder in einen strukturierten KI-Einsatz überführt.
Was es dazu braucht, ist überschaubar: ein KI-Inventar, ein Ampelsystem, freigegebene Alternativen und eine Richtlinie, die kommuniziert wird. Das ist kein Grossprojekt. Für die meisten KMU ist das ein Aufwand von wenigen Tagen, nicht Monaten.
Wenn Sie eine strukturierte Aufnahme Ihres KI-Fussabdrucks möchten, begleiten wir das im Rahmen eines AI Governance Assessments. Was im Einsatz ist, was geregelt werden muss, und was bereits ausreicht, sehen Sie in 90 Minuten. Melden Sie sich unter hallo@navigant.ch oder buchen Sie direkt auf navigant.ch.
Jeden Montag:
Was letzte Woche in AI Governance passiert ist und was es für Ihr KMU heisst.
Die wichtigsten AI-Governance-Entwicklungen der Woche, eingeordnet und auf den Punkt gebracht. Damit Sie montags wissen, was sich ändert und was Sie tun müssen.
Weitere Artikel


Pascal Beck
ISO 42001: Was Schweizer KMU wissen müssen


Pascal Beck
AI Literacy: Pflicht nach EU AI Act Art. 4


Pascal Beck
Darf man Kundendaten in ChatGPT eingeben?


Pascal Beck
EU AI Act für Schweizer KMU: Betroffenheit, Pflichten, Timeline


Pascal Beck
EU AI Act Art. 111: Was gilt für bestehende KI-Systeme?


Pascal Beck
KI, die niemand bestellt hat: 11 Einfallstore und das 3-Zonen-Modell
Jeden Montag:
Was letzte Woche in AI Governance passiert ist und was es für Ihr KMU heisst.
Die wichtigsten AI-Governance-Entwicklungen der Woche, eingeordnet und auf den Punkt gebracht. Damit Sie montags wissen, was sich ändert und was Sie tun müssen.