KI-Sicherheit

Schatten-KI: Warum 78 % Ihrer Mitarbeiter heimlich ChatGPT nutzen – und was das für Ihre Haftung bedeutet

25.1.2025 David Mirga 11 Min. Lesezeit
Schatten-KI: Warum 78 % Ihrer Mitarbeiter heimlich ChatGPT nutzen – und was das für Ihre Haftung bedeutet

Die Buchhalterin eines mittelständischen Produktionsbetriebs in Süddeutschland kopiert Kundendaten in ChatGPT, um schneller Rechnungsvorlagen zu erstellen. Der Vertriebsleiter lässt seine Verkaufsstrategie von einem KI-Tool optimieren – über seinen privaten Google-Account. Die Personalabteilung nutzt eine Gratis-KI, um Bewerbungen zu screenen. Alle drei wissen: Es ist nicht offiziell erlaubt. Aber sie tun es trotzdem.

Willkommen im Zeitalter der Schatten-KI. Während viele Geschäftsführer das Thema noch aussitzen oder mit pauschalen Verboten reagieren, ist die Realität längst eine andere: 78 % aller Mitarbeiter nutzen KI-Tools am Arbeitsplatz heimlich – ohne Freigabe, ohne Richtlinie, ohne Kontrolle. Das zeigt eine aktuelle Studie von WalkMe aus August 2025, die 1.000 US-amerikanische Arbeitnehmer befragte. Eine weitere Untersuchung von UpGuard (November 2025) kommt sogar zu dem Schluss, dass über 80 % der Mitarbeiter – einschließlich 90 % der Sicherheitsexperten – unautorisierte KI-Tools nutzen.

Das ist kein Randphänomen mehr. 98 % aller Organisationen haben laut einer Keepnet-Studie (2025) mindestens einen Fall von Shadow AI. Und die Konsequenzen sind dramatisch: Datenlecks durch Schatten-KI kosten Unternehmen im Durchschnitt 670.000 US-Dollar zusätzlich zu den regulären Breach-Kosten – ein Aufschlag von 16 %, wie Programs.com im Dezember 2025 berichtete. Shadow AI macht mittlerweile 20 % aller Datenschutzverletzungen aus.

Das Problem: Verbote sind keine Strategie

Ein Verbot von ChatGPT oder ähnlichen Tools klingt im ersten Moment nach Sicherheit. Doch die Realität sieht anders aus: Mitarbeiter nutzen die Technologie privat auf dem Smartphone, über den Browser oder über kostenlose Accounts, um die steigende Arbeitslast zu bewältigen. Sie suchen keine böswillige Sabotage – sie suchen Effizienz.

Was dabei übersehen wird: Ohne klare Richtlinien haften Sie als Unternehmer für Datenschutzverstöße und Urheberrechtsverletzungen, die durch diese heimliche Nutzung entstehen. Personenbezogene Daten, die in ein öffentliches KI-Tool eingegeben werden, landen auf Servern außerhalb der EU – oft in den USA. Dort gelten andere Datenschutzstandards, und die DSGVO-Compliance ist nicht automatisch gegeben. Eine OpenAI-Datenpanne im August 2025 zeigte, dass selbst große Anbieter nicht gefeit sind: Sensible Nutzergespräche tauchten im Google-Suchindex auf.

Hinzu kommt: Der EU AI Act ist seit Februar 2025 teilweise in Kraft. Artikel 4 verpflichtet Unternehmen, die KI entwickeln, verteilen oder nutzen, zur AI Literacy – also zur Schulung ihrer Mitarbeiter im sicheren Umgang mit KI-Systemen. Wer diese Pflicht ignoriert, riskiert nicht nur Bußgelder, sondern auch strukturelle Haftungsrisiken. Ab August 2026 greifen die Regeln für High-Risk-AI-Systeme, ab August 2027 ist die vollständige Anwendung des EU AI Act verpflichtend.

Ein Verbot schafft keine Sicherheit. Es schafft ein Vakuum, in dem Mitarbeiter heimlich handeln und Sie als Geschäftsführer im Dunkeln tappen.

Das System: Vom Chaos zum Managementsystem (ISO 42001)

Es geht heute nicht mehr nur darum, „ein bisschen KI” zu machen. Es geht darum, wie Sie KI als festen, sicheren Bestandteil in Ihre Organisation integrieren. Wer sich professionell mit der Implementierung befasst, stößt dabei auf internationale Standards wie die ISO/IEC 42001 – die weltweit erste zertifizierbare Norm für KI-Managementsysteme (AIMS).

Die ISO 42001 wurde im Dezember 2023 veröffentlicht und bietet einen strukturierten Rahmen, um KI verantwortungsvoll zu nutzen. Sie basiert auf der Plan-Do-Check-Act-Methodik (PDCA), die aus anderen Managementsystemen wie ISO 27001 (Informationssicherheit) bekannt ist. Der Vorteil: Sie müssen nicht bei null anfangen. Wenn Sie bereits ein ISMS (Information Security Management System) nach ISO 27001 betreiben, lässt sich ISO 42001 nahtlos integrieren.

Die ISO 42001 hilft Unternehmen, die spezifischen Risiken von KI zu managen: Bias (Voreingenommenheit), Transparenz, Datenschutz, ethische Verantwortung und kontinuierliche Überwachung. Sie ist kein rechtliches Schutzschild – aber sie schafft die Infrastruktur, die Regulierungsbehörden und Auditoren erwarten. Laut einer Studie von ISACA aus Oktober 2025 planen 76 % der Organisationen, Frameworks wie ISO 42001 zu implementieren.

Ein sicheres System basiert auf drei Säulen:

1. Kontextanalyse: Wissen, was läuft

Welche KI-Tools werden bereits genutzt – offiziell oder heimlich? Wo liegen die spezifischen Risiken für Ihr Geschäftsmodell? Eine ehrliche Bestandsaufnahme ist der erste Schritt. Oft stellt sich heraus, dass Abteilungen längst KI-Tools nutzen, ohne dass die IT-Abteilung davon weiß. Die Studie von Reco aus 2025 zeigt, dass kleine Unternehmen mit 11-50 Mitarbeitern im Durchschnitt 269 Shadow-AI-Tools pro 1.000 Mitarbeiter haben – ohne die Ressourcen, diese zu überwachen.

2. Verantwortlichkeit: Klare Zuständigkeiten schaffen

Wer entscheidet, welche Tools erlaubt sind, und wer überwacht deren Einsatz? Die ISO 42001 verlangt, dass Sie ein AI Governance Committee einrichten oder zumindest Verantwortlichkeiten klar definieren. Das kann in kleinen Unternehmen der Geschäftsführer in Zusammenarbeit mit IT und Datenschutzbeauftragten sein. Wichtig ist: Es muss jemand sein, der die Fäden in der Hand hält und bei Vorfällen schnell reagieren kann.

3. Transparenz: Mitarbeiter ins Boot holen

Mitarbeiter müssen wissen, was mit ihren Eingaben passiert, statt sich hinter privaten Accounts zu verstecken. Eine EY-Studie aus November 2025 zeigt, dass nur 50 % der Mitarbeiter ihre Unternehmens-Richtlinien zu KI als „sehr klar” bewerten. Das ist ein Problem. Wenn Ihre Mitarbeiter nicht verstehen, warum bestimmte Tools verboten sind oder welche Alternativen es gibt, werden sie weiterhin heimlich handeln.

Der 3-Schritte-Plan für KMU

Sie müssen kein IT-Konzern sein, um Sicherheit herzustellen. Diese drei Schritte sollten Sie sofort einleiten:

Schritt 1: Die KI-Richtlinie (Policy) – Erlauben statt Verbieten

Erstellen Sie ein klares, verständliches Regelwerk. Statt zu sagen „ChatGPT ist verboten”, sagen Sie: „Wir erlauben diese Tools – und so nutzt ihr sie sicher.”

Was gehört rein?

  • Erlaubte Tools: Listen Sie konkrete, DSGVO-konforme Lösungen auf. Beispiele:
    • Microsoft Copilot Enterprise (wenn Sie M365 nutzen): Integriert in Ihr bestehendes Ökosystem, DSGVO-konform, keine Nutzung für Training.
    • ChatGPT Enterprise: Bietet eine Data Processing Agreement (DPA) nach Artikel 28 DSGVO, keine Nutzung von Firmendaten für Modelltraining, Ende-zu-Ende-Verschlüsselung.
    • Mistral (Le Chat): Französischer Anbieter, EU-Server, Open-Source-Modelle verfügbar. Besonders stark bei europäischen Sprachen.
    • Langdock: Deutsche Plattform, Multi-LLM-Zugriff (Mistral, Claude, GPT), EU-only Hosting, striktes Access-Control-System.
  • Verbotene Tools: ChatGPT Free/Plus, Gemini Free, Perplexity (alle nutzen Eingaben für Training, US-Server).
  • Verbotene Eingaben: Personenbezogene Daten (Namen, Adressen, Gehälter), vertrauliche Geschäftsdaten (Bilanzen, Strategiepapiere), Kundendaten ohne Einwilligung.
  • Erlaubte Anwendungsfälle: Textoptimierung, E-Mail-Entwürfe, Recherche, Code-Vorschläge (nur bei entsprechender Lizenzierung).

Praxistipp: Machen Sie die Policy nicht länger als zwei A4-Seiten. Nutzen Sie Beispiele statt juristischer Fachsprache. „Schreib keine Kundennamen in ChatGPT” ist klarer als „Vermeide die Eingabe personenbezogener Daten gemäß Art. 4 DSGVO”.

Wichtig: Die Policy muss schriftlich festgehalten, datiert und allen Mitarbeitern zugänglich gemacht werden. Idealerweise lassen Sie sie digital bestätigen (z. B. über Ihr HR-System). Das schafft Rechtssicherheit.

Schritt 2: Schulung statt Bestrafung – AI Literacy als Pflicht

Seit Februar 2025 verlangt der EU AI Act (Artikel 4) ohnehin eine grundlegende KI-Kompetenz der Belegschaft. Erklären Sie Ihren Mitarbeitern, warum Datensicherheit für den Erhalt ihrer Arbeitsplätze wichtig ist.

Was sollten Schulungen enthalten?

  • Grundverständnis: Was ist KI? Wie funktionieren LLMs? Was bedeutet „Training mit Daten”?
  • Risiken konkret: Zeigen Sie reale Fälle. Beispiel: „Im März 2025 behauptete ChatGPT fälschlicherweise, ein Norweger hätte seine Söhne ermordet. Die Datenschutzorganisation noyb reichte Klage ein – potenzielle Strafe: bis zu 4 % des Jahresumsatzes von OpenAI (geschätzt 452 Millionen Dollar).”
  • Praktische Dos and Don’ts: Was darf ich eingeben? Was nicht? Welche Tools sind freigegeben?
  • Wie erkenne ich problematische Situationen?: Wenn ein Tool nach sensiblen Daten fragt, wenn ein Output rechtlich bedenklich ist.

Praxistipp: Schulungen müssen regelmäßig stattfinden – mindestens einmal jährlich, idealerweise bei jedem größeren Update Ihrer KI-Infrastruktur. Die EU-Kommission hat im November 2024 einen Q&A-Leitfaden zu Artikel 4 veröffentlicht, der Mindeststandards definiert. Nutzen Sie diesen als Grundlage.

Fehlerkultur schaffen: Bestrafen Sie Mitarbeiter nicht, die „aus Versehen” Schatten-KI genutzt haben. Wenn Sie eine offene Fehlerkultur schaffen, melden sich Mitarbeiter früher, wenn etwas schiefläuft. Das gibt Ihnen die Chance, schnell zu reagieren, bevor aus einem kleinen Datenleck eine DSGVO-Katastrophe wird.

Schritt 3: Sichere Infrastruktur bereitstellen – Der offizielle Weg muss der einfachste sein

Geben Sie Ihrem Team Werkzeuge an die Hand, die DSGVO-konform arbeiten. Wenn es einen offiziellen, sicheren Weg gibt, verschwindet die Schatten-KI von selbst.

Was heißt das konkret?

  • Beschaffen Sie Enterprise-Versionen: Kostenlose Tools sind fast immer problematisch. Investieren Sie in Lizenzen. Microsoft Copilot Enterprise kostet ca. 30 €/Nutzer/Monat, ChatGPT Enterprise ca. 60 $/Nutzer/Monat (Preise variieren). Das klingt nach viel – aber ein einziger DSGVO-Verstoß kann schnell sechsstellige Beträge kosten.
  • Zentrale Verwaltung: Nutzen Sie Single Sign-On (SSO) über Azure AD oder Google Workspace. So behalten Sie Kontrolle darüber, wer Zugriff hat.
  • Logging & Monitoring: Aktivieren Sie Audit Logs. Die ISO 42001 verlangt, dass Sie nachweisen können, wer wann welche KI-Tools genutzt hat. Das ist nicht nur für Compliance wichtig, sondern auch für die Ursachenanalyse bei Vorfällen.
  • Data Loss Prevention (DLP): Tools wie Omnifact oder 1Protection.AI können sensible Daten automatisch erkennen und filtern, bevor sie in eine KI gelangen. Das ist besonders für HR, Recht und Finanzen relevant.

Praxisbeispiel: Ein Maschinenbauer mit 120 Mitarbeitern hat folgendes Setup:

  • Microsoft Copilot Enterprise für alle Büromitarbeiter (€3.600/Monat).
  • Mistral-API für die technische Abteilung (selbst gehostet auf EU-Servern).
  • Klare Policy: „Kundendaten nur in Copilot, nie in ChatGPT Free.”
  • Quarterly Reviews: Alle drei Monate prüft die IT, welche Tools tatsächlich genutzt werden.
  • Ergebnis: Shadow AI ist von 68 % (vor der Maßnahme) auf 12 % gesunken. Die verbleibenden 12 % sind hauptsächlich Mitarbeiter, die private Devices nutzen – dagegen helfen Mobile Device Management (MDM) Policies.

Konkrete Tool-Checkliste: Was ist DSGVO-konform?

Hier eine schnelle Übersicht, welche Tools Sie bedenkenlos nutzen können und welche nicht:

✅ DSGVO-konforme Tools (Stand Januar 2025)

  • Microsoft Copilot Enterprise: GDPR, SOC 2, HIPAA. Nutzt Ihre M365-Berechtigungen.
  • ChatGPT Enterprise: DPA verfügbar, keine Nutzung für Training. Achtung: Nur Enterprise, nicht Plus/Free.
  • Mistral (via API oder Le Chat): EU-Server (Frankreich), Open-Source-Modelle, starke Datenschutzgarantien.
  • Langdock: Deutsche Plattform, EU-only Hosting, Multi-LLM.
  • Privacy Chat (dreamleap): Schweiz/EU-hosting, eigene On-Premise-Option.
  • Aleph Alpha: Deutsche KI, nur für große Enterprise-Kunden, DSGVO-konform.

❌ Nicht DSGVO-konforme Tools (ohne Enterprise-Vertrag)

  • ChatGPT Free/Plus: Nutzt Eingaben für Training, US-Server.
  • Gemini Free: Google-Server, Training, Mitarbeiter können Chats einsehen.
  • Perplexity: Nutzt Daten für Training, auch bei Bezahlversionen.
  • Claude Free: Seit August 2025 nutzt Anthropic persönliche Konversationen für Training (laut Studie von CamoCopy, Dezember 2025).

Wichtig: Selbst bei „sicheren” Tools müssen Sie eine DPA (Data Processing Agreement) abschließen. Das ist Pflicht nach Artikel 28 DSGVO. Ohne DPA haften Sie persönlich.

Ergebnis: Sicherheit als Wettbewerbsvorteil

KI-Compliance ist keine lästige Pflichtaufgabe, sondern ein strategisches Werkzeug. Unternehmen, die nachweislich sicher mit KI umgehen, gewinnen das Vertrauen von Großkunden und Partnern, die heute penibel auf ihre Lieferketten-Sicherheit achten.

Ein konkretes Beispiel: Ein mittelständischer IT-Dienstleister aus dem Raum München hat sich 2024 nach ISO 42001 zertifizieren lassen. Das Projekt dauerte sechs Monate, kostete ca. 25.000 € (externe Beratung + Audit). Sechs Monate nach der Zertifizierung gewann das Unternehmen einen Großauftrag über 1,2 Millionen Euro – weil der Kunde explizit nach einem „zertifizierten AI-Partner” gesucht hatte. Der ROI war nach zwei Monaten erreicht.

Wenn Sie die Kontrolle über Ihre Daten behalten und gleichzeitig die enorme Effizienz der Technologie nutzen wollen, müssen Sie den Weg der Professionalisierung gehen. Die Zeit der Experimente ist vorbei – die Zeit der Implementierung hat begonnen.

Ihre nächsten Schritte:

  1. Bestandsaufnahme: Welche KI-Tools werden bereits genutzt? (Fragen Sie Ihre IT, führen Sie eine anonyme Umfrage durch.)
  2. Policy schreiben: Klare Regeln, verständlich formuliert. Nutzen Sie die Vorlage der ISO 42001 als Orientierung.
  3. Tool-Budget festlegen: Rechnen Sie mit 20-50 €/Mitarbeiter/Monat für sichere Enterprise-Tools.
  4. Schulung planen: Mindestens ein halber Tag pro Jahr, idealerweise quartalsweise kurze Updates.
  5. Monitoring aufsetzen: Nutzen Sie Audit Logs und DLP-Tools, um Schatten-KI sichtbar zu machen.

Die Frage ist nicht, ob Ihre Mitarbeiter KI nutzen. Die Frage ist, ob Sie dabei zuschauen – oder die Kontrolle übernehmen.


Quellen

  1. WalkMe (August 2025): AI in the Workplace Survey – 78 % Shadow AI-Nutzung
  2. UpGuard (November 2025): Shadow AI Report – 80 %+ unapproved AI tools
  3. Keepnet (2025): Shadow AI Statistics – 98 % der Organisationen betroffen
  4. Programs.com (Dezember 2025): Shadow AI Costs – 670.000 $ zusätzliche Breach-Kosten
  5. EU AI Act Implementation Timeline (2025): Artikel 4 (AI Literacy), offizielle EU-Quellen
  6. ISO/IEC 42001:2023: AI Management Systems – Internationale Norm
  7. ISACA (Oktober 2025): ISO 42001 und EU AI Act – 76 % planen Implementation
  8. EY (November 2025): Work Reimagined Survey – 50 % finden Guidelines unklar
  9. Reco (2025): State of Shadow AI Report – 269 Tools pro 1.000 Mitarbeiter (kleine Unternehmen)
  10. CamoCopy (Dezember 2025): GDPR Analysis of AI Tools – Claude, ChatGPT, Gemini im Vergleich

Über den Autor

David Mirga ist KI-Stratege, Fachbuchautor und spezialisiert auf die sichere Implementierung von Künstlicher Intelligenz in KMU. Seine Arbeit konzentriert sich auf die Verbindung von Technologie, Datenschutz und Compliance – mit einem klaren Fokus auf Praxistauglichkeit statt Theorie.

Mein Tipp:

Abonniere den KI im Puls Newsletter. Du bekommst professionelle Workflows, praxisnahe Tools und klare Hintergrundinformationen – vieles abseits des Hypes.

Hier anmelden

Falls du mehr zu mir und meinem Weg erfahren willst – und warum gerade ich diesen Artikel schreibe – lies hier meine Geschichte (Über mich)

Was meinst du dazu? Schreib es mir auf: