Die KI-Datenleck-Krise
Im Oktober 2025 veröffentlichte LayerX Security Erkenntnisse, die jeden CISO alarmieren sollten: 77% der Mitarbeiter geben Daten in GenAI-Tools ein, wobei 82% dieser Aktivität über nicht verwaltete persönliche Konten erfolgt.
Noch besorgniserregender: GenAI ist nun für 32% aller Datenabflüsse in Unternehmen verantwortlich — was sie zum #1-Vektor für nicht autorisierte Datenbewegung im Unternehmen macht.
Dies ist kein zukünftiges Problem. Es passiert gerade jetzt, jeden Tag, in Ihrer Organisation.
Die Zahlen sind erschreckend
| Erkenntnis | Daten | Quelle |
|---|---|---|
| Mitarbeiter, die Daten in KI einfügen | 77% | LayerX 2025 |
| Datenabfluss über KI-Tools | 32% | LayerX 2025 |
| ChatGPT-Nutzung über nicht verwaltete Konten | 67% | LayerX 2025 |
| Täglich eingefügte Daten über persönliche Konten | 14/Mitarbeiter | LayerX 2025 |
| Einfügungen mit sensiblen Daten | 3+/Tag | LayerX 2025 |
Im Durchschnitt führen Mitarbeiter täglich 14 Einfügungen über persönliche Konten durch, von denen mindestens drei sensible Daten enthalten. Traditionelle DLP-Tools, die auf dateibasierter Überwachung aufbauen, registrieren diese Aktivität nicht einmal.
Warum KI-Verbote nicht funktionieren
Samsung versuchte, ChatGPT zu verbieten, nachdem Mitarbeiter Quellcode geleakt hatten. Es funktionierte nicht.
Die Realität ist, dass KI-Tools Mitarbeiter erheblich produktiver machen. Laut Forschung erledigen Entwickler, die KI-Assistenten verwenden, Aufgaben 55% schneller. Wenn Sie KI verbieten, werden Mitarbeiter entweder:
- Sie trotzdem nutzen über persönliche Konten (67% tun dies bereits)
- Produktivität verlieren und frustriert werden
- Zu Konkurrenten wechseln, die KI unterstützen
Die Antwort ist nicht Verbot — es ist Schutz.
Der Chrome-Erweiterungs-Datenleck mit 900.000 Nutzern
Im Dezember 2025 entdeckte OX Security zwei böswillige Chrome-Erweiterungen, die ChatGPT- und DeepSeek-Gespräche von über 900.000 Nutzern gestohlen hatten.
Eine dieser Erweiterungen hatte Googles „Featured"-Abzeichen — das angebliche Vertrauenszeichen.
Die Erweiterungen funktioniert durch:
- Echtzeitabfangen von Chat-Gesprächen
- Lokale Speicherung von Daten auf den Computern der Opfer
- Exfiltration in Batches zu Command-and-Control-Servern alle 30 Minuten
Noch schlimmer: Eine separate Untersuchung fand „kostenlose VPN"-Erweiterungen mit über 8 Millionen Downloads, die AI-Gespräche seit Juli 2025 abgefangen hatten.
Die Lösung: Vor der Übermittlung abfangen
Der einzige Weg, KI sicher zu nutzen und gleichzeitig sensible Daten zu schützen, ist: PII anonymisieren, bevor es das KI-Modell erreicht.
Dies ist genau das, was die Chrome-Erweiterung von cloak.business und beide MCP Server (anonym.legal und cloak.business) tun:
Chrome-Erweiterung (cloak.business)
- Fängt Text ab, bevor Sie ihn an ChatGPT, Claude oder Gemini senden
- Erkennt und anonymisiert automatisch PII (Namen, E-Mails, Sozialversicherungsnummern usw.)
- Ersetzt sensible Daten mit Tokens: „John Smith" → „[PERSON_1]"
- De-anonymisiert KI-Antworten, damit Sie die ursprünglichen Namen sehen
MCP Server (für Entwickler)
- Integriert mit Claude Desktop, Cursor und VS Code
- Transparenter Proxy — Sie interagieren normal mit KI
- PII wird anonymisiert, bevor Prompts das Modell erreichen
- Funktioniert mit Ihren bestehenden Arbeitsabläufen
{
"mcpServers": {
"anonym-legal": {
"command": "npx",
"args": ["-y", "@anthropic-ai/mcp-server-anonym-legal"],
"env": {
"ANONYM_API_KEY": "your-api-key"
}
}
}
}
Was wird geschützt
Beide Tools erkennen und anonymisieren 285+ Entitätstypen über 48 Sprachen:
- Persönlich: Namen, E-Mail-Adressen, Telefonnummern, Geburtsdaten
- Finanziell: Kreditkartennummern, Bankkonten, IBANs
- Behördlich: Sozialversicherungsnummern, Passportnummern, Führerscheine
- Gesundheitswesen: Krankenaktennummern, Patienten-IDs
- Unternehmens: Mitarbeiter-IDs, interne Kontonummern
Selbst wenn Ihr KI-Chat-Verlauf kompromittiert ist (wie bei jenen 900.000 Nutzern), gibt es keine verwertbare PII — nur anonymisierte Tokens.
Die Kosten der Untätigkeit
Bedenken Sie, was gefährdet ist:
- Finanzdaten, die zur Analyse in KI eingegeben werden
- Kundeninformationen in Support-Abfragen verwendet
- Quellcode zum Debuggen freigegeben
- Rechtliche Dokumente von KI zusammengefasst
- Gesundheitsdaten für Erkenntnisse verarbeitet
Ein einzelner Datenleck kostet durchschnittlich $4,88 Millionen (IBM 2024). Der durchschnittliche Gesundheitsdatenleck kostet nun $7,42 Millionen (IBM 2025) — weit über allen anderen Branchen.
Der MCP Server ist in Pro-Plänen ab €15/Monat enthalten.
Fazit
KI ist hier, um zu bleiben. Ihre Mitarbeiter nutzen sie bereits — die Frage ist, ob sie dies sicher tun.
Die LayerX-Erkenntnisse machen deutlich: Traditionelle Sicherheitsansätze sind blind für KI-Datenabflüsse. Sie benötigen speziell entwickelte Tools zum Schutz von Daten, bevor sie KI-Modelle erreichen.