Die KI-Datenleck-Krise

Im Oktober 2025 veröffentlichte LayerX Security Erkenntnisse, die jeden CISO alarmieren sollten: 77% der Mitarbeiter geben Daten in GenAI-Tools ein, wobei 82% dieser Aktivität über nicht verwaltete persönliche Konten erfolgt.

Noch besorgniserregender: GenAI ist nun für 32% aller Datenabflüsse in Unternehmen verantwortlich — was sie zum #1-Vektor für nicht autorisierte Datenbewegung im Unternehmen macht.

Dies ist kein zukünftiges Problem. Es passiert gerade jetzt, jeden Tag, in Ihrer Organisation.

Die Zahlen sind erschreckend

Erkenntnis Daten Quelle
Mitarbeiter, die Daten in KI einfügen 77% LayerX 2025
Datenabfluss über KI-Tools 32% LayerX 2025
ChatGPT-Nutzung über nicht verwaltete Konten 67% LayerX 2025
Täglich eingefügte Daten über persönliche Konten 14/Mitarbeiter LayerX 2025
Einfügungen mit sensiblen Daten 3+/Tag LayerX 2025

Im Durchschnitt führen Mitarbeiter täglich 14 Einfügungen über persönliche Konten durch, von denen mindestens drei sensible Daten enthalten. Traditionelle DLP-Tools, die auf dateibasierter Überwachung aufbauen, registrieren diese Aktivität nicht einmal.

Warum KI-Verbote nicht funktionieren

Samsung versuchte, ChatGPT zu verbieten, nachdem Mitarbeiter Quellcode geleakt hatten. Es funktionierte nicht.

Die Realität ist, dass KI-Tools Mitarbeiter erheblich produktiver machen. Laut Forschung erledigen Entwickler, die KI-Assistenten verwenden, Aufgaben 55% schneller. Wenn Sie KI verbieten, werden Mitarbeiter entweder:

  1. Sie trotzdem nutzen über persönliche Konten (67% tun dies bereits)
  2. Produktivität verlieren und frustriert werden
  3. Zu Konkurrenten wechseln, die KI unterstützen

Die Antwort ist nicht Verbot — es ist Schutz.

Der Chrome-Erweiterungs-Datenleck mit 900.000 Nutzern

Im Dezember 2025 entdeckte OX Security zwei böswillige Chrome-Erweiterungen, die ChatGPT- und DeepSeek-Gespräche von über 900.000 Nutzern gestohlen hatten.

Eine dieser Erweiterungen hatte Googles „Featured"-Abzeichen — das angebliche Vertrauenszeichen.

Die Erweiterungen funktioniert durch:

  • Echtzeitabfangen von Chat-Gesprächen
  • Lokale Speicherung von Daten auf den Computern der Opfer
  • Exfiltration in Batches zu Command-and-Control-Servern alle 30 Minuten

Noch schlimmer: Eine separate Untersuchung fand „kostenlose VPN"-Erweiterungen mit über 8 Millionen Downloads, die AI-Gespräche seit Juli 2025 abgefangen hatten.

Die Lösung: Vor der Übermittlung abfangen

Der einzige Weg, KI sicher zu nutzen und gleichzeitig sensible Daten zu schützen, ist: PII anonymisieren, bevor es das KI-Modell erreicht.

Dies ist genau das, was die Chrome-Erweiterung von cloak.business und beide MCP Server (anonym.legal und cloak.business) tun:

Chrome-Erweiterung (cloak.business)

  • Fängt Text ab, bevor Sie ihn an ChatGPT, Claude oder Gemini senden
  • Erkennt und anonymisiert automatisch PII (Namen, E-Mails, Sozialversicherungsnummern usw.)
  • Ersetzt sensible Daten mit Tokens: „John Smith" → „[PERSON_1]"
  • De-anonymisiert KI-Antworten, damit Sie die ursprünglichen Namen sehen

MCP Server (für Entwickler)

  • Integriert mit Claude Desktop, Cursor und VS Code
  • Transparenter Proxy — Sie interagieren normal mit KI
  • PII wird anonymisiert, bevor Prompts das Modell erreichen
  • Funktioniert mit Ihren bestehenden Arbeitsabläufen
JSON — claude_desktop_config.json
{
  "mcpServers": {
    "anonym-legal": {
      "command": "npx",
      "args": ["-y", "@anthropic-ai/mcp-server-anonym-legal"],
      "env": {
        "ANONYM_API_KEY": "your-api-key"
      }
    }
  }
}

Was wird geschützt

Beide Tools erkennen und anonymisieren 285+ Entitätstypen über 48 Sprachen:

  • Persönlich: Namen, E-Mail-Adressen, Telefonnummern, Geburtsdaten
  • Finanziell: Kreditkartennummern, Bankkonten, IBANs
  • Behördlich: Sozialversicherungsnummern, Passportnummern, Führerscheine
  • Gesundheitswesen: Krankenaktennummern, Patienten-IDs
  • Unternehmens: Mitarbeiter-IDs, interne Kontonummern

Selbst wenn Ihr KI-Chat-Verlauf kompromittiert ist (wie bei jenen 900.000 Nutzern), gibt es keine verwertbare PII — nur anonymisierte Tokens.

Die Kosten der Untätigkeit

Bedenken Sie, was gefährdet ist:

  • Finanzdaten, die zur Analyse in KI eingegeben werden
  • Kundeninformationen in Support-Abfragen verwendet
  • Quellcode zum Debuggen freigegeben
  • Rechtliche Dokumente von KI zusammengefasst
  • Gesundheitsdaten für Erkenntnisse verarbeitet

Ein einzelner Datenleck kostet durchschnittlich $4,88 Millionen (IBM 2024). Der durchschnittliche Gesundheitsdatenleck kostet nun $7,42 Millionen (IBM 2025) — weit über allen anderen Branchen.

Der MCP Server ist in Pro-Plänen ab €15/Monat enthalten.

Fazit

KI ist hier, um zu bleiben. Ihre Mitarbeiter nutzen sie bereits — die Frage ist, ob sie dies sicher tun.

Die LayerX-Erkenntnisse machen deutlich: Traditionelle Sicherheitsansätze sind blind für KI-Datenabflüsse. Sie benötigen speziell entwickelte Tools zum Schutz von Daten, bevor sie KI-Modelle erreichen.

Quellen