Häufig gestellte Fragen

Häufig gestellte Fragen

Fragen zur MCP Server-Integration, PII-Erkennung, Preisen und Sicherheit. Für die vollständige FAQ-Bibliothek mit 37+ Fragen besuchen Sie anonym.legal/faq.

Produktauswahl
Beide Produkte basieren auf der gleichen Microsoft Presidio-basierten Erkennungs-Engine mit ISO 27001:2022-Zertifizierung und deutschen Servern (Hetzner). Die Hauptunterschiede:

anonym.legal — entwicklerorientiert. 7 MCP-Tools, 285+ Entitätstypen, 48 Sprachen, 26 Entitätsgruppen, 6 Operatoren. Ideal für einzelne Entwickler, Legal Tech und Teams, die KI-Pipelines mit Textdaten bauen. NPM: @anthropic-ai/mcp-server-anonym-legal.

cloak.business — vollständige Plattform. 10 MCP-Tools, 320+ Entitätstypen, 70+ Länder, Bild-OCR in 38 Sprachen, Batch-Verarbeitung (1–100 Texte pro Aufruf), plus eine Chrome-Erweiterung für browserbasierte KI-Tools. Ideal für Unternehmen, Teams mit visuellen Dokumenten und Organisationen, die Datenschutz auf Browser-Ebene benötigen. NPM: cloak-business-mcp-server.

Beide bieten einen kostenlosen €0-Tarif zum Testen vor der Wahl.
Ja — cloak.business ist das Produkt mit Bildfunktionen. Es bietet zwei dedizierte MCP-Tools: cloak_analyze_image (OCR + PII-Erkennung in 38 Sprachen) und cloak_redact_image (visuelle Redigierung, die schwarze Kästchen über erkannte PII-Regionen zeichnet). Dies macht cloak.business zur Wahl für Arbeitsabläufe mit gescannten Dokumenten, Fotos, Screenshots oder anderen visuellen Daten. anonym.legal verarbeitet nur Text.
Für hochvolumige Dokument-Pipelines ist cloak.business besser geeignet. Das Tool cloak_batch_analyze verarbeitet 1–100 Texte in einem einzigen API-Aufruf und reduziert drastisch die Latenz und API-Aufrufs-Overhead für Bulk-Arbeitsabläufe. Es unterstützt auch mehr Entitätstypen (320+ vs 285+) und deckt mehr Länder ab (70+ vs 48 Sprachen). Wenn Sie Textinhalte mit gemäßigtem Volumen verarbeiten, ist die 7-Tool-API von anonym.legal einfacher zu integrieren. Beide starten kostenlos — upgraden Sie nur, wenn Sie höhere Limits benötigen.
MCP Server-Integration
Der MCP (Model Context Protocol) Server von anonym.legal integriert sich direkt in KI-Codierungstools wie Claude und Cursor und interceptiert Text vor der Übertragung an den KI-Anbieter. Der Server erkennt automatisch API-Schlüssel, Datenbankzugangsdaten, Umgebungsvariablen und proprietäre Codemuster. Der MCP Server funktioniert als Middleware-Schicht — Entwickler nutzen ihre KI-Tools normal, während PII und Geheimnisse in Echtzeit entfernt werden.
Der MCP Server interceptiert Vertragstext, bevor er Claude erreicht, und erkennt und ersetzt automatisch Kundennamen, Adressen, finanzielle Vereinbarungen und fallspezifische Kennungen durch anonymisierte Tokens. Anwälte arbeiten normal mit der KI — die Anonymisierung ist transparent und die reversible Verschlüsselungsfunktion (auf kostenpflichtigen Plänen) ermöglicht das Wiederherstellen von Originalinformationen in der KI-Antwort. Dies erfüllt Anforderungen der Anwalt-Mandanten-Vertraulichkeit, während KI-gestützte juristische Arbeit ermöglicht wird.
Anstatt KI-Tools vollständig zu verbieten (was Shadow IT-Nutzung fördert), bieten der MCP Server (sowohl anonym.legal als auch cloak.business) und die Chrome-Erweiterung von cloak.business technische Kontrollen, die PII und proprietäre Daten entfernen, bevor sie KI-Anbieter erreichen. Mitarbeiter nutzen ChatGPT, Claude und andere Tools normal, während sensible Daten automatisch interceptiert und anonymisiert werden. Dieser Ansatz ermöglicht KI-Produktivitätsgewinne während Unternehmens-Sicherheitsanforderungen erfüllt werden.
Der MCP Server von anonym.legal integriert sich als Middleware-Schicht zwischen Ihrer Codierungsumgebung und dem KI-Anbieter und erkennt automatisch API-Schlüssel, Verbindungszeichenfolgen, JWT-Tokens, AWS-Zugangsdaten und andere Geheimnisse, bevor sie übertragen werden. Der Server läuft lokal und verarbeitet die Abfangung in Echtzeit, ohne Ihren Entwicklungs-Workflow zu verlangsamen.
Eine praktische GenAI DLP-Lösung kombiniert Browser-Schutz (cloak.business Chrome-Erweiterung für ChatGPT, Gemini, DeepSeek, Perplexity) mit Entwickler-Tool-Integration (MCP Server — anonym.legal oder cloak.business — für Claude, Cursor) und Dokument-Schutz (Office Add-in für Word, auf beiden Produkten verfügbar). Beide Produkte teilen EU-gehostete (Deutschland) Infrastruktur mit Erkennung von 285–320+ Entitätstypen in 48+ Sprachen, bevor Daten irgendeinen KI-Anbieter erreichen.
Der MCP Server (anonym.legal oder cloak.business) läuft als lokale Middleware, die KI-Tool-Anfragen interceptiert, PII und Geheimnisse entfernt und nur bereinigte Inhalte an KI-Anbieter weiterleitet. Die gesamte PII-Erkennung nutzt EU-gehostete APIs (Deutschland, Hetzner) — keine sensiblen Daten werden an Drittanbieter-KI-Provider gesendet. Für browserbasierte KI-Tools bietet die Chrome-Erweiterung von cloak.business das gleiche Schutzniveau, ohne dass Entwickler ihren Arbeitsablauf ändern müssen.
Diese Art von Vorfall erfordert drei Schutzebenen: Browser-Interception (Chrome-Erweiterung), KI-Tool-Integration (MCP Server) und Netzwerk-Kontrollen. Die Chrome-Erweiterung von cloak.business erkennt PII im Zwischenablage-Inhalt, bevor es KI-Chatbots erreicht, während der MCP Server (anonym.legal oder cloak.business) den gleichen Schutz für Entwickler-KI-Tools bietet. Alle Produkte erkennen Namen, SSNs, Adressen und andere PII in Echtzeit vor der Übermittlung.
MCP-Operatoren & Erweiterte Nutzung
Operatoren steuern, wie jeder Entitätstyp anonymisiert wird. Es gibt 6: replace ersetzt mit einer benutzerdefinierten Bezeichnung wie [CLIENT]; redact entfernt den Wert vollständig; hash (SHA-256 oder SHA-512) erzeugt einen deterministischen unidirektionalen Fingerabdruck, nützlich zur Deduplizierung; encrypt (AES-256) verschlüsselt den Wert mit einem von Ihnen bereitgestellten Schlüssel — reversibel nur für Schlüsselhalter; mask versteckt eine konfigurierbare Anzahl von Zeichen von Anfang oder Ende; keep übergibt die Entität unverändert. Sie konfigurieren diese pro Entitätstyp in einem einzigen anonymize_text-Aufruf — z. B. hash PERSON, encrypt IBAN, mask CREDIT_CARD, redact US_SSN.
Wenn Sie anonymize_text mit mode: "tokenize" aufrufen (Standard), gibt der Server eine session_id zurück. Tokens im Text können später über detokenize_text mit dieser session_id wiederhergestellt werden. Es gibt zwei Persistenzstufen: session (Standard) behält Tokens 24 Stunden — geeignet für einzelne Konversations-KI-Sitzungen. persistent behält Tokens 30 Tage — geeignet für langfristige Arbeitsabläufe, juristische Überprüfungen oder Datensätze über mehrere Sitzungen. Sie können alle aktiven Sessions mit list_sessions auflisten und alle mit delete_session löschen zur GDPR-Löschkonformität.
Ja — verwenden Sie den ad_hoc_recognizers-Parameter in sowohl analyze_text als auch anonymize_text. Jeder Recognizer spezifiziert einen entity_type-Namen (z. B. "EMPLOYEE_ID"), ein oder mehrere patterns (Regex + optionaler Zuversichtscore), optionale context-Wörter, die die Erkennungszuversicht erhöhen, und optionale languages zur Umfangsbegrenzung. Bis zu 10 benutzerdefinierte Recognizers pro Anfrage. Dies deckt interne Kennungen, Projektcodes, proprietäre Formate und jegliche domänenspezifische Daten, die Ihre Organisation nutzt und nicht in der Standard-285+-Entitätsbibliothek vorhanden sind.
E2E-Modus (e2e_mode: true in anonymize_text) verschiebt die Token-Zuordnung auf die Client-Seite. Anstatt dass der Server speichert, welcher Token zu welchem Originalwert zugeordnet ist, gibt der Server die Positionen jeder Entität im Originaltext zurück, und Ihr Client erstellt die Zuordnung lokal. Der Server sieht nur den anonymisierten Text — niemals die PII-Werte oder die Zuordnung. Verwenden Sie E2E-Modus, wenn: Sie in einer Zero-Trust-Umgebung arbeiten, wo selbst die anonym.legal-Server keine Zuordnungen halten dürfen; Sie die Zuordnung mit Ihrem eigenen Schlüssel verschlüsseln müssen; oder Sie ein eigenständiges System bauen, wo der Server nur eine Erkennungs-Engine ist.
Wenn Claude oder eine andere KI eine Antwort mit Tokens wie <PERSON_1> oder <EMAIL_1> zurückgibt, können diese Tokens wiederhergestellt werden, indem anonym_legal_detokenize_text mit dem Text und der session_id aus der ursprünglichen Anonymisierung aufgerufen wird. In Claude Desktop (stdio-Modus) können Sie Claude anweisen, detokenize_text automatisch als Teil des Antwortverlaufs zu nennen. Der MCP Server interceptiert KI-Antworten nicht automatisch — der detokenize-Aufruf ist explizit. Dieses Design gibt Ihnen Kontrolle über genau wann und ob Werte wiederhergestellt werden.
Entitätsgruppen sind vordefinierte Sammlungen verwandter Entitätstypen. Anstatt alle 20+ deutschen Kennungen einzeln aufzulisten, geben Sie entity_groups: ["DACH"] ein und alle DE/AT/CH/LI-Kennungen sind automatisch enthalten. Es gibt 26 Gruppen: UNIVERSAL (häufige PII), FINANCIAL (Banking), HEALTHCARE (medizinisch), CORPORATE (Geschäft-IDs), NORTH_AMERICA, DACH, UK_IRELAND, FRANCE, LATIN_AMERICA, NORDIC, ITALY, LUSOPHONE, NETHERLANDS, POLAND, ASIA_PACIFIC, OCEANIA, EASTERN_EUROPE, CENTRAL_EUROPE, BALKANS, BALTIC, SOUTHERN_EUROPE, MIDDLE_EAST, VEHICLE, INSURANCE, LEGAL, EDUCATION. Sie können Gruppen kombinieren — z. B. ["UNIVERSAL", "FINANCIAL", "DACH"] — und einzelne Entitäten obendrauf hinzufügen.
Entitätserkennung & Sprachen
anonym.legal erkennt 285+ PII-Entitätstypen in 48 Sprachen. Dies umfasst persönliche Daten (Namen, E-Mails, Telefonnummern), finanzielle Daten (Kreditkarten, IBANs), Regierungs-IDs (SSN, Pass, Führerschein), technische Kennungen (IP-Adressen, API-Schlüssel), Gesundheitsdaten und landesspezifische Kennungen wie brasilianische CPF, indische PAN und Aadhaar, deutsche Steuer-ID, französisches NIR, nordische Personnummers und vieles mehr.
Nein — die 285+ Entitätstypen von anonym.legal umfassen brasilianische CPF, indische PAN und Aadhaar, alle EU-IBAN-Formate und Dutzende weitere landesspezifische Kennungen mit integrierter Checksummen-Validierung. Das Formatwissen und die Validierungslogik jedes Landes wird vom anonym.legal-Team gepflegt, sodass Organisationen mit globalen Operationen umfassende Abdeckung von einem einzigen Tool erhalten, ohne benutzerdefinierte Regex-Entwicklung.
Vanilla Presidio mit seinen ~55 Standard-Entitätstypen über-passt oft in technischen Kontexten, da es kontextbewusste Filterung fehlt. anonym.legal erweitert Presidio mit 285+ Entitätstypen und einem hybriden dreistufigen Erkennungsansatz — Regex für strukturierte Muster, NLP für semantische Entitäten und Kreuzvalidierung zwischen Stufen — der falsche Positive in Protokolldateien, Code und technischen Dokumenten drastisch reduziert, während hohe Trefferquoten für echte PII erhalten bleiben.
Die meisten PII-Tools sind englischzentrisch — eine deutsche Steuer-ID (11 Ziffern mit Checksumme), französisches NIR (15 Ziffern) oder polnisches PESEL haben einzigartige Formate, die generische Regex-Muster vollständig verpassen. anonym.legal nutzt einen dreistufigen Erkennungs-Stack: spaCy-Sprachnative Modelle für 25 hochressourcige europäische Sprachen, Stanza für 7 zusätzliche Sprachen und XLM-RoBERTa-multilinguale Transformer für 16 niedrigressourcige Sprachen. Mit 285+ Entitätstypen einschließlich DACH-, nordischer und osteuropäischer Kennungen funktioniert GDPR-konformes Erkennung über alle EU-Mitgliedstaaten.
Preise & Pläne
anonym.legal bietet vier Pläne: Kostenlos (200 Tokens/Monat, €0), Basic (1.000 Tokens/Zyklus, €3), Pro (4.000 Tokens/Zyklus, €15), Business (10.000 Tokens/Zyklus, €29). MCP Server ist auf allen Plänen verfügbar. Token-Kosten variieren je nach Betrieb: anonymize_text kostet 3–20+ Tokens, analyze_text kostet 2–10+ Tokens. Die meisten einzelnen Entwickler bleiben auf Basic bei €3/Monat.
Tokens werden pro API-Operation verbraucht. analyze_text kostet 2–10+ Tokens (je nach Textlänge und Entitätsanzahl), anonymize_text kostet 3–20+ Tokens, detokenize_text kostet 1–5+ Tokens. Management-Operationen (get_balance, estimate_cost, list_sessions, delete_session) sind kostenlos. Ein Token entspricht ungefähr 4 Zeichen analysierten Text.
Ja — der MCP Server ist in Pro- und Business-Plänen verfügbar. Pro (€15/Monat, 4.000 Tokens/Zyklus) deckt die meisten Entwickler-Arbeitsabläufe ab. Business (€29/Monat, 10.000 Tokens/Zyklus) ist ideal für Teams.
Vibe Coding & Shadow AI

Vibe Coding ist die Praxis, Anwendungen durch natürlichsprachige Intentionsbeschreibungen für KI-Agenten wie Cursor, Claude oder Windsurf zu bauen. Das GDPR-Risiko: Entwickler beziehen routinemäßig echte Kundendaten — Namen, E-Mails, Kontodatensätze, API-Schlüssel — als Kontext ein. Diese Daten werden dann an externe KI-Modell-Provider-Server übertragen. Nach GDPR Art. 5(1)(c) müssen persönliche Daten auf das Notwendigste begrenzt sein. Der MCP Server von anonymize.dev interceptiert jeden Prompt, bevor er Ihre Maschine verlässt, und ersetzt PII mit reversiblen Tokens. Die KI erhält nur Tokens — niemals echte Daten.

Shadow AI bezieht sich auf Mitarbeiter, die nicht genehmigte KI-Tools nutzen — typischerweise über persönliche Konten — außerhalb der IT-Governance. 88% der Organisationen nutzen KI in mindestens einer Geschäftsfunktion, doch fast die Hälfte dieser Nutzer verlassen sich auf persönliche KI-Konten, die außerhalb von Datenverarbeitungsabkommen arbeiten. Dies schafft GDPR-Haftung: es gibt kein Datenverarbeitungsabkommen (DPA), und keine Möglichkeit zu überprüfen, welche Daten gesendet wurden.

Wenn Organisationen genehmigte, datenschutzfreundliche KI-Zugriffe bieten, sinkt nicht autorisierte Tool-Nutzung um 89%. anonymize.dev stellt sicher, dass selbst genehmigte Tools PII korrekt auf der Protokoll-Ebene behandeln.

Der MCP Server operiert auf der Protokoll-Ebene — er interceptiert KI-Prompts, bevor sie ein KI-Modell erreichen, unabhängig davon, ob der Entwickler Claude Desktop, Cursor, VS Code oder ein anderes MCP-kompatibles Tool nutzt. Dies bedeutet, dass PII-Schutz konsistent über alle genehmigten KI-Tools durchgesetzt wird, ohne dass Entwickler manuell ihre Prompts bereinigen müssen.

Für Teams reduziert die Bereitstellung des MCP Server als standardisierte Konfiguration die Anreize zur Nutzung persönlicher KI-Konten: Datenschutz wird automatisch verwaltet, sodass Entwickler mit echtem Kontext arbeiten können, ohne Risiko.

EU AI Act & Konformität

Ja. Die Anforderungen des EU AI Act für hochriskante KI-Systeme werden am 2. August 2026 durchsetzbar. Wichtige Verpflichtungen relevant für KI-gestützte Entwicklung:

  • Art. 10 — Daten-Governance: Trainings- und Eingabedaten müssen relevant, repräsentativ und so fehlerfrei wie möglich sein. Die Datenminimierungs-Schicht von anonymize.dev stellt sicher, dass KI-Modelle nur das Notwendigste erhalten.
  • Art. 13 — Transparenz: Hochriskante KI-Systeme müssen Eingaben und Ausgaben protokollieren. Die Session-Datensätze von anonymize.dev bieten eine Audit-Spur dessen, was anonymisiert wurde, für welche Entitätstypen und wann.

Kombiniert mit GDPR Art. 25 (Datenschutz durch Design) automatisiert anonymize.dev das Datenminimierungsprinzip auf der Protokoll-Ebene.

GDPR Art. 25 verlangt, dass Datenminimierung und Datenschutz in Systemen nach Design eingebettet sind — nicht nachträglich hinzugefügt. anonymize.dev implementiert dies auf der MCP-Protokoll-Ebene: PII wird entfernt, bevor KI-Verarbeitung beginnt, stellt sicher, dass das KI-System nie mehr persönliche Daten verarbeitet als für die Aufgabe notwendig. Dies ist automatisch — keine Entwickleraktion ist pro Anfrage notwendig.

EU-Server (Hetzner, Deutschland), ISO 27001:2022-Zertifizierung und Zero-Knowledge Session-Modus (wo der Server die Token-zu-Wert-Zuordnung nie im Klartext speichert) bieten die technischen und organisatorischen Maßnahmen, die Art. 32 erfordert.

Ja. Session-Datensätze dokumentieren: welche Entitätstypen erkannt wurden, welche Operatoren angewendet wurden (hash/encrypt/mask/redact/replace), die Session-ID und den Zeitstempel. Diese Protokolle können exportiert werden, um zu demonstrieren, dass Datenminimierung vor KI-Verarbeitung angewendet wurde. Das delete_session-Tool bietet GDPR Art. 17 (Recht auf Löschung) Konformität — dauerhaftes Löschen aller Token-Zuordnungen auf Anfrage.

Hinweis: anonymize.dev deckt die KI-Workflow-Ebene ab. Eine vollständige GDPR-Audit deckt Ihren gesamten Datenverarbeitungs-Bestand — organisatorische Richtlinien, DPAs und DPIAs bleiben Ihre Verantwortung.

Agentic AI & MCP-Sicherheit

Agentic AI bezieht sich auf KI-Systeme, die autonome mehrstufige Aufgaben planen und ausführen — Web-Seiten durchsuchen, Datenbanken abfragen, APIs aufrufen, Code schreiben und ausführen — oft mit minimaler menschlicher Übersicht pro Schritt. Das Datenschutzrisiko ist im Vergleich zu einer einzelnen Chat-Interaktion verstärkt: der Agent kann große Datenmengen über viele Tool-Aufrufe hinweg ansammeln, und menschliche Übersicht jeder einzelnen Aktion ist oft unpraktisch.

Die UK ICO veröffentlichte im Januar 2026 Leitlinien, die speziell agentic AI-Datenschutzverpflichtungen adressieren. anonymize.dev mildert dies, indem sichergestellt wird, dass jeder Prompt und jedes Kontext-Fenster, das das KI-Modell des Agenten eintritt, nur Tokens enthält, nicht echte PII — unabhängig davon, wie viele Tool-Aufrufe der Agent macht.

Wenn Sie Drittanbieter-MCP-Server zu Claude oder Cursor hinzufügen (für Datenbankzugriff, Dateivorgänge, Websuche), gelten Datenschutzschutzmaßnahmen von Anthropic oder Cursor für das KI-Modell — nicht für die MCP Server, die Sie hinzufügen. Die KI kann diese Server anweisen, jegliche Daten im aktuellen Konversations-Kontext zu verarbeiten, einschließlich PII.

anonymize.dev schließt diese Lücke, indem es jeden Prompt auf der MCP-Protokoll-Ebene interceptiert, bevor das KI-Modell — und daher bevor jeder andere MCP Server — es sieht. Andere MCP Server erhalten nur jemals tokenisierte Daten.

Ein Toxic Agent Flow-Angriff tritt auf, wenn bösartiger Inhalt in einer externen Quelle (ein GitHub-Issue, eine Web-Seite, ein Dokument, das der Agent liest) versteckte Anweisungen enthält, die den KI-Agent entführen und veranlassen, Daten über verbundene MCP-Tools exfiltrieren. Ein dokumentiertes Beispiel: Angreifer nutzten GitHub-Issues, um den GitHub MCP Server zu veranlassen, private Repository-Inhalte durchsickern zu lassen.

anonymize.dev begrenzt den Umfang dieses Angriffs: da echte PII durch Tokens ersetzt wurden, bevor der Agent-Kontext aufgebaut wird, enthält jegliche Daten, die via Toxic Agent Flow-Angriff exfiltriert werden, nur Tokens — nicht echte Kundendatensätze, API-Schlüssel oder andere sensible Werte.

Suchen Sie nach mehr Häufig gestellten Fragen? Die vollständige FAQ-Bibliothek behandelt Zero-Knowledge-Auth, GDPR-Konformität, MCP Server, Office Add-in und vieles mehr.

Vollständige FAQ-Bibliothek anzeigen →

Bereit, Ihre KI-Arbeitsabläufe zu schützen?

Werden Sie in unter einer Minute mit dem MCP Server aktiv. Kostenlos — keine Kreditkarte erforderlich.