Häufig gestellte Fragen
Fragen zur MCP Server-Integration, PII-Erkennung, Preisen und Sicherheit. Für die vollständige FAQ-Bibliothek mit 37+ Fragen besuchen Sie anonym.legal/faq.
anonym.legal — entwicklerorientiert. 7 MCP-Tools, 285+ Entitätstypen, 48 Sprachen, 26 Entitätsgruppen, 6 Operatoren. Ideal für einzelne Entwickler, Legal Tech und Teams, die KI-Pipelines mit Textdaten bauen. NPM:
@anthropic-ai/mcp-server-anonym-legal.cloak.business — vollständige Plattform. 10 MCP-Tools, 320+ Entitätstypen, 70+ Länder, Bild-OCR in 38 Sprachen, Batch-Verarbeitung (1–100 Texte pro Aufruf), plus eine Chrome-Erweiterung für browserbasierte KI-Tools. Ideal für Unternehmen, Teams mit visuellen Dokumenten und Organisationen, die Datenschutz auf Browser-Ebene benötigen. NPM:
cloak-business-mcp-server.Beide bieten einen kostenlosen €0-Tarif zum Testen vor der Wahl.
cloak_analyze_image (OCR + PII-Erkennung in 38 Sprachen) und cloak_redact_image (visuelle Redigierung, die schwarze Kästchen über erkannte PII-Regionen zeichnet). Dies macht cloak.business zur Wahl für Arbeitsabläufe mit gescannten Dokumenten, Fotos, Screenshots oder anderen visuellen Daten. anonym.legal verarbeitet nur Text.
cloak_batch_analyze verarbeitet 1–100 Texte in einem einzigen API-Aufruf und reduziert drastisch die Latenz und API-Aufrufs-Overhead für Bulk-Arbeitsabläufe. Es unterstützt auch mehr Entitätstypen (320+ vs 285+) und deckt mehr Länder ab (70+ vs 48 Sprachen). Wenn Sie Textinhalte mit gemäßigtem Volumen verarbeiten, ist die 7-Tool-API von anonym.legal einfacher zu integrieren. Beide starten kostenlos — upgraden Sie nur, wenn Sie höhere Limits benötigen.
anonymize_text-Aufruf — z. B. hash PERSON, encrypt IBAN, mask CREDIT_CARD, redact US_SSN.
anonymize_text mit mode: "tokenize" aufrufen (Standard), gibt der Server eine session_id zurück. Tokens im Text können später über detokenize_text mit dieser session_id wiederhergestellt werden. Es gibt zwei Persistenzstufen: session (Standard) behält Tokens 24 Stunden — geeignet für einzelne Konversations-KI-Sitzungen. persistent behält Tokens 30 Tage — geeignet für langfristige Arbeitsabläufe, juristische Überprüfungen oder Datensätze über mehrere Sitzungen. Sie können alle aktiven Sessions mit list_sessions auflisten und alle mit delete_session löschen zur GDPR-Löschkonformität.
ad_hoc_recognizers-Parameter in sowohl analyze_text als auch anonymize_text. Jeder Recognizer spezifiziert einen entity_type-Namen (z. B. "EMPLOYEE_ID"), ein oder mehrere patterns (Regex + optionaler Zuversichtscore), optionale context-Wörter, die die Erkennungszuversicht erhöhen, und optionale languages zur Umfangsbegrenzung. Bis zu 10 benutzerdefinierte Recognizers pro Anfrage. Dies deckt interne Kennungen, Projektcodes, proprietäre Formate und jegliche domänenspezifische Daten, die Ihre Organisation nutzt und nicht in der Standard-285+-Entitätsbibliothek vorhanden sind.
e2e_mode: true in anonymize_text) verschiebt die Token-Zuordnung auf die Client-Seite. Anstatt dass der Server speichert, welcher Token zu welchem Originalwert zugeordnet ist, gibt der Server die Positionen jeder Entität im Originaltext zurück, und Ihr Client erstellt die Zuordnung lokal. Der Server sieht nur den anonymisierten Text — niemals die PII-Werte oder die Zuordnung. Verwenden Sie E2E-Modus, wenn: Sie in einer Zero-Trust-Umgebung arbeiten, wo selbst die anonym.legal-Server keine Zuordnungen halten dürfen; Sie die Zuordnung mit Ihrem eigenen Schlüssel verschlüsseln müssen; oder Sie ein eigenständiges System bauen, wo der Server nur eine Erkennungs-Engine ist.
<PERSON_1> oder <EMAIL_1> zurückgibt, können diese Tokens wiederhergestellt werden, indem anonym_legal_detokenize_text mit dem Text und der session_id aus der ursprünglichen Anonymisierung aufgerufen wird. In Claude Desktop (stdio-Modus) können Sie Claude anweisen, detokenize_text automatisch als Teil des Antwortverlaufs zu nennen. Der MCP Server interceptiert KI-Antworten nicht automatisch — der detokenize-Aufruf ist explizit. Dieses Design gibt Ihnen Kontrolle über genau wann und ob Werte wiederhergestellt werden.
entity_groups: ["DACH"] ein und alle DE/AT/CH/LI-Kennungen sind automatisch enthalten. Es gibt 26 Gruppen: UNIVERSAL (häufige PII), FINANCIAL (Banking), HEALTHCARE (medizinisch), CORPORATE (Geschäft-IDs), NORTH_AMERICA, DACH, UK_IRELAND, FRANCE, LATIN_AMERICA, NORDIC, ITALY, LUSOPHONE, NETHERLANDS, POLAND, ASIA_PACIFIC, OCEANIA, EASTERN_EUROPE, CENTRAL_EUROPE, BALKANS, BALTIC, SOUTHERN_EUROPE, MIDDLE_EAST, VEHICLE, INSURANCE, LEGAL, EDUCATION. Sie können Gruppen kombinieren — z. B. ["UNIVERSAL", "FINANCIAL", "DACH"] — und einzelne Entitäten obendrauf hinzufügen.
Vibe Coding ist die Praxis, Anwendungen durch natürlichsprachige Intentionsbeschreibungen für KI-Agenten wie Cursor, Claude oder Windsurf zu bauen. Das GDPR-Risiko: Entwickler beziehen routinemäßig echte Kundendaten — Namen, E-Mails, Kontodatensätze, API-Schlüssel — als Kontext ein. Diese Daten werden dann an externe KI-Modell-Provider-Server übertragen. Nach GDPR Art. 5(1)(c) müssen persönliche Daten auf das Notwendigste begrenzt sein. Der MCP Server von anonymize.dev interceptiert jeden Prompt, bevor er Ihre Maschine verlässt, und ersetzt PII mit reversiblen Tokens. Die KI erhält nur Tokens — niemals echte Daten.
Shadow AI bezieht sich auf Mitarbeiter, die nicht genehmigte KI-Tools nutzen — typischerweise über persönliche Konten — außerhalb der IT-Governance. 88% der Organisationen nutzen KI in mindestens einer Geschäftsfunktion, doch fast die Hälfte dieser Nutzer verlassen sich auf persönliche KI-Konten, die außerhalb von Datenverarbeitungsabkommen arbeiten. Dies schafft GDPR-Haftung: es gibt kein Datenverarbeitungsabkommen (DPA), und keine Möglichkeit zu überprüfen, welche Daten gesendet wurden.
Wenn Organisationen genehmigte, datenschutzfreundliche KI-Zugriffe bieten, sinkt nicht autorisierte Tool-Nutzung um 89%. anonymize.dev stellt sicher, dass selbst genehmigte Tools PII korrekt auf der Protokoll-Ebene behandeln.
Der MCP Server operiert auf der Protokoll-Ebene — er interceptiert KI-Prompts, bevor sie ein KI-Modell erreichen, unabhängig davon, ob der Entwickler Claude Desktop, Cursor, VS Code oder ein anderes MCP-kompatibles Tool nutzt. Dies bedeutet, dass PII-Schutz konsistent über alle genehmigten KI-Tools durchgesetzt wird, ohne dass Entwickler manuell ihre Prompts bereinigen müssen.
Für Teams reduziert die Bereitstellung des MCP Server als standardisierte Konfiguration die Anreize zur Nutzung persönlicher KI-Konten: Datenschutz wird automatisch verwaltet, sodass Entwickler mit echtem Kontext arbeiten können, ohne Risiko.
Ja. Die Anforderungen des EU AI Act für hochriskante KI-Systeme werden am 2. August 2026 durchsetzbar. Wichtige Verpflichtungen relevant für KI-gestützte Entwicklung:
- Art. 10 — Daten-Governance: Trainings- und Eingabedaten müssen relevant, repräsentativ und so fehlerfrei wie möglich sein. Die Datenminimierungs-Schicht von anonymize.dev stellt sicher, dass KI-Modelle nur das Notwendigste erhalten.
- Art. 13 — Transparenz: Hochriskante KI-Systeme müssen Eingaben und Ausgaben protokollieren. Die Session-Datensätze von anonymize.dev bieten eine Audit-Spur dessen, was anonymisiert wurde, für welche Entitätstypen und wann.
Kombiniert mit GDPR Art. 25 (Datenschutz durch Design) automatisiert anonymize.dev das Datenminimierungsprinzip auf der Protokoll-Ebene.
GDPR Art. 25 verlangt, dass Datenminimierung und Datenschutz in Systemen nach Design eingebettet sind — nicht nachträglich hinzugefügt. anonymize.dev implementiert dies auf der MCP-Protokoll-Ebene: PII wird entfernt, bevor KI-Verarbeitung beginnt, stellt sicher, dass das KI-System nie mehr persönliche Daten verarbeitet als für die Aufgabe notwendig. Dies ist automatisch — keine Entwickleraktion ist pro Anfrage notwendig.
EU-Server (Hetzner, Deutschland), ISO 27001:2022-Zertifizierung und Zero-Knowledge Session-Modus (wo der Server die Token-zu-Wert-Zuordnung nie im Klartext speichert) bieten die technischen und organisatorischen Maßnahmen, die Art. 32 erfordert.
Ja. Session-Datensätze dokumentieren: welche Entitätstypen erkannt wurden, welche Operatoren angewendet wurden (hash/encrypt/mask/redact/replace), die Session-ID und den Zeitstempel. Diese Protokolle können exportiert werden, um zu demonstrieren, dass Datenminimierung vor KI-Verarbeitung angewendet wurde. Das delete_session-Tool bietet GDPR Art. 17 (Recht auf Löschung) Konformität — dauerhaftes Löschen aller Token-Zuordnungen auf Anfrage.
Hinweis: anonymize.dev deckt die KI-Workflow-Ebene ab. Eine vollständige GDPR-Audit deckt Ihren gesamten Datenverarbeitungs-Bestand — organisatorische Richtlinien, DPAs und DPIAs bleiben Ihre Verantwortung.
Agentic AI bezieht sich auf KI-Systeme, die autonome mehrstufige Aufgaben planen und ausführen — Web-Seiten durchsuchen, Datenbanken abfragen, APIs aufrufen, Code schreiben und ausführen — oft mit minimaler menschlicher Übersicht pro Schritt. Das Datenschutzrisiko ist im Vergleich zu einer einzelnen Chat-Interaktion verstärkt: der Agent kann große Datenmengen über viele Tool-Aufrufe hinweg ansammeln, und menschliche Übersicht jeder einzelnen Aktion ist oft unpraktisch.
Die UK ICO veröffentlichte im Januar 2026 Leitlinien, die speziell agentic AI-Datenschutzverpflichtungen adressieren. anonymize.dev mildert dies, indem sichergestellt wird, dass jeder Prompt und jedes Kontext-Fenster, das das KI-Modell des Agenten eintritt, nur Tokens enthält, nicht echte PII — unabhängig davon, wie viele Tool-Aufrufe der Agent macht.
Wenn Sie Drittanbieter-MCP-Server zu Claude oder Cursor hinzufügen (für Datenbankzugriff, Dateivorgänge, Websuche), gelten Datenschutzschutzmaßnahmen von Anthropic oder Cursor für das KI-Modell — nicht für die MCP Server, die Sie hinzufügen. Die KI kann diese Server anweisen, jegliche Daten im aktuellen Konversations-Kontext zu verarbeiten, einschließlich PII.
anonymize.dev schließt diese Lücke, indem es jeden Prompt auf der MCP-Protokoll-Ebene interceptiert, bevor das KI-Modell — und daher bevor jeder andere MCP Server — es sieht. Andere MCP Server erhalten nur jemals tokenisierte Daten.
Ein Toxic Agent Flow-Angriff tritt auf, wenn bösartiger Inhalt in einer externen Quelle (ein GitHub-Issue, eine Web-Seite, ein Dokument, das der Agent liest) versteckte Anweisungen enthält, die den KI-Agent entführen und veranlassen, Daten über verbundene MCP-Tools exfiltrieren. Ein dokumentiertes Beispiel: Angreifer nutzten GitHub-Issues, um den GitHub MCP Server zu veranlassen, private Repository-Inhalte durchsickern zu lassen.
anonymize.dev begrenzt den Umfang dieses Angriffs: da echte PII durch Tokens ersetzt wurden, bevor der Agent-Kontext aufgebaut wird, enthält jegliche Daten, die via Toxic Agent Flow-Angriff exfiltriert werden, nur Tokens — nicht echte Kundendatensätze, API-Schlüssel oder andere sensible Werte.
Suchen Sie nach mehr Häufig gestellten Fragen? Die vollständige FAQ-Bibliothek behandelt Zero-Knowledge-Auth, GDPR-Konformität, MCP Server, Office Add-in und vieles mehr.
Vollständige FAQ-Bibliothek anzeigen →Bereit, Ihre KI-Arbeitsabläufe zu schützen?
Werden Sie in unter einer Minute mit dem MCP Server aktiv. Kostenlos — keine Kreditkarte erforderlich.