Microsoft Copilot liest Ihre Office-Dokumente.
Was das für GDPR bedeutet.
Microsoft 365 Copilot ist bei schätzungsweise 70% der Fortune-500-Unternehmen implementiert. Wenn ein Benutzer Copilot in Word, Excel oder Outlook aufruft, wird der gesamte Dokumentkontext oder der E-Mail-Thread als Kontext an Microsoft's Azure OpenAI Service übertragen. Wenn dieses Dokument personenbezogene Daten enthält – Kundennamen, medizinische Unterlagen, Finanzdetails, HR-Akten – gelten die Datenschutzpflichten nach GDPR. Hier ist, was Legal- und Entwicklungsteams wissen müssen.
Wie Copilot Ihre Dokumentdaten verarbeitet
Wenn Sie Copilot bitten, ein Word-Dokument zusammenzufassen, einen Antwort-Entwurf in Outlook zu verfassen oder ein Diagramm aus Excel-Daten zu generieren, erhält der KI-Assistent den relevanten Dokumentinhalt als Teil seines Prompt-Kontexts. Dieser Kontext wird an Azure OpenAI Service – Microsoft's gehostete Large Language Model-Infrastruktur – zur Verarbeitung übertragen.
Microsoft's Datenverarbeitungsdokumentation bestätigt, dass Dokumentinhalte, die mit Copilot verwendet werden, von Azure OpenAI Service unter dem Microsoft Products and Services Data Protection Addendum (DPA) verarbeitet werden. Das bedeutet, Copilot fungiert als Auftragsverarbeiter gemäß GDPR Art. 4(8) – eine juristische Person, die personenbezogene Daten im Auftrag des Verantwortlichen (Ihrer Organisation) verarbeitet.
"Die Verarbeitung durch einen Auftragsverarbeiter wird durch einen Vertrag oder ein anderes Rechtsinstrument nach dem Recht der Union oder der Mitgliedstaaten geregelt... Der Vertrag muss festlegen... dass der Auftragsverarbeiter personenbezogene Daten nur auf dokumentierte Weisung des Verantwortlichen verarbeitet."
Für die meisten Organisationen mit aktiven Microsoft 365 Enterprise-Vereinbarungen ist die DPA bereits vorhanden – sie ist Teil der Standard-Lizenzbedingungen. Aber die bloße Existenz einer DPA macht die Copilot-Nutzung nicht automatisch GDPR-konform. Der Verantwortliche (Ihre Organisation) bleibt verantwortlich, um sicherzustellen, dass:
- Eine rechtmäßige Rechtsgrundlage für die Verarbeitung besteht (GDPR Art. 6)
- Besondere Kategorien personenbezogener Daten (Gesundheit, biometrische Daten, politische Überzeugungen – Art. 9) mit zusätzlichen Schutzmaßnahmen behandelt werden
- Datensparsamkeit angewandt wird – nur notwendige Daten erreichen Copilot (Art. 5(1)(c))
- Vorkehrungen für internationale Transfers vorhanden sind, wenn die Azure-Verarbeitung außerhalb des EWR erfolgt (Art. 44)
Wo Copilot Compliance-Risiken schafft: fünf Szenarien
1. HR-Dateien in Word
Ein HR-Manager nutzt Copilot, um eine Mitarbeiterbewertung zu entwerfen, Disziplinarmaßnahmen zusammenzufassen oder einen Bericht aus einer Kalkulationstabelle mit Gehaltsdaten zu generieren. Das Dokument enthält Namen, nationale Identifikationsnummern, Gesundheitsinformationen oder Gewerkschaftszugehörigkeit – alles besondere Kategorien personenbezogener Daten gemäß GDPR Art. 9.
Die Verarbeitung von Daten besonderer Kategorien erfordert ausdrückliche Zustimmung oder eine der Ausnahmen in Art. 9(2). Die Verwendung von Copilot zur Verarbeitung solcher Daten erfordert, dass die DPA die Verarbeitung von Daten besonderer Kategorien explizit abdeckt – was Standard-Microsoft-DPAs tun, aber viele Organisationen nicht speziell für Copilot-Workflows überprüft haben.
2. Kundenverträge in Word
Ein Rechtsteam nutzt Copilot, um einen Kundenvertrag zu überarbeiten, Schlüsselbegriffe zu extrahieren oder eine Zusammenfassung zu generieren. Der Vertrag enthält personenbezogene Daten des Kunden: Name, Adresse, E-Mail, möglicherweise Finanzinformationen. Die Weitergabe an Azure OpenAI zur Verarbeitung stellt eine Datenverarbeitung im Auftrag des Verantwortlichen dar – mit dem Kunden als betroffene Person.
Wenn Ihre Datenschutzerklärung nicht offenbart, dass Kundendaten möglicherweise durch KI-Services verarbeitet werden, und Ihre Kundenverträge nicht Unterauftragsverarbeitung vorsehen, erzeugt dies einen Verstoß gegen Transparenzverpflichtungen nach Art. 13/14.
3. Patientenakten in Excel
Eine Gesundheitsorganisation nutzt Copilot, um Patientenergebnisdaten in Excel zu analysieren, Compliance-Berichte zu generieren oder Diagramme für klinische Präsentationen zu erstellen. Gesundheitsdaten sind nach Art. 9 eine besondere Kategorie. Die Verarbeitung mit Copilot erfordert sowohl die Standard-DPA als auch die Einhaltung geltender Gesetze zur Gesundheitsdatenverarbeitung (z.B. UK DSPT, deutsches BDSG).
4. Finanzdaten über Jurisdiktionen hinweg
Ein Finanzbuchhaltungsteam nutzt Copilot, um Kalkulationstabellen mit Kontonummern, Transaktionshistorien oder Steuerkennziffern zu verarbeiten. Azure OpenAI Service kann diese Daten je nach Tenant-Konfiguration in US-amerikanischen Rechenzentren verarbeiten. Nach GDPR Kapitel V erfordern internationale Transfers entweder einen Angemessenheitsbeschluss oder Standard-Vertragsklauseln (SCCs).
Microsoft's DPA umfasst SCCs für internationale Transfers, aber Organisationen müssen überprüfen, dass ihre spezifische Azure-Regionskonfiguration EU-Daten innerhalb des EWR hält – oder dass das anwendbare SCC-Framework ihren Anwendungsfall abdeckt.
5. E-Mail-Threads in Outlook Copilot
Copilot in Outlook kann E-Mail-Threads zusammenfassen, Antworten entwerfen und Korrespondenz analysieren. E-Mail-Threads enthalten häufig unstrukturierte personenbezogene Daten – Namen, Kontaktdetails, Verhandlungsbegriffe, informell geteilte Gesundheitsinformationen. Diese Daten gelangen ohne strukturierte Datenbehandlungsüberprüfung in Copilot's Kontext.
Das zentrale Compliance-Problem: Die meisten Organisationen haben Microsoft 365 Copilot ohne eine spezifische Datenschutz-Folgenabschätzung (DSFA) für KI-gestützte Dokumentverarbeitung implementiert. Eine DSFA ist gemäß GDPR Art. 35 erforderlich, wenn die Verarbeitung „neue Technologien einsetzt" und „wahrscheinlich ein hohes Risiko mit sich bringt" – Bedingungen, die Enterprise-KI eindeutig erfüllt.
Copilot's integrierte Datenschutzkontrollen: was sie abdecken (und nicht)
Microsoft bietet mehrere Datengovernance-Kontrollen für Copilot:
- Zero Data Retention (ZDR): Prompts und Antworten werden nicht über die Sitzung hinaus beibehalten. Verfügbar für Enterprise-Tenants mit Verpflichtungen zum Schutz kommerzieller Daten.
- Sensitivitätskennzeichnungen: Microsoft Information Protection-Kennzeichnungen können einschränken, auf welche Dokumente Copilot zugreifen darf.
- Beschränkter SharePoint-Zugang: Copilot respektiert bestehende SharePoint-Berechtigungen – es kann nicht auf Dokumente zugreifen, auf die der Benutzer nicht zugreifen kann.
- EU-Datengrenzen: Verfügbar für einige Microsoft 365-Services – hält Verarbeitung und Speicherung innerhalb der EU für berechtigte Tenants.
Diese Kontrollen befassen sich mit Speicherung und Zugriffsfokus. Sie befassen sich nicht mit der Content-Ebene: Auch wenn ZDR aktiviert ist, wird der Dokumentinhalt (inklusive aller Daten) noch immer während der Sitzung an Azure OpenAI zur Verarbeitung gesendet. Die Frage ist nicht, ob Copilot Ihre Daten speichert – sie ist, ob das Senden von Dokumenten reich an Daten an eine Cloud-KI zur Verarbeitung für Ihre Datenklassifizierung und Rechtsgrundlage angemessen ist.
Der Datensparsamkeitsansatz: anonymisieren vor dem Prompt
Der direkteste Weg, die Copilot-Nutzung in GDPR-Konformität zu bringen – ohne dessen Nutzen einzuschränken – ist, Datensparsamkeit auf Dokumentebene anzuwenden, bevor Copilot aufgerufen wird. Dies ist genau das, wofür das anonymize.dev Office Add-in entwickelt wurde.
- Dokument wird mit echten Namen, IDs und sensiblen Daten an Azure OpenAI gesendet
- GDPR Art. 5(1)(c) Datensparsamkeit nicht erfüllt
- DSFA erforderlich – oft übersprungen
- Risiko internationaler Transfers bei Nicht-EWR-Verarbeitung
- Daten besonderer Kategorien (Gesundheit, HR) erreichen Cloud-KI
- Personenbezogene Daten werden mit strukturierten Platzhaltern vor Copilot-Aufrufen ersetzt
- Art. 5(1)(c) Datensparsamkeit strukturell erfüllt
- DSFA-Umfang reduziert – keine identifizierbaren Daten in KI-Verarbeitung
- Kein internationales Transferrisiko – keine personenbezogenen Daten übertragen
- Copilot arbeitet an anonymisiertem Text, volle Ausgabequalität erhalten
Der Workflow ist: (1) Öffnen Sie Ihr Dokument, (2) verwenden Sie das Add-in, um personenbezogene Daten zu anonymisieren – Namen werden zu [PERSON_1], E-Mails zu [EMAIL_1], Kontonummern zu [IBAN_1], (3) rufen Sie Copilot für das anonymisierte Dokument auf, (4) stellen Sie echte Daten mit einem Klick wieder her, indem Sie den verschlüsselten Zuordnungsspeicher des Add-ins verwenden.
Copilot arbeitet mit vollem Kontext und generiert gleich nützliche Ergebnisse – es verarbeitet nur bereinigten, anonymisierten Text anstelle von identifizierbaren personenbezogenen Daten. Das Einzige, das Copilot nicht sieht, sind die personenbezogenen Daten, die es von vornherein nicht sehen musste.
Was das für Ihre DSFA bedeutet
Wenn Ihre Organisation keine DSFA für die Nutzung von Microsoft 365 Copilot durchgeführt hat, erfordern die folgenden Verarbeitungsaktivitäten eine Überprüfung:
- Dokumenttypen im Geltungsbereich: Bestandsaufnahme, welche Dokumentkategorien routinemäßig geöffnet werden, während Copilot aktiv ist. HR-Dateien, Kundenverträge und medizinische Unterlagen erfordern unterschiedliche DSFA-Behandlung als interne Prozessdokumentation.
- Betroffene Datensubjekte: Kartografieren Sie, welche Kategorien von Datensubjekten ihre Daten an Copilot übermitteln – Mitarbeiter, Kunden, Patienten, potenzielle Kunden. Jede Kategorie kann unterschiedliche rechtmäßige Grundlagen und Transparenzverpflichtungen haben.
- Unterauftragsverarbeiter-Kette: Dokumentieren Sie, dass Azure OpenAI Service ein Unterauftragsverarbeiter unter Ihrer Microsoft DPA ist, und dass Verpflichtungen zur Benachrichtigung von Unterauftragsverarbeitern gegenüber Datensubjekten erfüllt sind (oder durch die Verarbeitungsmitteilung abgedeckt).
- Behandlung residualer Risiken: Dokumentieren Sie für Verarbeitungskategorien mit hohem Risiko (Art. 9 Daten besonderer Kategorien, großflächige Profilerstellung) die angewandten technischen Kontrollen – einschließlich Anonymisierung auf Dokumentebene – als Minderungsmaßnahmen, die residuale Risiken auf akzeptable Niveaus reduzieren.
EU-KI-Verordnung Schnittstellenbereiche: Ab 2. August 2026 werden KI-Systeme, die in HR-Entscheidungsfindung, Kreditbewertung, Gesundheitswesen oder Strafverfolgung eingesetzt werden, nach Anlage III der EU-KI-Verordnung als hochriskant klassifiziert. Microsoft 365 Copilot in diesen Kontexten erfordert Konformitätsbewertungen und technische Dokumentation, einschließlich Nachweis von Datenqualitätskontrollen. Anonymisierung auf Dokumentebene ist eine konkrete technische Kontrolle, die in der Konformitätsdokumentation zitiert werden kann.
Praktische Schritte für GDPR-konforme Copilot-Nutzung
- Führen Sie eine Copilot-spezifische DSFA durch – nutzen Sie Microsoft's KI-Readiness-Assessment-Vorlagen als Ausgangspunkt und erweitern Sie diese auf Ihre spezifischen Dokumentkategorien und Datensubjekte.
- Aktivieren Sie EU-Datengrenzen für Tenants mit Datensubjekten im EWR, wenn verfügbar unter Ihrer Lizenzierungsstufe.
- Überprüfen Sie Sensitivitätskennzeichnungen – stellen Sie sicher, dass Dokumente mit Art. 9-Daten besonderer Kategorien Kennzeichnungen haben, die entweder den Copilot-Zugang einschränken oder Anonymisierung vor KI-Nutzung erzwingen.
- Implementieren Sie das anonymize.dev Office Add-in für Teamangehörige, die regelmäßig mit hochsensiblen Dokumenten arbeiten – HR, rechtlich, Finanzen, Gesundheitswesen. Schulen Sie sie im Anonymisierungs-dann-Prompt-Workflow.
- Aktualisieren Sie Ihre Datenschutzerklärung, um KI-gestützte Dokumentverarbeitung als eine Verarbeitungsaktivität offenzulegen, nennen Sie Azure OpenAI Service (Microsoft) als Unterauftragsverarbeiter und beschreiben Sie die angewandten Kontrollen.
- Schulen Sie Mitarbeiter darüber, welche Dokumenttypen Anonymisierung vor der Copilot-Nutzung erfordern. Klassifizierungsbasierte Richtlinien ("verwenden Sie Copilot nie auf Dokumenten mit der Kennzeichnung Vertraulich ohne vorherige Anonymisierung") sind praktischer als pauschale Einschränkungen.
Quellen
GDPR – Verordnung (EU) 2016/679. Art. 5 (Datensparsamkeit), Art. 6 (Rechtsgrundlage), Art. 9 (besondere Kategorien), Art. 13/14 (Transparenz), Art. 25 (Datenschutz durch Gestaltung), Art. 28 (Auftragsverarbeiter), Art. 32 (Sicherheit), Art. 35 (DSFA), Art. 44 (internationale Transfers). gdpr-info.eu
Microsoft Products and Services Data Protection Addendum (DPA) – Microsoft Corporation. Verfügbar unter microsoft.com
EU-KI-Verordnung – Verordnung (EU) 2024/1689. Anlage III hochriskante KI-Systeme. eur-lex.europa.eu
88% der Organisationen verwenden KI-Tools – McKinsey Global AI Survey 2024. McKinsey & Company.
Microsoft EU-Datengrenzen – Microsoft-Dokumentation. microsoft.com
Verwandte Artikel
Enterprise
Shadow AI 2026: Wie Entwickler Unternehmensdaten preisgeben
Nicht genehmigte KI-Tools und sechs Wege, wie Unternehmensdaten verloren gehen.
Compliance
EU-KI-Verordnung August 2026 Entwickler-Checkliste
Hochrisiko-KI-Bestimmungen, GPAI-Verpflichtungen und die August-Frist.
OWASP
OWASP Agentic AI Top 10: Risiken und Mitigationen personenbezogener Daten
Speichervergiftung, Missbrauch von Werkzeugen und Datenexfiltrationrisiken.
GDPR-konforme Copilot-Nutzung beginnt mit dem Add-in
Anonymisieren Sie personenbezogene Daten in Ihren Office-Dokumenten, bevor Copilot diese verarbeitet. Volle Ausgabequalität. Keine personenbezogenen Daten im Azure OpenAI-Kontext.