KI nutzen, ohne Datenschutz zu opfern
Jedes Team das KI mit echten Daten nutzen will, steht vor der gleichen Frage: Wie bleibt das DSGVO-konform? Die Antwort ist Pseudonymisierung.
Personenbezogene Daten in KI-Anfragen sind ein DSGVO-Risiko. Pseudonymisierung ersetzt sensible Daten durch Platzhalter, bevor sie das KI-Modell erreichen — und stellt sie in der Antwort wieder her. Noirdoc macht das automatisch.
Warum KI und Datenschutz ein Problem sind
Support-Tickets enthalten Kundennamen und E-Mail-Adressen. HR-Dokumente haben Gehaltsdaten und Sozialversicherungsnummern. Verträge stecken voller Firmennamen und Steuer-IDs.
Wenn du diese Daten in ChatGPT oder ein anderes KI-Modell eingibst, werden sie auf externen Servern verarbeitet — meistens in den USA. Das ist ein potenzieller DSGVO-Verstoß, unabhängig davon was die Datenschutzrichtlinie des Anbieters sagt.
Die meisten Unternehmen lösen das Problem, indem sie KI verbieten. Oder indem sie wegschauen. Beides ist keine Lösung.
Wie Pseudonymisierung das Problem löst
Pseudonymisierung ersetzt personenbezogene Daten durch konsistente Platzhalter — bevor sie den KI-Anbieter erreichen. "Lisa Müller" wird zu <<PERSON_1>>, "l.mueller@acme.de" zu <<EMAIL_1>>.
Das KI-Modell arbeitet mit den Platzhaltern. Die Qualität der Antwort bleibt gleich — aber echte Daten erreichen nie das KI-Modell.
In der Antwort setzt Noirdoc die Originaldaten automatisch wieder ein. Du merkst keinen Unterschied, aber dein Datenschutzbeauftragter schläft besser.
So sieht das in der Praxis aus
Erstelle eine Zahlungsbestätigung für Müller & Söhne GmbH, IBAN DE89 3704 0044 0532 0130 00, Steuer-ID DE123456789.
Erstelle eine Zahlungsbestätigung für <
Drei Schritte. Null Exposition.
Jede Anfrage wird bereinigt, bevor sie das Modell erreicht. Jede Antwort automatisch wiederhergestellt.
Erkennen & ersetzen
Namen, E-Mail-Adressen, Telefonnummern, IBANs — aber auch Firmennamen, Orte, Steuernummern und URLs. Automatisch erkannt und durch Platzhalter wie <<PERSON_1>> oder <<ORG_1>> ersetzt.
Weiterleiten
Die bereinigte Anfrage geht an das KI-Modell. Es sieht ausschließlich pseudonymisierte Daten.
Wiederherstellen
Platzhalter in der Antwort werden durch die Originaldaten ersetzt. Du liest Klartext — das Modell hat ihn nie gesehen.
Session-State bleibt erhalten: <<PERSON_1>> referenziert dieselbe Person — über die gesamte Konversation hinweg.