DSGVO-konforme KI-Anwendungen: Datenschutz, Rollen und technische Grenzen richtig planen
DSGVO-Konformität bei KI ist kein Häkchen am Ende, sondern eine Architekturentscheidung: Datenminimierung, Zweckbindung, Auftragsverarbeitung, EU-Hosting, Löschbarkeit und menschliche Prüfung — von Anfang an.

Die häufigste Frage zu KI und Datenschutz lautet: „Dürfen wir das überhaupt?" Die ehrlichere Frage ist: „Wie bauen wir es so, dass die Antwort verlässlich ja ist?"
DSGVO-Konformität bei KI-Anwendungen entsteht nicht durch einen Haftungsausschluss im Footer. Sie entsteht durch Architekturentscheidungen, die vor der ersten Zeile Code getroffen werden. Dieser Artikel zeigt, welche das sind.
Der Denkfehler: Compliance als letzter Schritt
Viele KI-Projekte behandeln Datenschutz wie eine Endabnahme. Das funktioniert nicht, weil die kritischen Weichen früh gestellt werden: welche Daten in das System fließen, wo sie verarbeitet werden, wer auf die Ausgabe zugreift und ob man sie wieder löschen kann.
Ist diese Architektur einmal gebaut, ist Datenschutz nachträglich teuer bis unmöglich. Datenschutz ist deshalb eine Designentscheidung, kein Prüfschritt.
Die fünf Stellschrauben, die in die Architektur gehören
1. Datenminimierung und Zweckbindung
Nicht der gesamte Datenbestand muss in ein KI-System. Nur die Felder, die der konkrete Anwendungsfall braucht — und ausschließlich für diesen Zweck. „Wir laden alles hoch, vielleicht braucht es das Modell" ist die teuerste und riskanteste Variante. Ein interner Wissensassistent etwa sollte einen klar begrenzten, berechtigten Wissensraum haben, nicht „alle Dokumente" (siehe Interner Wissensassistent mit KI).
2. Auftragsverarbeitung und Hosting-Region
Wenn ein externer Dienst personenbezogene Daten verarbeitet, ist das Auftragsverarbeitung — mit Vertrag, dokumentierten Unterauftragsverarbeitern und einer klaren Hosting-Region. Bei personenbezogenen oder vertraulichen Daten ist EU-Hosting kein Komfortmerkmal, sondern Teil der Architektur. „Wo läuft das Modell, wo liegt der Index" ist eine Datenschutzfrage, keine Infrastrukturfußnote.
3. Rollen- und Rechtekonzept
KI darf nicht zur schnellsten Methode werden, an Daten zu kommen, die man sonst nie gefunden hätte. Wenn Rechte des Quellsystems nicht in die KI-Schicht mitwandern, wird ein Assistent zum Datenschutzrisiko mit guter UX. Berechtigung muss bei jedem Zugriff greifen, nicht nur im Menü.
4. Löschbarkeit
Ein Recht auf Löschung ist nur real, wenn das System vergessen kann. Wird ein Quelldokument gelöscht, muss es aus Index, Cache und abgeleiteten Daten verschwinden. Ein KI-System, das strukturell nicht vergessen kann, ist nicht DSGVO-konform — egal, was die Datenschutzerklärung sagt.
5. Menschliche Prüfung und Nachvollziehbarkeit
Bei Entscheidungen mit Wirkung auf Menschen ist Human-in-the-Loop kein Disclaimer, sondern eine Schutzmaßnahme. Dazu gehört Nachvollziehbarkeit: Welche Daten flossen ein, was wurde vorgeschlagen, wer hat freigegeben. Ohne diese Spur lässt sich weder Rechenschaft ablegen noch ein Vorfall erkennen.
DSGVO und AI Act sind zwei Ebenen — beide gelten
Die DSGVO regelt den Umgang mit personenbezogenen Daten. Der EU AI Act ergänzt das um risikobasierte Pflichten für KI-Systeme und tritt gestaffelt in Kraft: Pflichten für General-Purpose-KI gelten seit dem 2. August 2025, Transparenzpflichten ab August 2026, Anforderungen an bestimmte Hochrisiko-Systeme über 2026 bis 2027.
Für die Praxis heißt das: Ein Entwurfsassistent ist anders einzuordnen als ein System, das über Menschen entscheidet. Diese Einordnung gehört in die Pilotvorbereitung — nicht ans Ende. Wer früh fragt „ist dieser Anwendungsfall regulatorisch sensibel?", spart später teure Rückbauten. Der NIST-Rahmen zum KI-Risikomanagement bietet dafür eine praktikable Struktur (Govern, Map, Measure, Manage).
Was „DSGVO-konform" konkret nicht bedeutet
- Nicht: ein Satz in der Datenschutzerklärung.
- Nicht: „die Daten sind ja anonymisiert" ohne zu prüfen, ob sie es wirklich sind.
- Nicht: „der Anbieter ist DSGVO-konform" ohne Auftragsverarbeitungsvertrag und Hosting-Klarheit.
- Nicht: ein einmaliger Check, der nie wiederholt wird.
DSGVO-Konformität ist ein nachweisbarer Zustand der Architektur, kein Versprechen.
Checkliste vor dem KI-Projekt
- Sind welche Daten für welchen Zweck definiert — minimiert, nicht „alles"?
- Ist die Hosting-Region und Auftragsverarbeitung geklärt (EU bei personenbezogenen Daten)?
- Wandern die Zugriffsrechte der Quellsysteme in die KI-Schicht mit?
- Kann das System löschen — aus Index, Cache und abgeleiteten Daten?
- Gibt es menschliche Prüfung bei wirksamen Entscheidungen und ein Protokoll?
- Wurde der Anwendungsfall regulatorisch eingeordnet (DSGVO + AI-Act-Risiko)?
- Ist die Konformität nachweisbar dokumentiert, nicht nur behauptet?
Häufige Fragen
Dürfen wir personenbezogene Daten überhaupt in ein KI-System geben? Oft ja — mit Rechtsgrundlage, Datenminimierung, Auftragsverarbeitung, EU-Hosting und Löschbarkeit. Die Frage ist nicht „ob", sondern „unter welchen Bedingungen". Eine fachliche/rechtliche Einordnung gehört in die Vorbereitung.
Reicht Anonymisierung? Nur wenn sie echt ist. Pseudonyme, die sich zurückführen lassen, sind keine Anonymisierung. Das ist eine Prüf-, keine Annahmefrage.
Brauchen wir ein eigenes Modell für DSGVO-Konformität? Nicht zwingend. Entscheidend sind Datenfluss, Hosting-Region, Rechte und Löschbarkeit — nicht das Modell-Logo.
Wer trifft die regulatorische Einordnung? Niemand allein: Fachbereich (Zweck), Technik (Datenfluss/Architektur) und eine Datenschutz-Sicht — vor dem Bau, nicht danach.
Fazit
DSGVO-konforme KI ist kein Häkchen am Projektende. Sie ist die Summe früher Architekturentscheidungen: minimierte Daten, klare Zweckbindung, geklärte Auftragsverarbeitung und EU-Hosting, mitwandernde Rechte, echte Löschbarkeit und menschliche Prüfung mit Protokoll. Wer das von Anfang an plant, kann die Frage „dürfen wir das?" verlässlich mit ja beantworten — und es belegen.
Weiterlesen
- Interner Wissensassistent mit KI: Dokumente und Projektwissen schneller finden — DSGVO konkret an einem realen KI-Anwendungsfall.
- AI Readiness Check: 12 Fragen, bevor Ihr Unternehmen mit KI startet — Datenschutz ist Teil der Readiness, nicht ein Nachgedanke.
Nächster Schritt
Sie planen eine KI-Funktion mit personenbezogenen oder vertraulichen Daten? Beginnen Sie mit einem AI-Readiness-Check, der Datenfluss, Hosting und Rechte von Anfang an einordnet — bevor Architektur entsteht, die sich nur teuer korrigieren lässt.
Quellen
- Europäische Kommission, Gelten die DSGVO-Regeln für KMU? — commission.europa.eu
- EDPB, Practical resources for SMEs — edpb.europa.eu
- Europäische Kommission, AI Act — digital-strategy.ec.europa.eu
- NIST, AI Risk Management Framework — nist.gov