
Löschen bitte! Was das Recht auf Vergessenwerden für KI-Modelle bedeutet

'%3e%3cpath%20d='M26.6667%2020.022L30%2023.3553V26.6886H21.6667V36.6886L20%2038.3553L18.3333%2036.6886V26.6886H10V23.3553L13.3333%2020.022V8.35531H11.6667V5.02197H28.3333V8.35531H26.6667V20.022Z'%20fill='%230AA971'/%3e%3c/g%3e%3c/svg%3e) Die wichtigsten Fakten auf einen Blick
Die wichtigsten Fakten auf einen Blick
- ChatGPT & GPAI: ChatGPT zählt zu den General Purpose AI-Systemen (GPAI) und verarbeitet Nutzereingaben, die häufig personenbezogene Daten enthalten.
- DSGVO-Anforderungen: DSGVO-konforme Nutzung erfordert umfassende Transparenz, Dokumentation aller Datenverarbeitungen und den bewussten Ausschluss sensibler Daten aus den Eingaben.
- Neue Pflichten ab 2. August 2025: Der EU AI Act bringt zusätzliche Anforderungen, insbesondere für Unternehmen, die LLMs wie ChatGPT in interne Prozesse integrieren.
- Herausforderungen: Fehlende Transparenz, komplexe Datenflüsse und unklare Modellverhalten erschweren die Umsetzung von Betroffenenrechten (z. B. Recht auf Vergessenwerden) und erhöhen regulatorische Risiken.
- Governance & Compliance: Unternehmen sollten frühzeitig Governance-Prozesse, Mitarbeiterschulungen und technische Schutzmaßnahmen etablieren, um rechtliche und operationelle Risiken zu minimieren.
- Unterstützung durch heyData: Praxisnahe Risikobewertungen, AI Literacy-Programme und Vorlagen helfen, Datenschutz- und AI-Compliance effizient umzusetzen.
Einleitung: Zwischen Datenschutz und technischer Machbarkeit
KI-Modelle wie ChatGPT, Bilderkennungssysteme oder Bewerber-Scoring-Algorithmen sind längst fester Bestandteil vieler Geschäftsprozesse in Europa. Doch mit der wachsenden Leistungsfähigkeit steigt auch der Druck, datenschutzrechtliche Vorgaben wie das Recht auf Vergessenwerden konsequent umzusetzen. Besonders komplex wird es, wenn personenbezogene Daten nicht nur in Datenbanken, sondern im „gelernten Wissen“ der Modelle selbst stecken. Dieser Leitfaden zeigt, warum das Löschen in der KI-Welt so herausfordernd ist, welche rechtlichen und technischen Fallstricke Unternehmen beachten müssen – und wie sich mit Blick auf den EU AI Act ab August 2025 praxisnahe und DSGVO-konforme Strategien umsetzen lassen.
Inhaltsverzeichnis:
Was besagt das Recht auf Vergessenwerden?
Das „Recht auf Vergessenwerden“ nach Art. 17 DSGVO verpflichtet Unternehmen dazu, personenbezogene Daten auf Wunsch dauerhaft zu löschen – z. B. bei Widerruf einer Einwilligung, Zweckerfüllung oder unrechtmäßiger Verarbeitung.
Relevanz für KI-Systeme:
Viele Unternehmen nutzen personenbezogene Daten zur Verbesserung von Algorithmen – etwa:
- zur Verhaltensanalyse im E-Commerce
- für Chatbots mit personalisierten Antworten
- in Bewerber-Scoring-Systemen
Doch: Wenn diese Daten später gelöscht werden müssen – was passiert mit dem KI-Modell, das darauf trainiert wurde?
Problemstellung: Die DSGVO unterscheidet nicht zwischen einer klassischen Datenbank und einem trainierten Modell. Das führt zu Unsicherheit – denn auch „gelerntes Wissen“ kann personenbezogen sein, wenn es rückführbar ist.
Warum KI-Modelle problematisch sind
Ein KI-Modell „lernt“ durch das Verarbeiten von Trainingsdaten. Dabei entstehen Modellgewichte oder Vektorrepräsentationen, die nicht wie klassische Datensätze strukturiert und löschbar sind.
Beispiel 1 – Chatbot mit CRM-Daten trainiert:
Ein Chatbot wird mit echten Kundenanfragen aus dem CRM trainiert, inklusive Namen, Problemen und Bestellnummern. Selbst wenn die Originaldaten gelöscht werden, bleiben die Muster im Modell.
Beispiel 2 – Bewerbermanagement mit AI:
Eine HR-Software nutzt Bewerberprofile zur Verbesserung des Scorings. Wird ein Bewerber gelöscht, kann das Modell weiterhin dessen Sprachstil oder Kriterienmuster nutzen – indirekt personenbezogen.
Risiko: Wenn diese Daten später rekonstruiert werden können oder maßgeblich in Entscheidungen einfließen, ist das ein Datenschutzverstoß.
Was tun bei einer Löschanfrage?
Wird eine Löschung beantragt, stellt sich die Frage: Muss das KI-Modell neu trainiert oder angepasst werden?
Die DSGVO gibt keine klare Antwort, aber laut Aufsichtsbehörden gilt:
Wenn das trainierte Modell personenbezogene Informationen speichert oder reproduzierbar macht, ist auch das Modell von der Löschpflicht betroffen.
Beispiel aus der Praxis:
Meta wurde bereits von Datenschutzbehörden kritisiert, weil in LLMs (Large Language Models) Trainingsdaten mit personenbezogenen Inhalten nicht mehr vollständig löschbar waren. Es wird zunehmend erwartet, dass KI-Systeme nachvollziehbar und reversibel auf Datenlöschungen reagieren können.
Typische Probleme in Unternehmen:
- Modell wurde mit Live-Kundendaten trainiert, aber kein Protokoll existiert
- Keine Versionierung → man weiß nicht, welche Daten in welchem Modell stecken
• • Löschanfrage betrifft auch Daten, die für Trainingsziele relevant waren
Technische Ansätze
Hier kommen KI-Engineering und Datenschutz zusammen – es gibt technische Optionen, das Recht auf Vergessenwerden in der Praxis zu ermöglichen:
1. Machine Unlearning
Gezieltes Entfernen einzelner Trainingsdaten aus einem Modell, ohne komplettes Retraining.
- Funktioniert gut bei einfachen Modellen (z. B. Entscheidungsbäume)
- Schwieriger bei tiefen neuronalen Netzen
2. Differential Privacy
Modell wird so trainiert, dass keine Rückschlüsse auf Einzeldaten möglich sind.
- Wird von OpenAI, Google, Apple genutzt
- Gut geeignet für aggregierte Datenmengen, aber weniger für individuelle Kontexte
3. Retraining mit Löschliste
Modell wird regelmäßig neu trainiert – ohne gelöschte Daten.
- Sehr zuverlässig
- Aber: aufwendig, teuer, nur für große Unternehmen praktikabel
4. Federated Learning
Daten bleiben dezentral – Modelle lernen lokal und werden zentral zusammengeführt.
- Vorteil: Löschungen sind lokal umsetzbar
- Komplex in der Integration
Tipp: Für Unternehmen mit vielen Datenlöschungen lohnt sich ein „modellzentrierter“ Löschprozess mit automatisierten Audit-Trails und Versionierung.
Was Unternehmen jetzt tun sollten
Die Löschpflicht endet nicht beim CRM oder der Cloud – sie betrifft zunehmend auch algorithmische Systeme. Deshalb brauchen Unternehmen:
1. Privacy by Design für KI-Systeme
- Frühzeitig klären: Welche Daten dürfen verwendet werden?
- Trainingsdaten möglichst pseudonymisieren oder aggregieren
2. Modell-Dokumentation
- Wer hat mit welchen Daten was trainiert?
- Welche Modelle sind im Einsatz? Welche Version enthält welche Daten?
3. Prozess für Löschanfragen
- Interdisziplinär zwischen Datenschutz, IT und Data Science
- Automatisierte Prüfungen, ob Modelle betroffen sind
- Ggf. Modell-Retraining oder Austausch
4. DSFA (Datenschutz-Folgenabschätzung)
- Besonders bei sensiblen Modellen (HR, Gesundheit, Verhalten, Risikoscoring)
- Muss bewerten, ob Betroffenenrechte technisch durchsetzbar sind
Fazit
Das Recht auf Vergessenwerden stellt KI-Entwickler:innen und Unternehmen vor echte Herausforderungen – aber es ist lösbar. Mit dokumentierten Datenflüssen, technischem „Unlearning“ und klaren Verantwortlichkeiten wird auch die KI-Welt DSGVO-fähig.
Unternehmen, die heute KI-Modelle aufbauen, müssen die Reversibilität mitdenken – sonst drohen teure Neu-Trainings, Bußgelder und Imageverlust.
Wichtiger Hinweis: Der Inhalt dieses Artikels dient ausschließlich Informationszwecken und stellt keine Rechtsberatung dar. Die hier bereitgestellten Informationen können eine individuelle Rechtsberatung durch (je nach Anwendungsfall) einen Datenschutzbeauftragten oder Rechtsanwalt nicht ersetzen. Wir übernehmen keine Gewähr für die Aktualität, Vollständigkeit und Richtigkeit der bereitgestellten Informationen. Jegliche Handlungen, die auf Grundlage der in diesem Artikel enthaltenen Informationen vorgenommen werden, erfolgen auf eigenes Risiko. Wir empfehlen, bei rechtlichen Fragen oder Problemen stets (je nach Anwendungsfall) einen Datenschutzbeauftragten oder Rechtsanwalt zu konsultieren.


