Hol dir kostenlose Expertentipps zum KI-Gesetz

Meta AI: Wenn deine Daten plötzlich zum KI-Futter werden

Was passiert, wenn ein Tech-Gigant wie Meta Milliarden von Nutzerdaten für seine KI nutzt – ohne klare Zustimmung?
Während viele über die Fortschritte in der Künstlichen Intelligenz (KI) staunen, wirft Meta mit seinem jüngsten Schritt in Richtung „KI überall“ eine zentrale Frage auf: Wie sicher sind unsere Daten noch, wenn sie zur Trainingsbasis für Algorithmen werden – ohne dass wir es wissen?
Inhaltsverzeichnis:
Meta AI und die Datenfrage: Was genau passiert da gerade?
Meta (ehemals Facebook) plant, seine KI-Modelle mit Inhalten zu trainieren, die Nutzer:innen auf Facebook und Instagram geteilt haben – darunter Texte, Bilder, Reaktionen. Wichtig: Es werden ausschließlich öffentliche Inhalte von erwachsenen Nutzer:innen (ab 18 Jahren) verwendet. Inhalte von Minderjährigen sind explizit ausgeschlossen. Private Nachrichten und nicht-öffentliche Beiträge sind ebenfalls nicht betroffen.
Die Neuerung wird nicht etwa still eingeführt, sondern öffentlich beworben. Trotzdem bleibt die zentrale Frage: Wurden die Betroffenen jemals wirklich gefragt?
Einwilligung? Nicht bei Meta.
Anstatt sich die Erlaubnis der Nutzer:innen einzuholen, stützt sich Meta auf die Rechtsgrundlage des „berechtigten Interesses“. Das mag aus Unternehmenssicht bequem sein – doch aus Sicht des Datenschutzes ist es hoch problematisch. Die DSGVO fordert eine faire, transparente und freiwillige Verarbeitung personenbezogener Daten. Und davon ist hier nicht viel zu sehen.
Kritik aus ganz Europa
Organisationen wie noyb und der BEUC (Europäischer Verbraucherschutzverband) schlagen Alarm. Sie haben Beschwerden gegen Meta eingereicht – wegen mangelnder Transparenz und einem Aushebeln der Datenschutzgrundrechte. Auch in der Öffentlichkeit wächst der Druck: Nutzer:innen wollen Kontrolle über ihre Daten – gerade im Kontext von KI.
Hinter den Kulissen: Wie genau Meta deine Daten für KI nutzt
Meta verwendet ausschließlich öffentlich zugängliche Inhalte von Erwachsenen – wie Fotos, Captions, Likes, Kommentare – um KI-Modelle zu trainieren. Inhalte von Minderjährigen sowie private Nachrichten werden ausdrücklich nicht genutzt.
Was viele nicht wissen: Auch Inhalte, die „nur“ für Freunde gepostet wurden, gelten nicht als öffentlich und sind daher nach aktuellen Angaben von Meta ausgenommen.
Datenschützer weisen darauf hin, dass die technische Abgrenzung zwischen „öffentlich“ und „eingeschränkt sichtbar“ (zum Beispiel „nur für Freunde“) nicht immer eindeutig ist. Es besteht Unsicherheit, ob in Einzelfällen auch solche Inhalte betroffen sein könnten. Meta betont jedoch offiziell, dass ausschließlich wirklich öffentliche Inhalte für das KI-Training verwendet werden.
Kritisch ist auch die Intransparenz: Nutzer:innen müssen ein mehrstufiges Formular ausfüllen, um der Datennutzung zu widersprechen – mit unklarem Ergebnis.
Wie du der Datenverarbeitung für Meta AI widersprechen kannst
Für alle, die ihre Daten nicht für Metas KI verwendet wissen wollen, gibt es eine – wenn auch versteckte – Möglichkeit zum Widerspruch:
- Rufe die spezielle Seite zur Datennutzung auf: Meta AI Opt-out
- Wähle das Formular „Einwand gegen die Verwendung meiner Daten“.
- Gib die erforderlichen Daten ein (Name, Land, E-Mail-Adresse).
- Bestätige deine Identität per Code.
Meta informiert Nutzer:innen aktiv über die neue Praxis – sowohl per App-Benachrichtigung als auch per E-Mail. In diesen Mitteilungen ist ein direkter Link zum Opt-out-Formular enthalten. Der Prozess ist bewusst umständlich gestaltet – doch es lohnt sich, ihn zu kennen.
Hol dir kostenlose Expertentipps zum KI-Gesetz
DSGVO vs. Big Tech: Warum „berechtigtes Interesse“ hier nicht ausreicht
Der Knackpunkt: Meta behauptet, dass es im „berechtigten Interesse“ liegt, KI-Modelle zu verbessern – und nutzt das als Rechtsgrundlage. Doch laut DSGVO ist das nur zulässig, wenn die Interessen der betroffenen Person nicht überwiegen. Bei so sensiblen Daten (Gesichtserkennung, Familienfotos, persönliche Aussagen) ist das höchst fragwürdig.
Datenschutzexperten warnen: „Das Vorgehen von Meta steht im direkten Widerspruch zur europäischen Datenschutzphilosophie – und könnte als Präzedenzfall enden.“
Wichtig: Die endgültige Bewertung durch die zuständigen Datenschutzbehörden steht noch aus. Es laufen Beschwerden und Prüfverfahren, insbesondere durch die irische Datenschutzbehörde (DPC) und auf europäischer Ebene. Die Rechtslage ist also noch nicht abschließend geklärt.
Was Unternehmen jetzt tun sollten – und wie heyData dabei hilft
Viele Unternehmen nutzen KI – oft unbewusst mit datenverarbeitenden Tools von Drittanbietern. Der Fall Meta zeigt: Transparenz, Kontrolle und dokumentierte Einwilligungen sind Pflicht.
heyData unterstützt Unternehmen konkret bei:
- Sofortiges Audit-Tool zur Risikoklassifizierung deiner KI-Systeme
- Individuelle Roadmap mit Handlungsempfehlungen aus dem EU-KI-Gesetz
- Team-Schulungen für verantwortungsvollen KI-Einsatz & laufende Compliance-Sicherung
- Automatisierte rechtskonforme Dokumentation – wir übernehmen die Compliance-Last für dich
Use Case: KI-Projekt mit Datenschutz by Design
Ein mittelständisches Unternehmen aus der Finanzbranche wollte KI nutzen, um automatisierte Kundenanalysen durchzuführen. Mit Hilfe von heyData wurden die Datenflüsse dokumentiert, eine Datenschutz-Folgenabschätzung (DSFA) durchgeführt und klare Opt-in-Mechanismen eingerichtet. Ergebnis: Die Lösung war nicht nur rechtskonform, sondern wurde auch von den Kund:innen positiv aufgenommen – ein echter Vertrauensvorteil.
Zukunft & Trends: Was regulatorisch auf uns zukommt
Mit dem EU AI Act entstehen neue Regeln für KI-Modelle – insbesondere bei biometrischen Daten, algorithmischer Entscheidungsfindung und Transparenzpflichten. Unternehmen, die heute auf Privacy-by-Design setzen, sind morgen klar im Vorteil. Auch auf internationaler Ebene (z. B. in Kanada oder Kalifornien) wird das Thema stark reguliert.
KI und Datenschutz weltweit: Ein Vergleich
- Kalifornien (CCPA/CPRA): Erlaubt Widerspruch gegen automatisierte Entscheidungsfindung
- Kanada (CPPA): Verpflichtet Unternehmen zu risikobasierten Bewertungen von KI-Systemen
- China: Führt Registrierungs- und Offenlegungspflichten für generative KI ein
Europa liegt mit dem EU AI Act vorn – doch globale Standards entwickeln sich rasant. Unternehmen sollten daher schon heute international denken.
Fazit: Daten sind Macht – und Verantwortung
Der Fall Meta ist nur die Spitze des Eisbergs. Wer KI nutzt, muss Verantwortung übernehmen. Nicht irgendwann – sondern jetzt.
Datenschutz ist kein Bremsklotz, sondern euer Sicherheitsgurt in einer KI-getriebenen Zukunft.
Zusammengefasst:
- Nur öffentliche Inhalte Erwachsener werden genutzt.
- Minderjährige und private Nachrichten sind ausgenommen.
- Die endgültige Entscheidung der Datenschutzbehörden steht noch aus.
- Meta informiert aktiv und bietet ein (wenn auch umständliches) Opt-out an.
Wichtiger Hinweis: Der Inhalt dieses Artikels dient ausschließlich Informationszwecken und stellt keine Rechtsberatung dar. Die hier bereitgestellten Informationen können eine individuelle Rechtsberatung durch (je nach Anwendungsfall) einen Datenschutzbeauftragten oder Rechtsanwalt nicht ersetzen. Wir übernehmen keine Gewähr für die Aktualität, Vollständigkeit und Richtigkeit der bereitgestellten Informationen. Jegliche Handlungen, die auf Grundlage der in diesem Artikel enthaltenen Informationen vorgenommen werden, erfolgen auf eigenes Risiko. Wir empfehlen, bei rechtlichen Fragen oder Problemen stets (je nach Anwendungsfall) einen Datenschutzbeauftragten oder Rechtsanwalt zu konsultieren.


