
KI-Training mit Nutzerdaten: Datenschutzaktivisten drohen Meta mit EU-Verbandsklage

Österreichische Datenschutzaktivisten haben dem Facebook-Mutterkonzern Meta mit einer EU-Verbandsklage wegen der Verwendung von EU-Nutzerdaten für das Training seiner KI gedroht. Die Organisation None of Your Business (Noyb) forderte Meta am Mittwoch auf, vor der Nutzung von Daten die explizite Zustimmung der betroffenen Nutzer einzuholen. Dazu sei der Konzern gemäß der Europäischen Datenschutzgrundverordnung (DSGVO) verpflichtet.
Meta hat angekündigt, mit Daten von Nutzern auf seinen Plattformen Facebook und Instagram seine KI-Modelle zu trainieren. Den Verzicht auf das Einholen einer Einverständniserklärung begründet der Konzern mit seinem "berechtigten Interesse" an der Verarbeitung der Daten. Nutzern bliebe dann das Widerspruchsrecht, sie können Meta also auf eigene Initiative auffordern, ihre Daten nicht zu nutzen.
Noyb geht davon aus, dass Meta damit gegen EU-Recht verstößt. "Der Europäische Gerichtshof hat bereits entschieden, dass Meta für personalisierte Werbung kein 'berechtigtes Interesse' geltend machen kann", erklärte Noyb-Gründer Max Schrems. "Wie sollte Meta dann ein berechtigtes Interesse daran haben, alle Daten für das KI-Training abzugreifen?" Im Grunde argumentiere Meta, "dass seine Profitinteressen über den Rechten der Nutzer:innen stehen".
Die Aktivisten gehen zudem davon aus, dass Meta durch die Verwendung der Nutzerdaten für das KI-Training weitere DSGVO-Regeln wie das Recht auf Vergessenwerden oder das Recht auf Korrektur falscher Daten nicht wird einhalten können. "Außerdem stellt Meta KI-Modelle wie Llama als Open-Source-Software zur Verfügung, die jeder herunterladen und nutzen kann", erklärten sie. "Das bedeutet, dass Meta ein Modell nach der Veröffentlichung kaum zurückrufen oder aktualisieren kann."
Schrems führt an, dass Meta die Gesamtheit der Nutzerdaten auch gar nicht benötigt, um eine funktionierende KI zu entwickeln. Unternehmen wie OpenAI und MistralAI hätten schließlich auch keinen Zugriff auf derartige Massendaten und hätten Programme entwickelt, die denen von Meta überlegen seien. Auf der anderen Seite berge eine Klage für Meta große Risiken.
"Wir prüfen derzeit unsere Möglichkeiten zur Einreichung von Unterlassungsklagen", erklärte Schrems. Meta müsste dann unter Umständen sein KI-System wieder abschalten. Zudem stehe die Möglichkeit von Schadenersatz für Millionen Nutzer im Raum. "Wir sind sehr überrascht, dass Meta dieses Risiko eingeht, nur um die Menschen nicht um ihre Einwilligung zu bitten."
J.Simon--PS