OLG Köln: Meta darf öffentliche Inhalte für KI-Training nutzen
1 | Einordnung
Das Thema ist heikel, der Streit programmiert: Dürfen Unternehmen öffentlich sichtbare Daten für KI-Training nutzen, ohne Einwilligung? Das OLG Köln sagt: Ja, jedenfalls im Fall Meta. Das Urteil schafft keine endgültige Klarheit, aber es markiert eine Linie.
2 | Was Meta konkret plant
Meta will seit dem 27. Mai öffentliche Inhalte erwachsener Nutzerinnen und Nutzer (Kommentare, Bewertungen, Profilbilder, Accountdaten) zum Training seines KI-Modells LLaMA verwenden. Private Nachrichten bleiben außen vor. Die Verbraucherzentrale NRW sah darin einen klaren DSGVO-Verstoß und stellte Eilantrag. Der Widerspruch war nur bis zum 26. Mai möglich. Danach gilt: Was verarbeitet wurde, bleibt verarbeitet.
3 | Was das Gericht entschieden hat
Mit Beschluss vom 23. Mai 2025 (Az. 15 UKl. 2/25) wies das OLG den Antrag ab. Meta darf vorläufig weitertrainieren.
Die Argumente im Kern:
KI-Training ist ein berechtigtes Interesse, gestützt auf Art. 6 Abs. 1 lit. f DSGVO. Die vollständige Anonymisierung sei technisch nicht gleichwertig. Und Meta habe technische Schutzmaßnahmen ergriffen, keine sensiblen Daten genutzt und sich an die Leitlinien des EDSA gehalten.
Auch der Hilfsantrag wegen möglicher Verstöße gegen den DMA (Digital Markets Act), der marktbeherrschende Plattformen wie Meta an fairen Wettbewerbsregeln messen soll, hatte keinen Erfolg. Das Gericht sah kein unzulässiges Zusammenführen von Daten.
4 | Was Unternehmen daraus mitnehmen sollten
Das Urteil liefert zwar keine Generalerlaubnis, aber ein Leitfaden für künftige Fälle: Öffentlich zugängliche Inhalte dürfen unter bestimmten Bedingungen auch ohne Einwilligung verwendet werden. Voraussetzung: eine sauber dokumentierte Interessenabwägung, technische Absicherung und volle Transparenz.
Offen bleibt, wie Gerichte künftig mit sensiblen Daten oder automatisierter Profilbildung umgehen. Auch zur Rolle des DMA gibt es noch keine klare Linie.
5 | Was jetzt zählt
Transparenz schaffen: Welche Daten fließen in welche KI-Systeme, und zu welchem Zweck?
Interessenabwägung dokumentieren: Keine juristische Kür, sondern Pflicht.
Auf EDSA-Leitlinien achten: Wer daran vorbei entwickelt, riskiert unnötig.
Widerspruch ermöglichen: Auch ohne Einwilligungspflicht braucht es ein Opt-out.
6 | Wie es weitergeht
In der Hauptsache steht das Verfahren noch aus. Parallel prüft der Hamburgische Datenschutzbeauftragte, ob Meta datenschutzrechtlich nachschärfen muss. Ob die EU-Kommission das Vorgehen mit dem DMA in Einklang sieht, ist ebenfalls offen. Sicher ist nur: Wer heute handelt, muss morgen nicht in Eile nachbessern.
7 | Kontakt
Sie wollen öffentliche Daten für KI nutzen, aber rechtssicher, effizient und zukunftsfest?
Wir liefern Ihnen die Einschätzung, die Umsetzung und die Argumente für interne wie externe Prüfungen.
Schreiben Sie uns: datenschutz@bitkom-consult.de