„Strukturwandel des Öffentlichen“ – das klingt wie das durch einen KI-Chatbot fehlerhaft zitierte Werk eines großen Sozialphilosophen unserer Zeit. Aber der Begriff könnte eine Entwicklung beschreiben, wie wir sie aktuell beim Training Künstlicher Intelligenz in Europa erleben. Sie vollzieht sich auf zwei rechtlich unterschiedlichen Ebenen, die man idealerweise gemeinsam betrachten sollte.
Es geht um das Datenschutzrecht einerseits und das Urheberrecht andererseits. Beide Systeme sehen unter bestimmten Voraussetzungen eine Verarbeitung öffentlich zugänglicher Daten und Informationen auch ohne Einwilligung Betroffener vor. In beiden Rechtskreisen hat es jüngst interessante Gerichtsentscheidungen gegeben und beide Male stellt sich die Frage, was „öffentlich“ in diesem Zusammenhang eigentlich bedeuten kann.
Meta AI vor dem Oberlandesgericht Köln
Datenschutzrechtlich bekommt Meta AI gerade Aufmerksamkeit. Meta will ab dem 27. Mai 2025 die öffentlichen Aktivitäten aller volljährigen europäischen Nutzenden von Facebook und Instagram für das Training der eigenen KI-Anwendungen einsetzen. Das gilt für die Zukunft und für alle Daten aus der Vergangenheit. Bereits im vergangenen Jahr kündigte das Unternehmen an, alle öffentlichen Beiträge und Fotos der europäischen Facebook- und Instagram- Nutzerinnen zum KI-Training verwenden zu wollen. Meta verschob das Vorhaben zunächst, nachdem sich die zuständige irische Datenschutzbehörde (DPC) mit dem Sachverhalt befasste.
Am 16. Mai, also wenige Tage vor dem geplanten Projektstart in Europa, hat Meta neue risikomindernde Maßnahmen in den Verarbeitungsprozessen des KI-Trainings vorgestellt. Diese haben die DPC zur Mitteilung veranlasst, grundsätzliche Bedenken würden nicht mehr aufrechterhalten, die Behörde wolle den Prozess aber weiterhin engmaschig beobachten.
Parallel zu dieser Entwicklung fand am 22. Mai vor dem Oberlandesgericht Köln die Verhandlung zu einem Antrag der Verbraucherzentrale NRW e. V. statt. Die Verbraucherzentrale forderte, das KI-Training durch Meta auszusetzen. In diesem zivilrechtlichen Verfahren wurde auch der Hamburgische Beauftragte für Datenschutz und Informationsfreiheit (HmbBfDI) angehört, der auf mehrere Dinge hinwies: Ein einmal erfolgtes Training ist nicht mehr umkehrbar. Die Menge der verarbeiteten Daten, teilweise bis zurück in das Jahr 2007, ist enorm. Und bei besonders geschützten Daten gelten besondere Herausforderungen. Am 23. Mai lehnte das OLG Köln den Antrag der Verbraucherzentrale NRW ab und machte den Weg fürs Training mit Daten von Nutzenden in Deutschland frei.
Der Hamburgische Datenschutzbeauftragte hatte zwischenzeitlich überlegt, ein Dringlichkeitsverfahren einzuleiten. Doch nach Abstimmung mit den anderen deutschen Datenschutzaufsichtsbehörden entschied die Landesdatenschutzbehörde, nicht als einzige Aufsichtsbehörde in der EU das Training mit Daten deutscher Nutzer einstweilig zu untersagen.
Eine Stellungnahme der im europäischen Datenschutzausschuss versammelten Datenschutzbehörden vom Dezember 2024 zur Zulässigkeit des KI-Trainings skizziert eine granulare Verhältnismäßigkeitsprüfung für solche Fragen. Im Verfahren des OLG Köln war hierfür nur begrenzter Raum. Deshalb bleibt es spannend, wie das Hauptsacheverfahren und die weitere Begleitung durch die irische Datenschutzbehörde weitergehen.
KI-Training und Urheberrecht
Die Entscheidung des OLG Köln ist nicht die erste zur rechtlichen Zulässigkeit des KI-Trainings in Deutschland. Im urheberrechtlichen Kontext hatte das Landgericht Hamburg am 27. September 2024 ein Urteil verkündet. Demnach können Vervielfältigungen urheberrechtlich geschützter Inhalte, die im Zusammenhang mit dem Training von KI-Modellen vorgenommen werden, auch ohne Zustimmung der Rechteinhaber zulässig sein.
Der klagende Fotograf hatte die Auffassung vertreten, dass der im Rahmen des Analyseprozesses des LAION e.V (Anbieter des Datensatzes „LAION-5B“ zum Training von KI-Bildgeneratoren) erfolgende Download seiner Fotografie eine unzulässige Vervielfältigung im Sinne des Urheberrechts darstellt. LAION berief sich im Prozess auf zwei urheberrechtliche Schrankenregelungen, von denen die eine Text und Data Mining generell betrifft und die andere speziell im Kontext wissenschaftlicher Forschung steht.
Das Gericht bejahte eine Verarbeitung im Forschungskontext, weshalb es auf die rechtspraktisch deutlich bedeutsamere allgemeinere Vorschrift zum Text und Data Mining öffentlich verfügbarer Informationen nicht weiter eingehen musste. Die insoweit offenen Rechtsfragen im Lichte europäischen Urheberrechts sind Gegenstand eines anhängigen Vorabentscheidungsersuchens aus Ungarn beim Europäischen Gerichtshof (EuGH), das mit Spannung erwartet werden darf.
KI-Training im legitimen öffentlichen Interesse?
Was folgt nun aus diesen beiden Entscheidungen für die eingangs formulierte Frage? Taugt das bestehende Recht außerhalb der eigens geschaffenen, aber eben nur Teilaspekte der Technik regelnden KI-Verordnung überhaupt für die Regulierung Künstlicher Intelligenz?
„Mit der DSGVO Künstliche Intelligenz regulieren zu wollen ist so, als ob ich mit einem VHS-Rekorder Netflix aufnehmen möchte“, war jüngst in einem berufsorientierten Netzwerk zu lesen. Stimmt das? Mit den Regeln des Bürgerlichen Gesetzbuches (ursprüngliche Fassung von 1896) kann man einen Kaufvertrag über ein autonomes Fahrzeug oder einen Quantencomputer schließen. Das Grundgesetz (1949) funktioniert, ohne dass darin explizit die Rede von Daten wäre. Und noch einmal zurück zum schiefen Vergleich: Wäre die eigenmächtige Vervielfältigung der Inhalte eines Streamingdienstes (mithilfe eines VHS-Rekorders oder mit welcher Technik auch immer) urheberrechtlich ohne Weiteres zulässig?
Abseits vereinfachender Narrative muss eine gesellschaftliche Debatte um eine zukunftsfähige Rechtsordnung das System als Ganzes betrachten. Was im Urheberrecht unzulässig ist, kann im Datenschutzrecht nicht zulässig sein. Und umgekehrt.
Möglich und geboten ist eine innovationsfreundliche Auslegung des Rechts. Die Datenschutzgrundverordnung ist technikneutral und zukunftsfähig. Auf der anderen Seite ist Innovation aber kein Selbstzweck, der sich bei komplexen Grundrechtsabwägungen im Zweifel automatisch durchsetzt. Es muss jeweils der individuelle Verarbeitungskontext geprüft und beurteilt werden. Das kann man anstrengend finden, aber es ist der Preis menschenzentrierter und damit grundrechtssensibler Technisierung.
Prof. Dr. Tobias Keber ist Jurist und seit dem 1. Juli 2023 Landesbeauftragter für den Datenschutz und die Informationsfreiheit in Baden-Württemberg.
Also?
Neue Domain AGB, die das abgreifen von Trainierdaten der „KI“ regelt, bzw. abweist.
Ggf. überhöhte Preise verlangt. Oder einen Domain-Zutrittsbotun ähnlich der Frage „ob man 18 sei“ und gleich jegliche „KI“ dort an die Domainentür abweisen.
Schadensersatz für Missachtung bei der LAION verlangen.
Rückblickend auf die mir über Jahre aufgezwungenen Werbung und den Hinweisen auf die Robinsonliste… Haha! Sollte hier auch eine „Liste“ e.V. gegründet werden :-P
Hätte uns doch nur jemand rechtzeitig gewarnt!
Hätte ja keiner ahnen können, daß wir unsere eigene Medizin zu fressen bekommen!
Fair Use? Legetimes Öffentliches Interesse?
Hier muss man das Negative erst bedenken. Ich glaube schon, dass wir da falsch abbiegen würden. Die anderen auch, aber dort träumt sich der Feudaltraum auch noch einen Tick öffentlicher, d.h. profitieren tut fast keiner, aber Jobs gehen kaputt. Klar, der Kunsthandwerker kann jetzt noch schnellere Fliesbandarbeit machen, bzw. muss, Dank KI. Das ist aber kein gutes Szenario. Und mit „fair use“ wird es noch viel viel schlimmer.
Die Diskussion ist schon älter, aber es hat sich intellektuell gesehen nicht so viel getan, bisher.
Mir fehlt hier noch die Einordnung des KI-Act: Es wird hier nur um die DSGVO gesprochen aber wie wird sich der KI Act in diesem Bereich auswirken?
Man kann von solchen Unternehmen aber erwarten, transparent deren Bots IPs preis zu geben. Und von Gerichten erwarten, dieses solchen Firmenmachenschaften verpflichtend aufzubrummen.
Solche Bots kommen nicht mit freundlichen Absichten und sie kommen in „Herden“ mehr als nur einer der die Datenabfischt… führen somit ein DoS bei gewissen Internetseiten aus. Verursachen bei den Betreibern unnötige Mehrkosten, usw. …
Wem hat man dieses zu verdanken? Das Helferlein LAION.