Die Europäische Union hat ein KI-Gesetz. Darüber haben wir in den vergangenen Jahren ausführlich berichtet, besonders die langen Diskussionen um gefährliche Praktiken wie biometrische Gesichtserkennung oder Predictive Policing. Beides hat das europäische KI-Gesetz zwar eingeschränkt, aber nicht verboten.
Der lange Weg zu fertigen KI-Regeln ist aber noch immer nicht abgeschlossen. Zunächst einmal haben die Mitgliedstaaten der EU, darunter Deutschland, bei den umstrittenen Punkten noch einen gewissen Spielraum. Die Ampel hatte sich in den Koalitionsvertrag geschrieben, dass sie biometrische Überwachung ablehnt – ihre aktuelle Politik folgt jedoch entgegengesetzte Ziele. Auch, wenn das nur schwer mit den EU-Regeln vereinbar ist.
Und auch in Brüssel wird momentan weiter über Regeln für KI-Systeme verhandelt. Dabei geht es um sogenannte „KI mit allgemeinem Verwendungszweck“, also KI-Modelle wie ChatGPT oder Llama, die zum Beispiel Texte erzeugen können.
Regeln für große Sprachmodelle kamen spät hinzu
Diese Regeln gab es im ursprünglichen Entwurf der Kommission für das Gesetz noch nicht. Der konzentrierte sich auf Anwendungen wie biometrische Überwachungssysteme. Nach Beginn des ChatGPT-Hypes haben die anderen EU-Institutionen eine zweite Säule für diese allgemeinen Modelle mit in das Gesetz hineinverhandelt.
Das sorgte bei einigen Beteiligten für Unmut: Deutschland und Frankreich versuchten, die neuen Regeln zu verhindern. Damit wollten sie ihre zwei nationalen „Champions“ im KI-Bereich schützen, Aleph Alpha in Deutschland und Mistral in Frankreich. Die neuen Regeln könnten die europäischen Unternehmen gegenüber den großen US-Firmen benachteiligen, argumentierten deren Lobbyist:innen. Nachdem die Verhandlungen zur KI-Verordnung dann abgeschlossen waren, verkündete Mistral eine neue Partnerschaft – ausgerechnet mit dem US-Konzern Microsoft.
Die Verordnung bleibt vage
Die fertige KI-Verordnung enthält zu KI-Modellen „mit allgemeinem Verwendungszweck“ ganze sechs Artikel. Die legen fest, ab wann ein Modell ein „systemisches Risiko beinhaltet“ – etwa, weil es mit besonders viel Rechenleistung trainiert wurde oder weil die Kommission das selbst so festlegt.
Wenn ein Unternehmen so ein Modell anbietet, muss es dazu technische Dokumentation verfügbar machen und eine Strategie vorlegen, wie es das europäische Urheberrecht einhalten will. Außerdem muss es „hinreichend detailliert“ offenlegen, welche Daten es für das Training seines Modells benutzt hat. Ausnahmen gibt es für quelloffene Modelle.
Diese Vorschriften sind sehr vage gehalten. Das Gesetz sieht vor, dass es einmal eine harmonisierte Norm geben wird, an der sich Unternehmen genauer orientieren können. Dafür zuständig sind die zwei europäischen Standardisierungsorganisationen namens CEN und CENELEC. Sie sollen der Kommission bis zum 30. April 2025 einen Abschlussbericht vorlegen.
Der Praxisleitfaden soll es richten
Neben der Norm sieht die Verordnung auch noch sogenannte „Praxisleitfäden“ vor. Die sollen zur „ordnungsgemäßen Anwendung“ der Verordnung beitragen – oder, besser gesagt, sie sollen aus den Allgemeinplätzen für allgemeine KI erst einmal tatsächliche Regeln machen.
Die Arbeit an einem ersten solchen Praxisleitfaden läuft seit einigen Wochen, jedoch mit großen Anlaufschwierigkeiten. Erstes Problem: Die KI-Verordnung macht nicht klar, wie solche Leitfäden entstehen sollen. Dort steht, dass das neue KI-Büro der Europäischen Kommission ihre Ausarbeitung „fördert und erleichtert“. Es soll die Anbieter von KI-Modellen und zuständige nationale Behörden fragen, ob sie sich an diesem Prozess beteiligen wollen. Alle anderen Beteiligten, etwa Zivilgesellschaft, Wissenschaft oder andere Unternehmen, dürfen den Prozess „unterstützen“.
Das sorgte im Sommer bereits für einen großen Aufschrei. Die Furcht vieler Beobachter:innen war, dass die KI-Anbieter sich ihre Regeln einfach selbst schreiben könnten. Nach einigen Protesten aus der Zivilgesellschaft gab die Kommission nach und überarbeitete den Prozess.
Der deutsche Grünen-Politiker Sergey Lagodinsky hält es weiterhin für wichtig, dass KI-Anbieter zentral in den Arbeitsprozess eingebunden werden. Lagodinsky ist Abgeordneter im Europaparlament und hat die KI-Verordnung mitverhandelt. Es müsse aber auch sichergestellt werden, dass kleine Unternehmen und Zivilgesellschaft auch aktiv einbezogen werden, sagte er zu netzpolitik.org: „Transparenz und Inklusivität im Prozess sind unerlässlich.“
Kleinteiliger Prozess
Der neue Prozess sieht nun so aus: Die Beteiligten haben in einem Plenum Ende September die Arbeit eröffnet. Die Beteiligten wurden dann in Arbeitsgruppen aufgeteilt, die sich mit Aspekten der KI-Regulierung beschäftigen. Ihre Ergebnisse teilen die Arbeitsgruppen dann wiederum in Plenarsitzungen. Eine besondere Rolle spielen die Vorsitzenden der Arbeitsgruppen, eine Reihe an bekannten KI-Expert:innen. Sie diskutieren parallel auch mit den Anbietern der KI-Modelle; das Ergebnis dieser Diskussionen soll wiederum in den Prozess einfließen.
Dieser neue Prozess ist offensichtlich ziemlich verwinkelt. Die erste Plenarsitzung zeigte außerdem ein zusätzliches Problem: Es nahmen beinahe 1.000 Interessierte teil. Wie genau sollen derart viele Stimmen innerhalb von fünf Monaten auf einen Nenner zusammengebracht werden sollen? Allgemein gibt die Kommission nur wenige Informationen dazu raus, wie der weitere Prozess ablaufen soll, beschweren sich einige der Teilnehmenden.
Kritik an mangelnder Transparenz
Laura Lazaro Cabrera hält die Rolle der Vorsitzenden für sehr wichtig. Sie arbeitet beim Center for Democracy and Technology, einer gemeinnützigen US-Organisation, und nimmt am Prozess für den Praxisleitfaden teil. Sie würde gerne sehen, dass die Vorsitzenden transparent machen, worüber in den Treffen mit den Anbietern gesprochen wurde. „Das hat nicht nur mit Transparenz zu tun, sondern auch mit Rechenschaft“, so Lazaro Cabrera. Sie habe aber Vertrauen darin, dass die Vorsitzenden ihrer Verantwortung gerecht werden.
„Der Erfolg des Praxisleitfadens hängt wirklich von den praktischen Dingen ab“, so Lazaro Cabrera. Wie genau die Treffen ablaufen werden oder wie Input danach bewertet werden soll – „all diese Dinge sind gerade noch etwas unklar, und es wäre besser, wenn wir mehr wissen würden.“
Auch Industrievertreter:innen schmeckt der überarbeitete Prozess nicht. Bei einer Veranstaltung vor einigen Wochen kritisierte ein Vertreter des Branchenverbands CCIA, dass einige der Punkte, die in den Verhandlungen zur KI-Verordnung aus dem Gesetz gekürzt wurden, nun erneut diskutiert würden – etwa zusätzliche Pflichten, Informationen über Kund:innen zu sammeln. Außerdem kritisierte er die Vorsitzenden der Arbeitsgruppen: Einige von ihnen seien mit klar ideologischen Gruppen verbunden, alarmistisch und anti-Tech.
Wann die Arbeit einmal in einem Ergebnis münden wird? Eigentlich hatte die Kommission angekündigt, nächste Woche einen ersten Entwurf für den Praxisleitfaden zu veröffentlichen. Das könnte sich nun um eine Woche nach hinten verschieben. Bis April 2025 soll eine finale Version des Praxisleitfadens vorliegen.
> Deutschland und Frankreich versuchten, die neuen Regeln zu verhindern.
Wer bitte genau sind hier die Akteure, die entgegenwirken?
Länderbezeichnungen sind hier unterkomplex.
Bitte politische Entscheider mit Parteizugehörigkeit klar benennen.
Das zitierte ist ein sogenannter „Hyperlink“. Das ist eine Internettechnologie zum Verknüpfen von Artikeln und weitergehenden Informationen.
Das setzt allerdings einen sogenannten „Browser“ zum Betrachten voraus, ausgedruckt geht es leider nicht.
HTH & HAND
A) Scholz sagt Hü, Macron sagt Hott.
B) Deutsche Beamte oder Diplomaten üben Druck auf eigentlich unabhängige Verhandler aus.
C) Im Rahmen eines Prozesses, innerhalb zugehöriger Arbeitsgruppen oder Verhandlungen, agieren die Vertreter bestimmter Länder, die dort offiziell als solche sitzen, wie beschrieben.
Ich tippe mal auf C) als Normal.
(D) EU-Parlamentarier in einer Parlamentsarbeitsgruppe, und die Vertreter aus Deutschland üben aus irgendwelchen Gründen Druck aus.)
FYI
Neurosymbolic AI – Why, What, and How
https://arxiv.org/pdf/2305.00813
Humans interact with the environment using a combination of perception – transforming sensory inputs from their environment into symbols, and cognition – mapping symbols to knowledge about the environment for supporting abstraction, reasoning by analogy, and long-term planning. Human
perception-inspired machine perception, in the context of AI, refers to large-scale pattern recognition from raw data using neural networks trained using self-supervised learning objectives
such as next-word prediction or object recognition. On the other hand, machine cognition encompasses more complex computations, such as using knowledge of the environment to guide
reasoning, analogy, and long-term planning. Humans can also control and explain their cognitive functions. This seems to require the retention of symbolic mappings from perception outputs
to knowledge about their environment
Alter Wein in neuen Druckschläuchen. Darüber hinaus der Versuch im abstract möglichst viele science buzzwords zu verwenden, die mit dem eigentlichen Verarbeitungsprozess nichts zu tun haben. Mit „neuro*“ wird die nächste Sau durch das Hype-Dorf getrieben.
Wenn die EU das über reguliert dann finden halt alle spannenden Entwicklungen im Ausland statt und die EU verpasst auch hier komplett den Anschluss an die Entwicklung. Wäre doch mal was es einfach mit Freiheit und Eigenverantwortung zu probieren, dann würde das auch gehen.
„alarmistisch und anti-Tech“
Haha! Was denn sonst, bei Intransparenz, Unterlassung, Inkompetenz, Hinhaltetaktiken, und das nicht einfach nur irgendwo…
Zumindest anti-diese-und-jene-tech, sollte man erwägen. Alarmistisch… dafür ist es z.T. schon ziemlich spät, nur Deutschland hinkt noch hinterher.