Die Wahrscheinlichkeit, dass die Trilog-Verhandlungen am Mittwoch abgeschlossen werden, stünden bei etwa 50 Prozent. Das sagte der Chefverhandler des Europaparlaments, Dragos Tudorache, in der vergangenen Woche gegenüber Journalist:innen in Brüssel.
Das ist ein erstaunlicher Wert, wenn man bedenkt, dass die KI-Verordnung seit mehr als einem Jahr in der Mache ist. Doch noch immer streiten Parlament, Rat und Kommission um große Baustellen: um den Umgang mit sogenannten Basismodellen wie ChatGPT, um biometrische Überwachungssysteme und um die Klassifizierung von Hochrisiko-Anwendungen.
Auch der Europaabgeordnete Axel Voss (EVP) ist skeptisch, dass es am Mittwoch zu einer Einigung kommt. „Es werden schwierige Verhandlungen“, sagte Voss gegenüber netzpolitik.org. „Die schwierigsten Punkte sind weiterhin unter anderem die Regulierung der Basismodelle und das Law Enforcement.“
Würden die Verhandlungen tatsächlich scheitern, könnte sich das derzeit wichtigste Gesetzesvorhaben der EU zumindest erheblich verzögern. Die KI-Verordnung soll das weltweit erste Gesetz werden, das sogenannte Künstliche Intelligenz umfassend reguliert.
Lobbyschlacht um die Regulierung von Basismodellen
Dass die Entscheidung auf der Kippe steht, verdankt sich aktuell vor allem den Regierungen in Frankreich, Deutschland und Italien. Sie haben sich vor zwei Wochen dagegen ausgesprochen, gesetzliche Vorschriften für sogenannte Basismodelle zu erlassen. Stattdessen plädieren sie für „eine verpflichtende Selbstregulierung durch einen Verhaltenskodex“.
Die Regierungen der drei größten EU-Staaten wollen nach eigenen Angaben so ausschließen, dass eine Regulierung der Basismodelle europäischen Unternehmen Wettbewerbsnachteile beschere. Basismodelle sind KI-Systeme, die für verschiedene Zwecke eingesetzt werden können. So basiert etwa ChatGPT aktuell auf einem Sprach-Basismodell namens GPT-4. Solche Modelle und die mit ihnen verbundenen Risiken sind seit rund einem Jahr in aller Munde.
Dem Positionspapier war eine gewaltige Lobbyschlacht vorausgegangen. Insbesondere das deutsche Start-up Aleph Alpha und das französische Unternehmen Mistral hatten in den vergangenen Monaten enormen Druck auf ihre Regierungen ausgeübt. Mistrals Cheflobbyist Cédric O behauptete zuletzt, die Verordnung könne das Unternehmen „töten“.
Selbst Thierry Breton ist genervt
Cédric O hatte auch einen offenen Brief angestoßen, in dem Manager:innen großer europäischer Unternehmen davor warnen, dass „der Gesetzesentwurf die Wettbewerbsfähigkeit und die technologische Souveränität Europas gefährdet“. Unterzeichnet haben den Brief unter anderem die Geschäftsführer:innen der Deutschen Telekom und der Holtzbrinck Publishing Group sowie von Merck, TUI, Renault und Danone.
Thierry Breton zeigt sich inzwischen deutlich genervt angesichts des massiven Lobbydrucks. Der EU-Kommissar für den Binnenmarkt ist eigentlich für seine industriefreundlichen Positionen bekannt. Nun aber scheint selbst für ihn das Maß voll.
Die Big-Tech-Unternehmen und Startups wie Mistral verteidigten nicht das öffentliche Interesse, sagte Breton vor knapp zwei Wochen. Die Sorge um das Gemeinwohl müsse bei der KI-Verordnung Vorrang haben. „Ich höre lieber auf jene, die das allgemeine Interesse repräsentieren, als auf diejenigen, die Einzelinteressen vertreten.“
Kritik aus Wissenschaft und Zivilgesellschaft
Auch zahlreiche Wissenschaftler:innen sowie zivilgesellschaftliche Organisationen hatten in den vergangenen Wochen massive Kritik an der Position der französischen, deutschen und italienischen Regierung geübt.
Führende KI-Forscher:innen und Unternehmer:innen raten in einem offenen Brief „dringend davon ab, bei Grundlagenmodellen lediglich auf ein System der Selbstregulierung zu setzen“. Verbindliche Regeln seien „sowohl aus ökonomischen als auch aus Sicherheitsgründen wichtig“. In einem weiteren Brief fordern Expert:innen, dass „Unternehmen nicht ihre eigenen Regeln machen sollten”. Die KI-Verordnung sei „mehr als nur ein Gesetz“, nämlich „eine Aussage darüber, welche Werte wir als Europäerinnen und Europäer fördern wollen und welche Art von Gesellschaft wir aufbauen wollen.“
Auch die Datenschutzkonferenz von Bund und Ländern (DSK) zeigt sich überaus skeptisch, dass eine Selbstregulierung ohne Sanktionen ausreiche. Nur mit einer „sachgerechten Zuweisung von Verantwortlichkeiten entlang der gesamten KI-Wertschöpfungskette“ ließen sich die Grundrechte wirksam schützen, so die DSK.
Wie neue Ausnahmen die Parlamentsposition verwässern könnten
Der Streit um die einflussreichen Basismodelle steht derzeit im Mittelpunkt. Doch auch in anderen Fragen gibt es noch Klärungsbedarf, etwa bei der biometrischen Überwachung. Mit ihr lassen sich Menschen identifizieren und massenhaft überwachen, gegebenenfalls auch in Echtzeit. Die Technologie bedroht damit unter anderem Privatsphäre und Versammlungsfreiheit.
Im Vorfeld des Treffens am Mittwoch hat die spanische Ratspräsidentschaft laut Euractiv den Trilog-Partnern einen Kompromiss vorgelegt. Demnach soll die Echtzeitnutzung von biometrischer Überwachung nicht verboten werden, wie es das EU-Parlament gefordert hatte, sondern nur als „hochriskant“ eingestuft werden. Im Gegenzug soll sie nur in Ausnahmefällen und unter strengen Sicherheitsvorkehrungen erfolgen. Auch die retrograde Videoüberwachung im Nachhinein will die Ratspräsidentschaft als hochriskant bewerten.
Weitere Ausnahmen sieht der Vorschlag der Ratspräsidentschaft bei Predictive Policing, Emotionserkennungs-KI und Systemen zur biometrischen Kategorisierung vor. Setzen sie Hochrisikosysteme ein, müssen Polizeibehörden diese zwar, wie vom EU-Parlament gefordert, in einer EU-Datenbank registrieren – allerdings nur in einem nicht-öffentlich einsehbaren Bereich. Und in der Regel müssen sie Betroffene über deren Einsatz auch nicht informieren. Obendrein soll es beim KI-Einsatz für die „nationale Sicherheit“ – insbesondere auf Wunsch der französischen Regierung – umfassende Ausnahmeregelung geben.
Damit aber drohen jene Verbesserungen, die das Parlament noch im vergangenen Juni beschlossen hatte, verwässert oder gar abgeräumt zu werden. Die KI-Verordnung könnte somit staatlicher biometrischer Massenüberwachung in den EU-Staaten und an den europäischen Außengrenzen den Weg ebnen, ohne dass sich Betroffene wirksam dagegen wehren können.
Ein Scheitern wäre dennoch „verantwortungslos“
Aus diesem Grund warnt auch ein zivilgesellschaftliches Bündnis aus 16 Nichtregierungsorganisationen rund um EDRi eindringlich davor, dass KI-Systeme zunehmend auch in Europa für staatliche Überwachung genutzt würden. Das Bündnis fordert den Rat dazu auf, den Einsatz von KI insbesondere im Bereich der Strafverfolgung, der Migrationskontrolle sowie bei nationalen Sicherheitsbehörden wirksam gesetzlich zu regeln.
Trotz der drohenden Verwässerungen wünscht sich Kilian Vieth-Ditlmann von der NGO AlgorithmWatch nicht, dass die Trilog-Einigung am Mittwoch scheitert. „Ein erfolgreicher Abschluss hängt aktuell am seidenen Faden. Und kommt es nicht zu einem tragfähigen Kompromiss, ist die Verabschiedung der gesamten KI-Verordnung in Gefahr“, so Vieth-Ditlmann. „Es wäre aber verantwortungslos, das Gesetzgebungsverfahren jetzt noch scheitern zu lassen.“
Um dies zu vermeiden, könnten die Trilog-Partner strittige Themen wie die Basismodelle oder die biometrische Videoüberwachung von einer Einigung vorläufig ausnehmen. Die belgische Regierung, die im Januar die Ratspräsidentschaft von Spanien übernimmt, müsste dann noch vor der EU-Wahl im kommenden Juni – und damit unter weiterhin hohem Druck – eine Einigung über die offenen Fragen erzielen.
Gelingt eine Einigung weder am 6. Dezember noch während der belgischen Ratspräsidentschaft, käme die KI-Verordnung mit hoher Wahrscheinlichkeit nach der EU-Wahl wieder auf die Agenda. Anders als im Deutschen Bundestag müssen in der EU Gesetzesvorhaben nach einer Wahl nicht von Beginn an neu verhandelt werden. Die Trilogverhandlungen könnten daher, wenn sich die Machtverhältnisse im Parlament nicht groß verändern, den Faden sogar an gleicher Stelle wieder aufnehmen.
Nachdem man KI Jahrzehntelang mit Geldern gefördert hat und letztlich jemand den Geist aus der Flasche gelassen hat, will man ihn jetzt wieder dort hin verbannen? Diese Inkompetenzen müssen dringend abgewählt werden.
> Diese Inkompetenzen müssen dringend abgewählt werden.
Mal abgesehen davon, dass man höchstens Inkompetente abwählen kann, nicht aber Inkompetenzen, stellt sich sogleich die Frage, was die Inkompetenz hier denn sein soll. Ist es die Förderung, welche die negativen Folgen nicht hinreichend bedacht hat? Oder die „Verbanner“, die den Geist wieder in die Flasche stopfen wollen?
Angesichts der dunklen Wolken, die uns KI heute schon beschert, ist KI-Regulierung unverzichtbar. Aber wie gut kann diese sein, bei einer Technologie, die sich schneller entwickelt als die Regulierer denken können?
Das erinnert doch stark an „Move fast and break things“. Das Mantra der Zuckerbergs & Co., das im Silicon Valley zum kaum hinterfragten Imperativ mutierte.
Aber was sind diese „things“?
Zuerst wird/werden etablierte Technologie bzw. Verfahren obsolet gemacht. Inszenierte Hypes emotionalisieren die Menschen und bringen sie um ihren Verstand. Neue Nachfrage beschert Profite, wobei die gleichzeitige Monopolisierung kaum beachtet wird. Es werden neue Abhängigkeiten geschaffen und schädliche Auswirkungen erst dann bekämpft, bis sie nicht mehr zu leugnen sind. Letztlich sind die Nutzer die „things“. Die Nutzer wurden gebrochen, weil sich ihr Verhalten durch Anpassung geändert hat. Erst zu einem viel späteren Zeitpunkt wird bemerkt, dass sich die Gesellschaft verändert. Einige Politiker wollen regulieren, was eine Heerschar von Lobbyisten und Juristen gegen sie aufbringt. Mittlerweile ist ein Jemand Multimilliardär und zählt zu den reichsten auf diesem Planeten. Diese Jemands sind so mächtig und reich, dass Politik sie kaum mehr zur Raison bringen vermag. Denkt man es zu Ende stellen ein paar Menschen die Staatsraison sämtlicher demokratischen Staaten in Frage. Game over.
Peter Thiel hat bereits oeffentlich festgestellt, dass sich Demokratie und [seine] Freiheit nicht mehr vereinbaren lassen. Und nauerlich ist seine Freiheit wichtiger und richtiger.
„welche Werte wir als Europäerinnen und Europäer fördern wollen und welche Art von Gesellschaft wir aufbauen wollen.“
Die KI-Technologie wird also prüde. Es ist schon wirklich erstauntlich was für eine Kontrollsucht hier herrscht. Man stelle sich dieses gerangel mal vor als Photoshop erfunden wurde, da hätte man ruhig ein Gesinnungs- und Wesentest machen können um böse Inhalte zu generieren.
Das gleiche gilt dann wohl bald für Medienschaffende, denn das Risiko das jemand etwas böses kreiert ist zu groß. Am besten auch Blender und andere Tools streng kontrollieren. Quantität hier und da und schon hat man das beste Zugpferd für Überregulierung.
Das ist das tolle an Mashinelearning. Extrawurst wird teuer.