Wie faszinierend Machine Learning und Künstliche Intelligenz sind, lernen gerade viele Menschen mit der Nutzung von ChatGPT, Dall-E oder Stable Diffusion kennen. Doch Künstliche Intelligenz ist viel mehr als von Computern erstellte Bilder und Texte, sie ist eine Technologie, die in viele Lebensbereiche Einzug gehalten hat. Das geht mit Problemen wie Diskriminierung und Überwachung einher und greift damit massiv in Grundrechte ein.
Eben darum soll es im AI Act gehen, eine grundlegende Regulierung, an der die Europäische Union derzeit arbeitet. Die Verhandlungen um den AI Act gehen derzeit in die letzte Runde. Am gestrigen Dienstag hat der Rat der Europäischen Union, der Ministerrat aller 27 Mitgliedsländer, seine Position zum Regulierungsvorhaben abgegeben – an der sich erhebliche Kritik entzündet. Für Deutschland nahm Verkehrs- und Digitalminister Volker Wissing (FDP) an dem Treffen teil.
Schlupflöcher und Grauzonen für Überwachung
Im Zentrum der Kritik stehen biometrische Erkennungsverfahren wie Gesichtserkennung per Videoüberwachung. Gerade beim Thema „KI in öffentlich zugänglichen Räumen“ sieht Algorithmwatch gefährliche Schlupflöcher – und zwar in einem Ausmaß, dass die Regulierung eher Anreize zur „Remote Biometric Identification“ (RBI) schafft, also der biometrischen Erkennung von Menschen, statt diese zu verhindern. Ein Verbot sieht der Entwurf nur für eine Auswertung „in Echtzeit“ vor, während sie der privaten wie staatlichen Nutzung verschiedene Einsatzmöglichkeiten einräumt.
Weiter heißt es:
Auch für Strafverfolgungsbehörden gelten zudem etliche Ausnahmen, etwa wenn RBI zur Abwehr von Gefahren für die Gesundheit, von Gefahren für die körperliche Unversehrtheit, von Terrorangriffen oder zur Identifizierung mutmaßlicher Täter:innen bei bestimmten Arten von Straftaten eingesetzt wird. Zu guter Letzt sieht der Ratsentwurf noch vor, dass alle aufgeführten Verbote nicht in Situationen gelten sollen, in denen sich Mitgliedstaaten auf ihre „nationale Sicherheit“ berufen.
Patrick Breyer, Piraten-Abgeordneter im EU-Parlament, befürchtet daher eine biometrische Massenüberwachung im öffentlichen Raum. Er schreibt in einer Presserklärung:
Die heute angenommene Position würde eine dystopische Zukunft der biometrischen Massenüberwachung in Europa ermöglichen, in der jeder von uns potenziell einer ständigen Identifizierung ausgesetzt ist, sein Verhalten überwacht und seine Emotionen im öffentlichen Raum analysiert werden würden.
Im Koalitionsvertrag der Ampel steht etwas anderes
Tatsächlich lässt die Position des Ministerrates beim AI Act große Spielräume für staatliche Überwachung – und sie steht damit im Widerspruch zum Koalitionsvertrag der Ampel-Regierung. Dort heißt es, dass biometrische Erkennung im öffentlichen Raum, etwa durch Gesichtserkennung, sowie automatisierte staatliche Scoring-Systeme europarechtlich auszuschließen seien.
Algorithmwatch kritisiert deswegen die aktuelle Position der Bundesregierung: „Deutschland hat bei den Verhandlungen zum AI Act die Gelegenheit verpasst, auf Europaebene ein starkes Signal zum Schutz der Grundrechte zu senden.“ Angesichts der laxen Haltung vieler anderer Mitgliedstaaten, die wirtschaftliche Ziele oft höher gewichten als den Schutz der Grundrechte, wäre ein solches Signal enorm wichtig gewesen, so die NGO weiter. Die Bundesregierung hat zugestimmt und in einem unbestimmten Zusatz-Statement nurmehr „einige Aspekte“ des Entwurfes als „verbesserungsbedürftig“ bezeichnet.
Einsatz von KI bei der Überwachung der Außengrenzen kritisiert
In der Kritik steht auch der Einsatz von KI zur Überwachung und Kontrolle der EU-Außengrenzen sowie bei der Abwehr von Geflüchteten. 192 Organisationen und Einzelpersonen – angeführt von EDRi, Access Now, Refugee Law Lab und PICUM – haben in einem offenen Brief (PDF) die Ratsposition kritisiert. Künstliche Intelligenz sei Teil eines „sich rasch ausbreitenden technischen Überwachungskomplexes an den europäischen Grenzen“. Außerdem seien KI-Systeme zunehmend ein Merkmal des Migrationsmanagements in der EU. Die Unterzeichner:innen fordern, das EU-Gesetz über Künstliche Intelligenz grundlegend zu ändern, um so die Nachteile von KI im Zusammenhang mit Migration besser zu berücksichtigen.
Die Verbraucherzentrale Bundesverband (vzbv) bedauert, dass die Vorschläge der Bundesregierung nur unzureichend in die nun vorliegende Position des Rates eingeflossen seien: „Damit schwächt der Rat die Verbraucherrechte und somit auch das nötige Vertrauen in KI-Systeme“, so die vzbv-Vorständin Ramona Pop. Sie forderte das EU-Parlament auf, die Ratsentscheidung zu korrigieren.
Open Source gegenüber Konzernen benachteiligt
Die Brookings Institution sieht in der Rats-Position eine Gefahr für die Entwicklung von quelloffener Künstlicher Intelligenz: „Der Vorschlag soll zwar die sicherere Nutzung dieser Werkzeuge ermöglichen, würde aber die rechtliche Haftung für quelloffene GPAI-Modelle begründen und deren Entwicklung untergraben.“ Dies könnte die Macht über die Entwicklung und den Einsatz von KI weiter bei großen Technologieunternehmen konzentrieren und notwendige Forschung verhindern, die für die Akzeptanz für KI in der breiten Öffentlichkeit entscheidend sei, so Brookings weiter. Ähnlich argumentiert die Mozilla Foundation: Der AI Act müsse sicherstellen, dass es „zum Aufbau eines dynamischen Open-Source-KI-Ökosystems beiträgt und wichtige Forschung im Bereich der GPAI ermöglicht.“
Wirtschaftsverbände fürchten hingegen zu viel Regulierung, wie das Handelsblatt (€) berichtet. Der Branchenverband Bitkom fordert eine „praxistauglichere“ Formulierung des Gesetzes, worunter vermutlich laxere Bestimmungen zu verstehen sind.
Die Position des Rates im Hinblick auf die biometrische Überwachung steht auch im Kontrast zum EU-Parlament, das sich im vergangenen Oktober sehr eindeutig gegen biometrische Massenüberwachung ausgesprochen hatte. Eine Positionierung des Europaparlamentes wird für das erste Quartal 2023 erwartet. Im danach folgenden Trilog werden EU-Kommission, Europaparlament und der Ministerrat das Gesetzeswerk abstimmen, bevor das Gesetz dem Europaparlament final vorgelegt wird.
Und Urheberrecht?