AI ActSPD-Fraktion grätscht in die Regierungsposition bei EU-Verhandlungen

Die Bundesregierung hat Ende Dezember dem Entwurf zum geplanten AI Act zugestimmt. Doch einig ist man sich in der Ampel-Koalition offenbar nicht. Jetzt macht die SPD-Fraktion mit einem Positionspapier das Thema wieder auf – und will beim Einsatz von KI in den Bereichen Arbeit und Migration den Kurs korrigieren.

Menschen am Strand im Hintergrund, vorne eine Schild mit der Aufschrift Danger.
Hochriskant: KI-Systeme an der EU-Außengrenze – Gemeinfrei-ähnlich freigegeben durch unsplash.com Micaela Parente

Eigentlich steht die Position der Bundesregierung zum AI Act schon fest. Im Rat der EU hatte sie bis Ende des Jahres Gelegenheit, noch Änderungswünsche und Kritik zum geplanten großen KI-Gesetz auf EU-Ebene einzubringen. Im Dezember hatten sich die Mitgliedsstaaten auf eine gemeinsame Position in der Sache geeinigt – und Deutschland hatte dieser zugestimmt. Das hat vielfach für Kritik gesorgt, weil eine biometrische Erkennung im öffentlichen Raum damit nicht ausgeschlossen wäre.

Doch jetzt macht einer der Koalitionspartner das Fass wieder auf. Die SPD-Fraktion will heute ein Positionspapier beschließen, das in entscheidenden Punkten von der Regierungslinie in Brüssel und der beschlossenen Ratsposition abweicht. Darüber berichtete Tagesspiegel Background zuerst.

Unter anderen kritisieren die SPD-Abgeordneten, dass der Ratsbeschluss die Definition dessen, was als „Künstliche Intelligenz“ gewertet wird, zu eng fasst und die Liste der Einsatzgebiete, die laut dem Gesetz als „hochriskant“ gelten, immer kürzer wird. Für solche als hochriskant eingestufte Anwendungen sollen in Zukunft besonders strikte Regeln gelten. „Eine Abschwächung des Hochrisikobereichs und eine eng gefasste KI-Definition kommen einer Aushebelung der Regulierung gleich“, sagt der zuständige Berichterstatter der Fraktion, Parsa Marvi.

Die Fraktion will die Liste wieder verlängern. So fordert sie etwa, Systeme zur Kreditvergabe zurück auf die Liste der Hochrisiko-Anwendungen zu nehmen. Auch sollten „alle KI-Systeme, die im Arbeits- und Sozialbereich eingesetzt werden“ als hochriskant behandelt werden, weil sie Auswirkungen auf „die Sicherheit und das Wohlbefinden von Arbeitnehmer:innen haben“.

Späte Kritik

Die Verhandlungen zum AI Act führt vor allem das FDP-geführte Justizministerium, außerdem ist das grüne Wirtschaftsministerium beteiligt. In der SPD-Fraktion ist man mit der Verhandlungsführung offenbar unzufrieden und macht diese Kritik nun öffentlich.

Überraschend ist dabei allerdings der gewählte Zeitpunkt. Denn die Ratsverhandlungen wurden im Dezember beendet, die Position des Rates für die weiteren Verhandlungen steht – mit allem, was daran kritikwürdig ist. Diskutiert wird derzeit nur noch im EU-Parlament, dort wird eine Einigung in den nächsten Monaten erwartet, danach gehen die Verhandlungen in den sogenannten Trilog.

Auf diese Verhandlungen zielt nun auch das Positionspapier, sagt Parsa Marvi auf Rückfrage. „Der Rat hat sich Anfang Dezember bereits positioniert – das gilt aber nicht für das Europäische Parlament. Dort wird der AI Act weiterhin kontrovers diskutiert. Wie auch die Bundesregierung setzen wir als SPD-Bundestagsfraktion im Nachgang des Ratsbeschlusses auf Nachbesserungen durch das Parlament.“ Dazu stehe die Fraktion wir mit der sozialdemokratischen S&D-Fraktion im EU-Parlament in engem Austausch.

Brisant ist an dem Positionspapier aber auch, dass die SPD-Fraktion mit ihren Forderungen ebenfalls dem ebenfalls SPD-geführten Innenministerium in die Quere kommt. Denn die Fraktion fordert in den insgesamt zwölf Punkten unter anderem auch klare Transparenzpflichten für KI-Systeme im Bereich Asyl und Migration. „Bürger:innen werden oft nicht darüber aufgeklärt, dass eine KI entscheidet – selbst dann, wenn diese Entscheidungen weitreichende Folgen für sie und ihre Lebensrealitäten haben“, heißt es dazu. Diese Forderung nach Transparenz betreffe aber nicht nur die Privatwirtschaft, sondern auch öffentliche Stellen, etwa in den Bereichen Sicherheit, Migration und Asyl.

Laut Informationen von AlgorithmWatch gehen die Aufweichungen der Regeln in diesem Bereich vor allem auf Forderungen aus dem Innenministerium von Nancy Faeser (SPD) zurück.

Jahrelanges Verhandeln um Details

Der AI Act ist seit Jahren in Vorbereitung und soll eine Art Rundumschlag zur Regelung von so genannter Künstlicher Intelligenz in der EU werden. Das Mammut-Gesetz soll alles Mögliche regeln von biometrischer Identifikation im öffentlicher Raum über den Einsatz von KI-Systemen an den EU-Außengrenzen oder bei der Energieversorgung. Vor allem soll es rote Linien ziehen, in welchen Bereichen KI auf keinen Fall zur Anwendung kommen soll, etwa zum Social Scoring.

Die Feinheiten liegen dabei oft im Detail. Besonders heikel ist etwa der Punkt biometrische Überwachung. Die Ampelregierung hatte sich in ihrem Koalitionsvertrag eigentlich dazu verpflichtet, diese zu verhindern. „Biometrische Erkennung im öffentlichen Raum […] sind europarechtlich auszuschließen“, heißt es dort. In den EU-Verhandlungen haben die zuständigen Ministerien dann aber nur noch eine biometrische Echtzeitüberwachung ausschließen wollen. Das kleine Detail hätte große Auswirkungen, denn eine nachträgliche Auswertung von Videoaufnahmen wäre damit weiterhin möglich, die Regierung hatte dieser sogar explizit zugestimmt. Das Positionspapier der SPD rüttelt allerdings nicht am Ratsbeschluss, auch die Formulierung im Papier lässt eine nachträgliche biometrische Erkennung zu.

Für den Verein Digitalcourage und andere zivilgesellschaftliche Organisationen ist das ein klarer Bruch des Koalitionsvertrages. Sie sieht ein „riesiges Schlupfloch für den Missbrauch biometrischer Daten zur Massenüberwachung“, weil Ermittlungsbehörden mit geringem Zeitverzug dann trotzdem existierende Aufnahmen auswerten könnten. Der Verein kritisiert ebenfalls, dass das Verbot nur für Strafverfolgungsbehörden gelten soll. Private Unternehmen dürften dann weiterhin auch in Echtzeit biometrische Fernüberwachung einsetzen.

Bundesregierung will Regeln bei Migration und Asyl aufweichen

In der Kritik steht auch der Einsatz von KI zur Überwachung und Kontrolle der EU-Außengrenzen sowie im Bereich Migration und Asyl. Gerade in diesen Bereichen kann staatliches Handeln erhebliche Auswirkungen auf die Sicherheit von Menschen haben und gerade hier kommen besonders viele KI-Systeme zum Einsatz.

Doch ausgerechnet hier fordert die Ratsposition Ausnahmen von den Transparenzpflichten, die sonst gelten sollen, wenn KI-Systeme von Behörden eingesetzt werden. Auch die Bundesregierung hatte an diesen Stellen eine Aufweichung der Regeln gefordert. Migrationsbehörden sollten nicht dazu verpflichtet werden, den Einsatz von Hochrisiko-KI offenzulegen, da dies mit „berechtigten Geheimschutzinteressen der Mitgliedstaaten“ kollidieren könne. AlgorithmWatch kritisierte deswegen, „dass die Bundesregierung nicht unbedingt die Stärkung der Grundrechte im Sinn hatte, als sie eine gesonderte Regelung der behördlichen Nutzung von KI forderte“. Zahlreiche weitere NGOs kritisierten in einem offenen Brief die Position des Rates und forderten eine Kurskorrektur.

Die Forderung der SPD-Fraktion kann nun ebenfalls als eine Kritik dieser Position gelesen werden. „Um für Klarheit zu sorgen, brauchen wir eine Kennzeichnungspflicht für alle KI-Anwendungen im Hochrisikobereich.“ Dafür solle es ein Register geben, das alle staatlich eingesetzten KI-Anwendungen inklusive ihrer Einsatzzwecke auflistet. Explizit werden dabei die Bereiche Asyl und Migration genannt. Allerdings räumt auch die Fraktion ein: „Eng begrenzte Ausnahmen darf es nur dann geben, wenn schon durch die Nennung von Anwendung und Einsatzzweck die Arbeitsfähigkeit der Behörden durch Rückschlüsse auf ihre Fähigkeiten negativ beeinträchtigt würde.“

3 Ergänzungen

  1. “ Systeme zur Kreditvergabe zurück auf die Liste der Hochrisiko-Anwendungen zu nehmen“

    WOW, so viel Erkenntnis im 22. Jhdt.?

  2. Waere die Schlagzeile nicht eher „SPD-Fraktion macht PR-Aktion, nachdem die Entscheidung gefallen ist“?

  3. „Eng begrenzte Ausnahmen darf es nur dann geben, wenn schon durch die Nennung von Anwendung und Einsatzzweck die Arbeitsfähigkeit der Behörden durch Rückschlüsse auf ihre Fähigkeiten negativ beeinträchtigt würde.“

    Bis hierhin dachte ich, da wäre mal jemand mutig, um in Sinne der Bürger zu intervenieren. Aber ok, damit ist dann ja klar, was passieren wird, sollten schärfere Regeln tatsächlich kommen: schlichtweg jede KI-Anwendung wird so definiert werden, dass ihre Offenlegung wenigsten den Untergang der Welt bedeuten würde. Und schon „passt“ es wieder. Im Westen nichts Neues…

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.