Am gestrigen Mittwoch hat die Europäische Kommission ihren Gesetzentwurf zur Regulierung sogenannter Künstlicher Intelligenz (KI) vorgestellt. Darin stuft die Kommission ihre Vorgaben je nach Risiko für die Grundrechte ab: Anwendungen mit „niedrigem Risiko“ bleiben mit Transparenzvorschriften erlaubt, solche mit „inakzeptablem Risiko“ werden verboten. Technologien mit „hohem Risiko“ – darunter fällt zum Beispiel automatisierte Gesichtserkennung – sollen unter bestimmten Voraussetzungen erlaubt sein.
Aus Sicht der Vize-Kommissionspräsidentin Margrethe Vestager sind das „wegweisende Regeln“. Diese sollen die EU zur Vorreiterin bei der Entwicklung neuer globaler Normen machen und „sicherstellen, dass der KI vertraut werden kann“, so Vestager. Doch genau das stellt der Entwurf aus Sicht einiger zivilgesellschaftlicher Organisationen eben nicht sicher – jedenfalls nicht genügend.
Schlupflöcher für Regierungen und Unternehmen
Die europäische Digital-NGO European Digital Rights (EDRi) kritisiert, dass die verlangten Schutzmaßnahmen durch Anwender:innen der „Hochrisiko-KI“ nicht ausreichend seien. Sarah Chander, Senior Policy Lead für Künstliche Intelligenz bei EDRi, lobt die Kommission für die Entscheidung, bestimmte KI-Anwendungen als inakzeptabel zu verbieten – mit einem Einwand:
Der Gesetzentwurf verbietet nicht das gesamte Ausmaß der inakzeptablen Verwendungen von KI und insbesondere alle Formen der biometrischen Massenüberwachung. Dies lässt Regierungen und Unternehmen eine besorgniserregende Lücke, um diskriminierende und überwachende Technologien einzusetzen. Die Verordnung lässt einen zu großen Spielraum für die Selbstregulierung durch Unternehmen, die von KI profitieren. Es sollten die Menschen, nicht die Unternehmen im Mittelpunkt dieser Regulierung stehen.
Außerdem kritisiert EDRi, dass die Kommission keine gesetzlichen Schranken für die Entwicklung problematischer Technologien vorsehe. Die Kritik der internationalen Digital-NGO Access Now geht in eine ähnliche Richtung: Der Ansatz sei gut, aber reiche nicht aus. So der Analyst für europäische Politik bei Access Now, Daniel Leufer:
Bei der Vorstellung des KI-Gesetzentwurfs sagte die Vize-Kommissionspräsidentin Vestager, man wolle, dass KI eine Kraft für den Fortschritt in der EU werde. Regelungen über Verbote für bestimmte Anwendungen sind ein erster Schritt in diese Richtung. Leider sind diese Verbote zu begrenzt und dieser Rechtsrahmen tut nichts, um die Entwicklung oder den Einsatz einer Vielzahl von Anwendungen von KI zu stoppen, die den sozialen Fortschritt und die Grundrechte drastisch untergraben.
Einsatz von Künstlicher Intelligenz durch Polizeibehörden
„Ziemlich schwach“ nennt die Wissenschaftlerin und Publizistin Kate Crawford die Regelung, dass Nutzer:innen einfach benachrichtigt werden sollen, bevor eine Anwendung biometrische Kategorisierungen vornimmt. Sie schreibt auf Twitter:
Auch das Verbot für die Polizei, biometrische Fernüberwachung einzusetzen, ist lückenhaft und schwächer als in früheren Entwürfen. Zum Beispiel deckt es nur die Verwendung in Echtzeit ab. Es kann sein, dass Clearview-KI der Polizei nicht abgedeckt ist, oder dass die Polizei Filmmaterial nach einer Tat erhalten kann.
Claudia Prettner von Amnesty Tech hebt in ihrem Tweet hervor, dass der nun vorgestellte Entwurf besser sei als zuvor geleakte Versionen. Dennoch:
KI-Systeme zu nutzen, um Menschen, die wegen ihres Alters oder ihrer Behinderung vulnerabel sind, ist verboten. Aber andere Vulnerabilitäten wie finanzielle Schwierigkeiten oder andere Notlagen sind okay? Und was ist mit dem Verbot von Social-Scoring-Systemen? Sie sind verboten, wenn sie nicht gerechtfertigt oder unverhältnismäßig in Bezug auf die Schwere des Sozialverhaltens der Menschen sind. Aber wer definiert, was gerechtfertigt oder verhältnismäßig ist und was ist „gutes“ und „schlechtes“ Sozialverhalten? Das lässt die Tür offen für Missbrauch und Diskriminierung.
Zu wenig Transparenz für Nutzer:innen
Kritik kommt auch aus Deutschland. Der Bundesverband der Verbraucherzentrale (vzbv) bezeichnet den Entwurf der Kommission als „mut- und kraftlos“. Er verpflichte Unternehmen zu wenig, transparent zu machen, inwiefern sie KI nutzen und überließe es den Nutzer:innen, zu kontrollieren, ob die Systeme wirklich rechtskonform sind.
Zwar will der Vorschlag KI-Systeme untersagen, die Ältere, Kinder und Menschen mit Behinderungen manipulativ beeinflussen und physisch oder psychisch schädigen. Wirtschaftliche Schäden, wie aufgedrängte oder überteuerte Produktverkäufe, sind jedoch ausgeklammert und die übrigen Verbraucher bleiben weitgehend ungeschützt.
Bis das Gesetz in Kraft treten kann, muss es noch durch den Rat der Europäischen Union und durch das Europaparlament. Auch dort deutete sich bereits der Wunsch nach strengeren Regelungen an.
Es müssen vielleicht nur „wenige“ Hürden fallen.
– Polizei erstellt Datenbank aller Bürger, die auch Einschätzungen und Tagging durch KI enthält.
– Damit nicht falsch ermittelt wird, gibt es einen „differenzierten“ Status.
– Vor allem für nicht straffällig gewordene Bürger, ist dieser Status vor allem durch die KI bestimmt.
– Bestimmte Unternehmen können eine Statusabfrage machen, je nach Tätigkeitsfeld und Produkt, mit unterschiedlichen Berechtigungen.
– Welche Schranken waren da noch gleich?
Clearview-KI muss nichtübersetzt werden. Die Firma heißt Clearview AI :)
Sicher sind einige Ideen der Kommission gar nicht schlecht. Ich würde aber statt Gesichtserkennung zu verbieten auf das Recht am eigenen Bild, informelle Selbstbestimmung und ein Verbot von (auch digiralem) „Stalking“ setzen. Würde man einfach die Regeln, die im analogen Leben gelten konsequent auf das Digitale anwenden, so wären die schlimmsten Dinge schon vom Tisch.
Die Kommission will das anscheinend nicht. Sie ist entweder nicht zu einer minimalen Transferleistung fähig oder sie will das nicht. Ich fürchte durch die Installation expliziter Regeln im Digitalem werden die eigentlich sowieso geltenden Regeln abgeschwächt, die Rechtslage wird komplexer und so missbräuchliche Verwendung z.B. von KI gerade da erlaubt wo man Interessen hat (Polizei, Militär oder Wirtschaftförderung).
Installiert man Sonderregeln, so sind die ganz klar an den bestehenden Regeln zu messen.
Möglicherweise versteht die Kommission nicht, das nicht die KI, der Computer illegal „handelt“ sondern die Verwendung aus Gewinnsucht, Machtstreben oder gar verbrecherischen Motiven missbräuchlich ist. Ein Messer kann nicht töten. Es ist der Mensch, der das tut. Nicht die KI überwacht. Es ist der Betreiber der in dein Schlafzimmer schauen oder manipulieren, machmal einfach abzocken will.
Wie wäre es statt dessen einmal mit einer Haftung der Hersteller bei „Computerfehlern“, bei Eingriff in die informelle Selbstbestimmung oder AGB-Änderungen mit Updates und und und?