KI-GesetzEU-Kommission möchte Social Scoring verbieten

Die Europäische Kommission soll schon nächste Woche ein Gesetz vorlegen, dass Künstliche Intelligenz strenger reguliert. Social-Credit-Systeme wie in China sollen verboten werden, biometrische Überwachung im öffentlichen Raum wird als „hochriskant“ eingestuft. Das geht einigen EU-Abgeordneten aber nicht weit genug.

Roboter
Geht es nach dem Kopf der Maschine? Die EU möchte KI-Systeme regulieren. Gemeinfrei-ähnlich freigegeben durch unsplash.com Possessed Photography

Die EU-Kommission möchte den Einsatz von Künstlicher Intelligenz für Social-Scoring-Systeme grundsätzlich verbieten. Solche Systeme, die in China bereits getestet werden, sammeln, bewerten und sanktionieren das soziale Verhalten von Menschen. Ihr Einsatz soll auf einer neugeschaffenen Liste von technologischen Anwendungen landen, die künftig in der Europäischen Union verboten sind, berichtet Bloomberg. Der geleakte Entwurf ist inzwischen hier abrufbar.

Die Liste ist Teil eines Gesetzesvorschlags, mit dem die EU sogenannte Künstliche Intelligenz strenger regulieren will. Besonders risikoreiche Anwendungsfälle von automatisierten Entscheidungssysteme sollen demnach künftig von den Behörden genehmigt werden müssen. Die Kommission könnte einen entsprechenden Gesetzesentwurf schon nächste Woche vorlegen. Tatsächlich steht ein Punkt zu KI auf der Agenda der Kommission für 21. April.

Mit dem Vorschlag reagiert die EU-Kommission auf wachsende Besorgnis über den Einsatz von automatisierten Entscheidungssystemen in vielen Bereichen. Aber auch Testläufe für biometrische Videoüberwachung an öffentlichen Orten wie dem Berliner Südkreuz sorgen für Proteste aus der Zivilgesellschaft.

Gänzlich verbieten möchte die EU biometrische Überwachung allerdings nicht, wie aus dem Bericht von Bloomberg hervorgeht. Der Einsatz von automatisierter Gesichtserkennung an öffentlichen Orten soll eine Sondererlaubnis erfordern, heißt es. Es soll eine Liste mit Hochrisiko-Anwendungen für KI geschaffen werden, die nur unter bestimmten Voraussetzungen verwendet werden dürfen. Dazu gehört etwa biometrische Überwachung, selbstfahrende Autos, der KI-Einsatz bei Jobbewerbungen und in medizinischen Geräten.

EU will Kampfroboter nicht verbieten

Der Vorschlag aus Brüssel soll neben Verboten und Hochrisiko-Einstufungen auch eine Einstufung für „niedrige Risiken“ schaffen, derart gekennzeichnete Produkte unterliegen dann Transparenzauflagen. In diese Kategorien sollen Bots und Deep Fakes fallen. Anwendungsfälle, die nicht auf der Liste der EU auftauchen, bleiben erlaubt. Nicht auf der Liste der EU stehen etwa militärische Anwendungen von KI wie Kampfroboter, da diese aus Sicht der Kommission nicht nach den Binnenmarktregeln der EU reguliert werden sollten.

Verantwortlich für die Prüfung von neuen KI-Anwendungen sollen nach dem Vorschlag aus Brüssel die Mitgliedsstaaten sein. Diese sollen neue Behörden zur Prüfung schaffen. Firmen, die bei ihren KI-Produkten falsche Informationen angeben oder nicht ausreichend mit den Behörden kooperieren, sollen Strafen von bis zu vier Prozent ihres globalen Umsatzes riskieren, berichtet Bloomberg.

Einigen EU-Abgeordneten sind die durchgesickerten Vorschläge nicht scharf genug. Das etwa Systeme zur automatisierten Gesichtserkennung im öffentlichen Raum nicht generell verboten werden sollen, sei „ein Schlag ins Gesicht der Zivilgesellschaft“, sagt die Grüne Alexandra Geese.

Update vom 14.04.2021: Der Verweis auf den geleakten Entwurf im 1. Absatz wurde nach Erscheinen des Artikels hinzugefügt.

5 Ergänzungen

  1. Social Scoring wird ja u. a auch von Dating Plattformen wie Tinder betrieben. Da gibt es einen für die Nutzer nicht einsehbaren Score der die „Attraktivität“ bewertet. Je niedriger dieser ist desto weniger Oft wird man anderen Nutzern in der eingeblendet und desto geringer ist natürlich auch die Chance jemanden kennen zu lernen.

    Im Grunde eine aktive Diskriminierung von Menschen welche nicht den Mainstream Werten von „Schönheit“ entsprechen. Ich sehe auf Tinder jedenfalls nur Mädels die Top Models sein könnten…. Und bekomme nie Matches (Bin halt n hässlicher Nerd).

    Auch da braucht es harte Regeln das Systeme nicht automatisch bestimmte Benutzergruppen noch zusätzlich benachteiligen. Sowie vollkommene Transparenz den Nutzern gegenüber.

  2. Das klingt ja erstmal gut, aber wenn es am Ende dann ähnlich „effektiv“ durchgesetzt wird wie die DSGVO gegenüber Facebook und deren Datensammelei, dann kann man es auch fast schon wieder bleiben lassen. Diese Form der Technologie entzieht sich ja auch leider sehr den meisten Formen der Kontrolle – wie soll man denn prüfen, was mit einem Videostream passiert, der nach USA oder China zur „Auftragsdatenverarbeitung“ bzw. Speicherung/Backup übertragen wird? Wie soll man erkennen, dass da am anderen Ende die KI-Algorithmen laufen??? Die beste Lösung ist immer Überwachungskameras gar nicht erst aufzustellen, wenn sie nicht wirklich unbedingt erforderlich sind!

  3. „Besonders risikoreiche Anwendungsfälle von automatisierten Entscheidungssysteme sollen demnach künftig von den Behörden genehmigt werden müssen.“ – Den Fuchs den Hühnerstall bewachen lassen. Es sollte allen Beteiligten längst klar sein das die größte Bedrohung für unsere Grundrechte nicht von Privatleuten oder unabhängigen Unternehmen ausgeht, sondern von Behörden und staatlich geförderten Monopolisten. Alles was hiermit erreicht wird ist dass kleine Unternehmen und Privatleute keinen Zugriff mehr auf Schlüsseltechnologien haben, während staatliche Stellen sich selbst und ihren Kooperationspartnern nach belieben Ausnahmegenehmigungen erteilen können.

  4. Ich habe beim Lesen oben den Verdacht, dass da ganz andere Interessen als Meine und Deine dahinter stecken. Stichwort etwa: Ausnahme Kampfroboter.

    Deshalb hier also einfach nur die Frage:

    Bedeutet das, wir schließen jetzt zum Beispiel die Schufa und zwingen so die Banken zu eigenverantwortlichem Handeln ihren menschlichen Kunden gegenüber?

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.