KI-GesetzEU-Kommission möchte Social Scoring verbieten

Die Europäische Kommission soll schon nächste Woche ein Gesetz vorlegen, dass Künstliche Intelligenz strenger reguliert. Social-Credit-Systeme wie in China sollen verboten werden, biometrische Überwachung im öffentlichen Raum wird als „hochriskant“ eingestuft. Das geht einigen EU-Abgeordneten aber nicht weit genug.

Roboter
Geht es nach dem Kopf der Maschine? Die EU möchte KI-Systeme regulieren. Gemeinfrei-ähnlich freigegeben durch unsplash.com Possessed Photography

Die EU-Kommission möchte den Einsatz von Künstlicher Intelligenz für Social-Scoring-Systeme grundsätzlich verbieten. Solche Systeme, die in China bereits getestet werden, sammeln, bewerten und sanktionieren das soziale Verhalten von Menschen. Ihr Einsatz soll auf einer neugeschaffenen Liste von technologischen Anwendungen landen, die künftig in der Europäischen Union verboten sind, berichtet Bloomberg. Der geleakte Entwurf ist inzwischen hier abrufbar.

Die Liste ist Teil eines Gesetzesvorschlags, mit dem die EU sogenannte Künstliche Intelligenz strenger regulieren will. Besonders risikoreiche Anwendungsfälle von automatisierten Entscheidungssysteme sollen demnach künftig von den Behörden genehmigt werden müssen. Die Kommission könnte einen entsprechenden Gesetzesentwurf schon nächste Woche vorlegen. Tatsächlich steht ein Punkt zu KI auf der Agenda der Kommission für 21. April.

Mit dem Vorschlag reagiert die EU-Kommission auf wachsende Besorgnis über den Einsatz von automatisierten Entscheidungssystemen in vielen Bereichen. Aber auch Testläufe für biometrische Videoüberwachung an öffentlichen Orten wie dem Berliner Südkreuz sorgen für Proteste aus der Zivilgesellschaft.

Gänzlich verbieten möchte die EU biometrische Überwachung allerdings nicht, wie aus dem Bericht von Bloomberg hervorgeht. Der Einsatz von automatisierter Gesichtserkennung an öffentlichen Orten soll eine Sondererlaubnis erfordern, heißt es. Es soll eine Liste mit Hochrisiko-Anwendungen für KI geschaffen werden, die nur unter bestimmten Voraussetzungen verwendet werden dürfen. Dazu gehört etwa biometrische Überwachung, selbstfahrende Autos, der KI-Einsatz bei Jobbewerbungen und in medizinischen Geräten.

EU will Kampfroboter nicht verbieten

Der Vorschlag aus Brüssel soll neben Verboten und Hochrisiko-Einstufungen auch eine Einstufung für „niedrige Risiken“ schaffen, derart gekennzeichnete Produkte unterliegen dann Transparenzauflagen. In diese Kategorien sollen Bots und Deep Fakes fallen. Anwendungsfälle, die nicht auf der Liste der EU auftauchen, bleiben erlaubt. Nicht auf der Liste der EU stehen etwa militärische Anwendungen von KI wie Kampfroboter, da diese aus Sicht der Kommission nicht nach den Binnenmarktregeln der EU reguliert werden sollten.

Verantwortlich für die Prüfung von neuen KI-Anwendungen sollen nach dem Vorschlag aus Brüssel die Mitgliedsstaaten sein. Diese sollen neue Behörden zur Prüfung schaffen. Firmen, die bei ihren KI-Produkten falsche Informationen angeben oder nicht ausreichend mit den Behörden kooperieren, sollen Strafen von bis zu vier Prozent ihres globalen Umsatzes riskieren, berichtet Bloomberg.

Einigen EU-Abgeordneten sind die durchgesickerten Vorschläge nicht scharf genug. Das etwa Systeme zur automatisierten Gesichtserkennung im öffentlichen Raum nicht generell verboten werden sollen, sei „ein Schlag ins Gesicht der Zivilgesellschaft“, sagt die Grüne Alexandra Geese.

Update vom 14.04.2021: Der Verweis auf den geleakten Entwurf im 1. Absatz wurde nach Erscheinen des Artikels hinzugefügt.

Mehr Zeit für kritische Berichterstattung

Ihr kennt es: Zum Jahresende stehen wir traditionell vor einer sehr großen Finanzierungslücke und auch wenn die Planung und Umsetzung unseres Spendenendspurts viel Spaß macht, bindet es doch sehr viele Ressourcen; Ressourcen, die an anderer Stelle für unsere wichtige Arbeit fehlen. Um Euch also weniger mit Spendenaufrufen auf die Nerven zu gehen und mehr Recherchen und Hintergründe bieten zu können, brauchen wir Eure regelmäßige Unterstützung.

Jährlich eine Stunde netzpolitik.org finanzieren

Das Jahr hat 8.760 Stunden. Das sind 8.760 Stunden freier Zugang zu kritischer Berichterstattung und wichtigen Fragestellungen rund um Internet, Gesellschaft und Politik bei netzpolitik.org.

Werde Teil unserer Unterstützungs-Community und finanziere jährlich eine von 8.760 Stunden netzpolitik.org oder eben fünf Minuten im Monat.

Jetzt spenden


Jetzt spenden

6 Ergänzungen

  1. Social Scoring wird ja u. a auch von Dating Plattformen wie Tinder betrieben. Da gibt es einen für die Nutzer nicht einsehbaren Score der die „Attraktivität“ bewertet. Je niedriger dieser ist desto weniger Oft wird man anderen Nutzern in der eingeblendet und desto geringer ist natürlich auch die Chance jemanden kennen zu lernen.

    Im Grunde eine aktive Diskriminierung von Menschen welche nicht den Mainstream Werten von „Schönheit“ entsprechen. Ich sehe auf Tinder jedenfalls nur Mädels die Top Models sein könnten…. Und bekomme nie Matches (Bin halt n hässlicher Nerd).

    Auch da braucht es harte Regeln das Systeme nicht automatisch bestimmte Benutzergruppen noch zusätzlich benachteiligen. Sowie vollkommene Transparenz den Nutzern gegenüber.

  2. Das klingt ja erstmal gut, aber wenn es am Ende dann ähnlich „effektiv“ durchgesetzt wird wie die DSGVO gegenüber Facebook und deren Datensammelei, dann kann man es auch fast schon wieder bleiben lassen. Diese Form der Technologie entzieht sich ja auch leider sehr den meisten Formen der Kontrolle – wie soll man denn prüfen, was mit einem Videostream passiert, der nach USA oder China zur „Auftragsdatenverarbeitung“ bzw. Speicherung/Backup übertragen wird? Wie soll man erkennen, dass da am anderen Ende die KI-Algorithmen laufen??? Die beste Lösung ist immer Überwachungskameras gar nicht erst aufzustellen, wenn sie nicht wirklich unbedingt erforderlich sind!

  3. „Besonders risikoreiche Anwendungsfälle von automatisierten Entscheidungssysteme sollen demnach künftig von den Behörden genehmigt werden müssen.“ – Den Fuchs den Hühnerstall bewachen lassen. Es sollte allen Beteiligten längst klar sein das die größte Bedrohung für unsere Grundrechte nicht von Privatleuten oder unabhängigen Unternehmen ausgeht, sondern von Behörden und staatlich geförderten Monopolisten. Alles was hiermit erreicht wird ist dass kleine Unternehmen und Privatleute keinen Zugriff mehr auf Schlüsseltechnologien haben, während staatliche Stellen sich selbst und ihren Kooperationspartnern nach belieben Ausnahmegenehmigungen erteilen können.

  4. Ich habe beim Lesen oben den Verdacht, dass da ganz andere Interessen als Meine und Deine dahinter stecken. Stichwort etwa: Ausnahme Kampfroboter.

    Deshalb hier also einfach nur die Frage:

    Bedeutet das, wir schließen jetzt zum Beispiel die Schufa und zwingen so die Banken zu eigenverantwortlichem Handeln ihren menschlichen Kunden gegenüber?

  5. Unter dem Namen „Smart Citizen Wallet“ sollen Italiener für Wohlverhalten wie Mülltrennung und Nutzung öffentlicher Verkehrsmittel Punkte sammeln können. Die Belohnung steht noch nicht fest, die sozialen Folgen sind dagegen absehbar.

    https://www.faz.net/aktuell/feuilleton/bologna-testet-punktesystem-fuer-soziales-wohlverhalten-17970037.html

    Die Europäische Kommission wollte vor einem Jahr ein Gesetz vorlegen, dass Künstliche Intelligenz strenger reguliert. Social-Credit-Systeme wie in China sollten verboten werden, biometrische Überwachung im öffentlichen Raum würde als „hochriskant“ eingestuft.

    Was wurde aus diesem Wollen der Europäischen Kommission?

Ergänzung an Piratenpartei Nerd Ergänzung abbrechen

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Bitte keine reinen Meinungsbeiträge! Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.