AI ActEin riesengroßes Schlupfloch für die Industrie

In der EU verhandeln Kommission, Rat und Parlament momentan den finalen Text für den AI Act. Dabei könnte ein Schlupfloch im Gesetz landen, das Unternehmen Freiheiten lässt, die Gefährlichkeit ihrer Produkte selbst einzuschätzen. 118 zivilgesellschaftliche Organisationen aus ganz Europa fordern, das nicht zuzulassen.

Eiförmige Sprechblase mit einem Loch.
Im Gesetzestext des AI Act befindet sich derzeit ein Schlupfloch. (Symbolbild) – Gemeinfrei-ähnlich freigegeben durch unsplash.com 愚木混株 cdd20

Die Verhandlungen beim AI Act der Europäischen Union gehen in die letzte Runde – und laut 118 zivilgesellschaftlichen Organisationen aus ganz Europa droht im Gesetzestext zur Regulierung von künstlicher Intelligenz ein riesiges Schlupfloch. Dadurch könnten sich Unternehmen aus der Verantwortung stehlen, fürchten die Unterzeichnenden. Die Zivilgesellschaft sieht hier das Einsickern von Industrie-Lobby-Positionen in den Gesetzestext.

Von Anfang an war beim AI Act um eine Definition gestritten worden, wann ein System unter das Gesetz fällt. Dabei ging es immer auch um die sogenannten Hochrisiko-Systeme. Der ursprüngliche Entwurf der EU-Kommission beschreibt ausführlich, was bei KI-Systemen alles schiefgehen kann. Sie können demnach die Menschenwürde verletzen und die Privatsphäre einschränken; sie können sexistisch und rassistisch sein oder Menschen mit Behinderung benachteiligen.

Die Liste von Hochrisiko-Systemen ist umfassend und reicht von Lügendetektoren über Deepfake-Erkennung bis hin zu Software, die kriminelles Verhalten vorhersagen soll, sogenanntes Predictive Policing. Fällt ein System darunter, bestehen besonders strenge Anforderungen an seinen Einsatz.

Wer entscheidet, was gefährlich ist

Und genau an dieser Stelle besteht in den Vorschlägen des EU-Parlaments und des Rats ein Problem, sie weichen vom ursprünglichen Kommissionsvorschlag ab. Laut Parlamentsvorschlag etwa könnten Unternehmen selbst dafür argumentieren, dass ihr Produkt nicht in die Kategorie „Hochrisiko“ fällt. Die Verfasser:innen des Briefs befürchten: Die Entscheidung darüber würde in der Praxis nicht anhand harter und rechtssicherer Kriterien gefällt, sondern so wie sich ein Unternehmen selbst einschätzt.

Die 118 zivilgesellschaftlichen Organisationen fordern die Europaabgeordneten auf, sich gegen die Technologie- und Industrielobby zu stellen und diese Änderungsvorschläge rückgängig zu machen. „Nur so kann sichergestellt werden, dass die Rechte der von KI-Systemen betroffenen Menschen Vorrang haben und dass die Entwicklung und Nutzung von KI sowohl rechenschaftspflichtig als auch transparent ist“, heißt es im gemeinsamen Statement.

Unternehmen werden Risiken herunterspielen

Unternehmen über die Risikoeinstufung ihrer KI-Systeme entscheiden zu lassen, untergrabe den durch die Gesetzgebung gewährleisteten Menschenrechtsschutz, weil Unternehmen dann Gewinnanreize hätten, die Risiken ihres Systems herunterzuspielen.

Für die zivilgesellschaftlichen Organisationen ist klar:

Diese Änderungen an Artikel 6 müssen abgelehnt und das ursprüngliche Risikoklassifizierungsverfahren der Europäischen Kommission muss wiederhergestellt werden. Es muss einen objektiven, kohärenten und rechtssicheren Prozess geben, um zu bestimmen, welche KI-Systeme im KI-Gesetz als „risikoreich“ gelten.

Der AI Act befindet sich in der Trilog-Phase, in der EU-Parlament, EU-Rat und EU-Kommission den endgültigen Gesetzestext aushandeln. Der AI Act steht zudem in der Kritik, weil er Staaten biometrische Massenüberwachung erlaubt, die militärische Aufrüstung mit KI-Systemen befördert und den Einsatz gefährlicher und aggressiver KI-Systeme mit der Begründung der „nationalen Sicherheit“ sowie an den Außengrenzen zulässt.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

3 Ergänzungen

  1. „das Unternehmen Freiheiten lässt, die Gefährlichkeit ihrer Produkte selbst einzuschätzen“

    Lassen wir etwa Sachen passieren? Ach richtig, ist ja wie mit dem Klimawandel: USA und China sollen mal vorpreschen, vorher lohnt sich das ja gar nicht. Welche Technologien bauen wir noch gerade mal so?

    (Interview with Mustafa Suleyman: https://www.youtube.com/watch?v=CTxnLsYHWuI )

  2. Wie gesagt, ihr müsst die Unternehmen ausspionieren und austesten, sonst wird’s mit „freiwillig“ ein Desaster.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.