Die Verhandlungen beim AI Act der Europäischen Union gehen in die letzte Runde – und laut 118 zivilgesellschaftlichen Organisationen aus ganz Europa droht im Gesetzestext zur Regulierung von künstlicher Intelligenz ein riesiges Schlupfloch. Dadurch könnten sich Unternehmen aus der Verantwortung stehlen, fürchten die Unterzeichnenden. Die Zivilgesellschaft sieht hier das Einsickern von Industrie-Lobby-Positionen in den Gesetzestext.
Von Anfang an war beim AI Act um eine Definition gestritten worden, wann ein System unter das Gesetz fällt. Dabei ging es immer auch um die sogenannten Hochrisiko-Systeme. Der ursprüngliche Entwurf der EU-Kommission beschreibt ausführlich, was bei KI-Systemen alles schiefgehen kann. Sie können demnach die Menschenwürde verletzen und die Privatsphäre einschränken; sie können sexistisch und rassistisch sein oder Menschen mit Behinderung benachteiligen.
Die Liste von Hochrisiko-Systemen ist umfassend und reicht von Lügendetektoren über Deepfake-Erkennung bis hin zu Software, die kriminelles Verhalten vorhersagen soll, sogenanntes Predictive Policing. Fällt ein System darunter, bestehen besonders strenge Anforderungen an seinen Einsatz.
Wer entscheidet, was gefährlich ist
Und genau an dieser Stelle besteht in den Vorschlägen des EU-Parlaments und des Rats ein Problem, sie weichen vom ursprünglichen Kommissionsvorschlag ab. Laut Parlamentsvorschlag etwa könnten Unternehmen selbst dafür argumentieren, dass ihr Produkt nicht in die Kategorie „Hochrisiko“ fällt. Die Verfasser:innen des Briefs befürchten: Die Entscheidung darüber würde in der Praxis nicht anhand harter und rechtssicherer Kriterien gefällt, sondern so wie sich ein Unternehmen selbst einschätzt.
Die 118 zivilgesellschaftlichen Organisationen fordern die Europaabgeordneten auf, sich gegen die Technologie- und Industrielobby zu stellen und diese Änderungsvorschläge rückgängig zu machen. „Nur so kann sichergestellt werden, dass die Rechte der von KI-Systemen betroffenen Menschen Vorrang haben und dass die Entwicklung und Nutzung von KI sowohl rechenschaftspflichtig als auch transparent ist“, heißt es im gemeinsamen Statement.
Unternehmen werden Risiken herunterspielen
Unternehmen über die Risikoeinstufung ihrer KI-Systeme entscheiden zu lassen, untergrabe den durch die Gesetzgebung gewährleisteten Menschenrechtsschutz, weil Unternehmen dann Gewinnanreize hätten, die Risiken ihres Systems herunterzuspielen.
Für die zivilgesellschaftlichen Organisationen ist klar:
Diese Änderungen an Artikel 6 müssen abgelehnt und das ursprüngliche Risikoklassifizierungsverfahren der Europäischen Kommission muss wiederhergestellt werden. Es muss einen objektiven, kohärenten und rechtssicheren Prozess geben, um zu bestimmen, welche KI-Systeme im KI-Gesetz als „risikoreich“ gelten.
Der AI Act befindet sich in der Trilog-Phase, in der EU-Parlament, EU-Rat und EU-Kommission den endgültigen Gesetzestext aushandeln. Der AI Act steht zudem in der Kritik, weil er Staaten biometrische Massenüberwachung erlaubt, die militärische Aufrüstung mit KI-Systemen befördert und den Einsatz gefährlicher und aggressiver KI-Systeme mit der Begründung der „nationalen Sicherheit“ sowie an den Außengrenzen zulässt.
„das Unternehmen Freiheiten lässt, die Gefährlichkeit ihrer Produkte selbst einzuschätzen“
Lassen wir etwa Sachen passieren? Ach richtig, ist ja wie mit dem Klimawandel: USA und China sollen mal vorpreschen, vorher lohnt sich das ja gar nicht. Welche Technologien bauen wir noch gerade mal so?
(Interview with Mustafa Suleyman: https://www.youtube.com/watch?v=CTxnLsYHWuI )
Wie gesagt, ihr müsst die Unternehmen ausspionieren und austesten, sonst wird’s mit „freiwillig“ ein Desaster.
AI als Mittel zum Zweck:
The United States has developed a new area of dominance that the rest of the world views with a mixture of awe, envy, and resentment: artificial intelligence.
https://thediplomat.com/2023/09/us-leadership-in-artificial-intelligence-can-shape-the-21st-century-global-order/