Anhörung zum AI ActKI-Definition spaltet Fachleute

Die EU-Kommission möchte mit dem AI Act ein Regelwerk für künstliche Intelligenz schaffen. Diese Woche hat der Bundestag Sachverständige zu dem Entwurf befragt. Sie sind gespalten – vor allem bei der Grundsatzfrage, welche Technologien die Verordnung überhaupt regulieren soll.

Der Ausschuss für Digitales vor Beginn der Anhörung
Sachverständige bewerten den AI Act im Ausschuss für Digitales – Alle Rechte vorbehalten Bundestag (Screenshot)

Die EU-Kommission will künstliche Intelligenz stärker regulieren. Im April 2021 hat sie dafür eine Verordnung vorgeschlagen, den AI Act. In Brüssel geht es seitdem schleppend voran, weder der Rat noch das Parlament konnten sich bisher auf eine Position einigen.

Auch in Berlin wird weiter über den AI Act diskutiert. Am Montag fand im Bundestag eine Sachverständigenanhörung zum Entwurf statt. Besonders uneinig waren sich die Expert:innen über die Frage, welche Software überhaupt unter den Begriff künstliche Intelligenz fallen sollte.

Der aktuelle Entwurf fasst die Definition sehr breit: Nicht nur Technologien des maschinellen Lernens sind gemeint, sondern auch statistische Verfahren. Darunter dürfte einiges an Software fallen, das im allgemeinen Sprachgebrauch sonst nicht als künstliche Intelligenz bezeichnet wird.

Uneinigkeit über KI-Definition

Kritik daran kommt vor allem von Wirtschaftsvertreter:innen. So bezeichnet Jonas Andrulis, Gründer des KI-Start-ups Aleph Alpha, die Definition als zu breit. Er warnt davor, dass eine Überregulierung vor allem kleinen Unternehmen schaden könnte. Ähnlich klingt es auch in den Stellungnahmen von Patrick Glauner vom KI Bundesverband und Michael Backes vom Helmholtz Center for Information Security.

Anders sieht das Angela Müller von der Organisation AlgorithmWatch. Der Anwendungsbereich des AI Acts müsse breit gefasst sein, da auch weniger komplexe Systeme wesentliche Auswirkungen auf die Grundrechte haben könnten. Als Beispiel nennt sie eine Software, die von niederländischen Behörden eingesetzt wurde, um Kindergeldansprüche zu überprüfen und Betrug aufzudecken. 2020 stellte sich heraus, dass die Software in tausenden Fällen falsche Entscheidungen getroffen hatte – oft auf Basis rassistischer Vorurteile.

Müllers Fazit: Ausschlaggebend solle nicht sein, um welche Technologie es sich handelt, sondern welche Auswirkungen sie auf die Grundrechte hat. Auch könne eine zu enge Definition Innovation hemmen, da Unternehmen dann versucht sein könnten, weniger komplexe Systeme zu verwenden, um der Regulierung zu entgehen.

Informatiker und Publizist Jürgen Geuter, im Netz bekannt unter dem Namen tante, sagte bei der Anhörung, die wahre Herausforderung läge nicht darin, spezifischen Technologien „hinterherzuregulieren“. Stattdessen sollten die Rechte der Betroffenen und die sozialen und ökologischen Auswirkungen von Technologien im Vordergrund der Regulierungen stehen. Dabei geht er auch auf den hohen Energieverbrauch von Machine-Learning-Systemen ein. Im AI Act findet dieser keine Erwähnung.

Unabhängige Prüfung und mehr Transparenz

Kern des AI Acts ist der sogenannte risikobasierte Ansatz. KI-basierte Systeme sollen in Risikoklassen eingestuft werden, für die unterschiedliche Regeln gelten. Als „hochriskant“ gilt eine ganze Reihe von Systemen, darunter etwa autonome Fahrzeuge, biometrische Identifizierung und auch Software, die in der Strafverfolgung, bei Grenzkontrollen oder in der kritischen Infrastrukturen eingesetzt wird.

Für solche Hochrisiko-Systeme sollen bestimmte Vorgaben gelten, unter anderem gibt es Dokumentationspflichten und Anforderungen an die IT-Sicherheit und die Qualität der Trainingsdaten. Die Anbieter:innen sollen dabei allerdings selbst sicherstellen, dass diese Vorgaben eingehalten werden. TÜV-Geschäftsführer Joachim Bühler und Oliver Suchy aus dem Bundesvorstand des Deutschen Gewerkschaftsbunds reicht das nicht aus. Beide sprechen sich dafür aus, dass die Systeme unabhängig geprüft werden sollen.

Laut dem Entwurf der Kommission ist auch eine öffentliche EU-Datenbank vorgesehen, in der alle Hochrisiko-Systeme registriert werden müssen. Angela Müller fordert, dass dort zusätzlich aufgeführt werden soll, an welcher Stelle und wofür die Systeme tatsächlich eingesetzt werden. Auch sollten Systeme, die von öffentlichen Stellen eingesetzt werden, generell offengelegt werden – selbst wenn sie nicht als hochriskant gelten.

Verbot mit vielen Schlupflöchern

Einige Anwendungen künstlicher Intelligenz wären nach dem AI Act verboten. Dazu gehören zum Beispiel sogenannte Social-Scoring-Systeme. Auch wäre es illegal im öffentlichen Raum für die Strafverfolgung „biometrische Echtzeit-Fernidentifizierungssysteme“ zu verwenden, gemeint ist damit Videoüberwachung, die Personen am Gesicht oder am Gang identifizieren kann.

Hier sind allerdings Ausnahmen vorgesehen, etwa darf solche Software bei Terrorgefahr oder der Suche nach einem vermissten Kind eingesetzt werden. Generell lässt die Formulierung viele Lücken, so wäre der Einsatz von Gesichtserkennungssoftware außerhalb der Strafverfolgung weiterhin möglich. Auch wird nicht ausgeschlossen, Videoaufnahmen aus dem öffentlichen Raum im Nachhinein zu durchsuchen. Sowohl Angela Müller als auch Catelijne Muller von der niederländischen Organisation ALLAI kritisieren das Verbot deswegen als unzureichend. Muller war eine der Expert:innen, die zuvor schon in der Gruppe von Fachleuten saß, die die EU-Kommission zur Regulierung beraten hatte.

Die Zukunft des AI Acts wird wahrscheinlich im nächsten Jahr entschieden. Das EU-Parlament wird im November über seine Version des Gesetzentwurfes abstimmen, der Rat berät jetzt über den kürzlich veröffentlichten Kompromissvorschlag der tschechischen Ratspräsidentschaft. Danach müssen sich beide Institutionen auf eine gemeinsame Position einigen.

0 Ergänzungen

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.