Ein wegweisendes Gesetz soll es werden, die Künstliche-Intelligenz-Verordnung der Europäischen Union. Da überrascht es kaum, dass offenbar bis zur letzten Minute deswegen lobbyiert wurde.
Nur wenige Wochen vor der offiziellen Vorstellung des Gesetzesvorschlags im April dieses Jahres trafen Google-Vertreter*innen die EU-Kommission, um für die Interessen des Konzerns zu werben. Der Entwurf beschäftigt sich vor allem mit Hochrisiko-Anwendungen von Künstlicher Intelligenz (KI). Noch vor Jahresende soll er um einen weiteren Gesetzesvorschlag ergänzt werden, der Haftungsfragen zum Gegenstand hat. Das EU-Parlament hatte gefordert, sowohl Hersteller als auch Anbieter von KI-Tools in die Pflicht zu nehmen.
Immer wieder warnten Grundrechteorganisationen und Expert*innen in den vergangenen Jahren vor der Gefahr algorithmischer Diskriminierung, die etwa Frauen und Angehörige ethnischer Minderheiten trifft. Der Datenkonzern betonte auf die Frage aus dem Kabinett von Justizkommissar Didier Reynders, wer für solche Diskriminierung verantwortlich sei, es seien die Nutzer*innen, die „die Verpflichtung haben, nicht zu diskriminieren“. Diese müssten verstehen, welches System sie verwendeten und ob ihre Nutzung des Systems den Regeln entspreche.
Öffentlich hatte Google erst vor einigen Tagen erklärt, dass es von menschenrechtlich heiklen Anwendungsfallen Künstlicher Intelligenz vorerst absehe. Etwa habe die Firma einen Auftrag für die Risikobewertung von Konsumkrediten abgelehnt, auch verfolge sie Technologie zur Erkennung von Emotionen auf Fotos derzeit nicht weiter. Auch Konzerne wie Microsoft hatten in den vergangenen Jahren ethische Bedenken gegen gewisse KI-Anwendungen geäußert und sich für Regulierung ausgesprochen.
Google: Risiko „darf nicht überbetont werden“
Hinter verschlossenen Türen klingt das allerdings anders. Google-Lobbyist*innen betonen, das Risiko durch KI „darf nicht überbetont werden“. Gesetzgeber*innen müssten auch die „Opportunitätskosten beachten, wenn KI nicht eingesetzt wird“. Der geplante Gesetzesvorschlag riskiere, Innovation zu behindern, heißt es in Gesprächsnotizen der Kommission, die netzpolitik.org durch eine Informationsfreiheitsanfrage erhielt. Ähnlich hatte sich Google bereits in einer öffentlichen Konsultation der EU-Kommission geäußert.
Google erklärte auf Anfrage von netzpolitik.org, dass der Konzern den Schutz gegen Diskriminierung „unglaublich ernst“ nehme. Firmen, Regierungen und anderen Organisationen hätten eine klare Verpflichtung, keine Technologie zu bauen, die diskriminatorisch sei oder so wirken könnte.
Kurz nach dem Meeting mit Google stellte die Kommission ihren Gesetzesvorschlag zur KI-Regulierung vor, der Hochrisikoanwendungen streng regulieren und bestimmte Nutzungsarten wie Social Scoring nach chinesischem Vorbild gänzlich verbieten soll. Dem Vorschlag zufolge sollen biometrische Identifikationssysteme als hochriskant eingestuft werden, zusätzlich vermutlich auch Emotionserkennung.
Auf eine Frage der Kommission nach solchen Systemen, wie sie Google bereits für die Erkennung von Gesichtsausdrücken bei Fotos erprobt hat, äußerten sich Vertreter*innen des Konzerns vorsichtig. Google halte den Einsatz solcher Technologie in Situationen wie etwa Vorstellungsgesprächen für „sehr sensibel“ und sehe den Bedarf für „sehr genaue Prüfung und starke Schutzmaßnahmen“ für ihre Verwendung. Auf Anfrage wollte sich die Firma nicht äußern, ob sie derzeit an Anwendungen zur Emotionserkennung arbeite.
0 Ergänzungen
Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.