Technologie

Firmen verleihen sich selbst ein Gütesiegel für Künstliche Intelligenz

Mit einem neuen Gütesiegel für Künstliche Intelligenz wollen Firmen signalisieren: Wir berücksichtigen Ethik, Transparenz und Datenschutz. Aber reichen Regeln, die sich die Branche selbst auferlegt, um das Vertrauen in die Systeme zu stärken?

Fair gehandelt, aus kontrolliert-biologischem Anbau oder menschen-zentriert? Das neue Gütesiegel des KI Bundesverbandes prangt künftig auf Anwendungen, die mit maschinellem Lernen arbeiten. Hintergrund: geralt | Collage: netzpolitik.org

In Deutschland liebt man Gütesiegel. Sie signalisieren beim Einkaufen, dass ein Produkt aus kontrolliert-biologischem Anbau stammt, fair gehandelt ist oder frei von Schadstoffen. Und demnächst wird es ein solches Siegel auch für die so genannte Künstliche Intelligenz (KI) geben, für Produkte, Anwendungen und Dienstleistungen also, die mit Hilfe von maschinellem Lernen arbeiten.

Verliehen wird das Siegel vom KI Bundesverband, einem Zusammenschluss von Unternehmen, darunter vor allem Start-ups, die mit der Entwicklung oder dem Einsatz von maschinellem Lernen ihr Geschäft machen. Sie wollen sich mit dem Siegel selbst klare Regeln geben und so das Vertrauen in ihre Produkte stärken, sagte Vorstand Jörg Bienert bei der Vorstellung des Siegels am Wochenende. Das Gütesiegel solle ein Markenzeichen werden.

Zunächst einmal ist das Siegel eine Selbstverpflichtung. Wer es für ein Produkt haben möchte, unterschreibt, dass er bestimmte Standards einhält, etwa was die ethische Auswirkungen seines Produktes angeht, die Transparenz der Prozesse oder den Umgang mit Daten.

Freiheit, Gleichheit, Pluralismus

Geht man die im Dokument genannten Gütekriterien der Reihe nach durch, fällt auf, dass viele Schlagworte fallen, die derzeit im Zusammenhang mit maschinellem Lernen diskutiert werden – sei es im Bundestag, wo der Digitalausschuss sich mit dem Thema befasst, in der Datenethik-Kommission der Regierung oder in Expertengruppen im Auftrag der EU-Kommission.

Der Mensch soll im Mittelpunkt stehen, heißt er dort etwa unter dem Punkt Ethik. Werte wie „Pluralismus, Nichtdiskriminierung, Toleranz, Gerechtigkeit, Solidarität sowie der Gleichheit der Geschlechter“ sollen als Leitlinien dienen. Künstliche Intelligenz soll „nicht zur Diskriminierung oder gegen Demokratie oder Menschenrechte genutzt“ werden.

Es geht auch um die Unvoreingenommenheit der Systeme, dass sie also keine Vorurteile reproduzieren. Das klingt banal, doch einige algorithmischen Entscheidungsprozesse diskriminieren – größtenteils unbeabsichtigt – Frauen, nicht-weiße Menschen oder wirtschaftlich Schwache. Entscheidend ist dabei die Auswahl der Trainings-Daten: Trainiert man einen Algorithmus mit Wissen, das bereits selbst von Vorurteilen verzerrt ist, wird er diese übernehmen und verstärken.

Die Selbstverpflichtung des Verbandes sieht vor, geschultes Personal auf dieses Problem anzusetzen und die Produkte auf solche Verzerrungen zu prüfen. „Die Ergebnisse der Bias-Erkennung sind in regelmäßigen Abständen zu dokumentieren, unabhängig davon, wie ein Unternehmen sich entscheidet mit dem Bias umzugehen.“ Dass sie auch behoben werden müssen, bevor ein Produkt auf den Markt kommt, davon ist nicht die Rede – und dieses Detail ist wohl entscheidend.

Siegel als Selbstverpflichtung

Die Informatikprofessorin Katharina Zweig, die in der Enquete-Kommission Künstliche Intelligenz des Bundestages sitzt, findet das Gütesiegel „gut gelungen“. Sie räumt aber ein: Das Siegel ist kein unabhängiges, von Expert*innen verliehenes Qualitätsurteil, sondern eine Selbstverpflichtung der Unternehmen, im Grunde eine Absichtserklärung, mit der sie bestätigen: Diese Werte und Kriterien sind uns wichtig und wir bemühen uns, sie einzuhalten.

Nur: Reicht das aus? Genügt im Fall von autonomen und intelligenten Anwendungen, die sich an immer mehr Stellen auf unser Leben auswirken, eine reine, selbst ausgestellte Bestätigung: Macht euch keine Sorgen, wir achten schon darauf, dass unser Produkt nichts Schlimmes anstellt?

Man muss sich einmal klar machen, welche Auflagen andere Produkte erfüllen müssen, die in der EU auf den Markt kommen. Vorhänge dürfen nicht leicht entflammbar sein, Spielzeuge müssen frei von Giftstoffen sein und Kondome reißfest. Erst wenn Hersteller*innen diese Auflagen erfüllen, erhalten sie das CE-Kennzeichen und dürfen ihr Produkt in der EU überhaupt verkaufen. Für autonome und intelligente Anwendungen, die mit maschinellem Lernen arbeiten, gibt es solche Richtlinien nicht. Ob eine Firma ein Produkt oder eine Dienstleistung an einen Kunden verkauft, der sie dann zum Beispiel nutzt, um Versicherungsrisiken zu kalkulieren, Bewerber*innen auszuwählen, Gesichter zu erkennen oder Sprache auszuwerten – das bleibt allein der Firma überlassen.

Auch für das neue Siegel des KI-Verbandes gilt: Eine unabhängige Überprüfung, ob Firmen sich tatsächlich daran halten oder gar Sanktionen, wenn sie dagegen verstoßen, sind nicht vorgesehen.

Lorenz Matzat von der gemeinnützigen Organisation AlgorithmWatch kritisiert deswegen, das Papier sei unzureichend und bleibe an vielen Stellen vage. Zur ethischen Verpflichtung zu mehr Freiheit, Gleichheit und anderem fragt er etwa: „Wie soll das auch nur annähernd gewährleistet werden, ohne umfangreiche Testreihen, Technologiefolgeabschätzungen und anschließender Evaluation?“ Auf welche Weise könne die Einhaltung solcher Kriterien beim Einsatz durch einen Kunden garantiert werden? Und wie sollten Dritte von außen bewerten können, ob das Unternehmen dem sich selbst vergebenen Gütesiegel gerecht werde?

Wie aufwändig und langwierig es ist, ein Dokument zu erstellen, das die eigenen Mitglieder für ethische Fragen sensibilisiert und dabei nicht bloß Schlagworte nennt, zeigt ein neuer Leitfaden, den das Institute of Electrical and Electronics Engineers (IEEE) vor wenigen Tagen veröffentlichte (Link zur deutschen Übersetzung bei AlgorithmWatch). Der globale Berufsverband der Ingenieur*innen entwickelt seit Jahrzehnten Standards für die Elektronikindustrie, etwa für die Kommunikation in Funknetzwerken. Jetzt veröffentlicht er erstmals einen Standard für das ethische Design intelligenter Systeme. Vorangegangen war jahrelange Arbeit.

2 Ergänzungen
  1. Gehören da nicht eigentlich abschreckendere Bilder drauf, wie bei Zigarettenverpackungen?

    Ich dachte eher so an ausgeschnittene Augen mit Sehnerv und einem kleinen ausgekärcherten Teil des Gehirns, noch mit Blut dran. Oder zumindest Phantomzeichnungen der typischen Unfälle, die „KI“ so begeht, z.B. dunkelhäutiger Mensch durchgestrichen, Zöpfe durchgestrichen, roter Briefkasten check, Fahradfahrer -> Plastiktüte, soetwas.

  2. Korrektur: Das CE-Kennzeichen auf Produkten wird vom Hersteller selbst vergeben. Eine unabhängige Prüfung ist für die allermeisten CE-gekennzeichneten Produkte nicht vorgesehen. Allerdings ist der Hersteller für Mängel und Folgeschäden haftbar, wenn er das CE-Kennzeichen zu Unrecht vergeben hat.
    Das wird beim KI-Siegel wohl nicht der Fall sein, und daher bietet es dem Kunden kaum einen Mehrwert.

Ergänzung an Anonymous Ergänzung abbrechen

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.