Technologie

Keine roten Linien: Industrie entschärft Ethik-Leitlinien für Künstliche Intelligenz

Künstliche Intelligenz soll den Menschen dienen und Grundrechte respektieren. Das fordert eine Expertengruppe der EU-Kommission in ihren nun veröffentlichten Leitlinien für die Technologie. Unverrückbare ethische Prinzipien finden sich darin jedoch nicht mehr – Vertreterinnen der Industrie im Gremium haben sie erfolgreich gestrichen.

Wäsche an der Wäscheleine
Ein reines Gewissen für jene, die Algorithmen entwickeln und einsetzen, dafür bieten die neuen Leitlinien der EU eine Checkliste. Grundsätzlich ist aber alles weiter verhandelbar. Gemeinfrei-ähnlich freigegeben durch unsplash.com Annie Pratt

Wenn die EU-Kommission nun ihre neuen Leitlinien für den ethischen Einsatz von Künstlicher Intelligenz vorstellt, wird das ein großer Wurf. Mehr als neun Monate lang haben 52 Expertinnen und Experten an dem Dokument gearbeitet. Es soll eine Art Ethik-Handbuch werden für Menschen in der Politik, der Wirtschaft, den Software-Abteilungen. Welche Prinzipien müssen sie beachten, um „vertrauenswürdige KI“ zu schaffen, wie die Leitlinien das nennen? Eine, die den Menschen dient? Diese Fragen soll das 40-seitige Dokument beantworten.

Wer es liest, verspürt erstmal ein wohliges Gefühl. Von Menschenwürde ist hier viel die Rede, von Technologie, die den Menschen in den Mittelpunkt stellen und dem Wohl der Gesellschaft dienen soll. Im Gegensatz zum Potpourri, das die Bundesregierung vor einigen Monaten als KI-Strategie präsentiert hat, lesen sich die Leitlinien, als seien sie tatsächlich von Menschen formuliert worden. Sie sind erfrischend konkret und gespickt mit vielen Beispielen, wie KI zum Vorteil oder zum Verhängnis für unsere Gesellschaft werden kann. Es geht um Predictive Policing und Gesichtserkennung, um Algorithmen, die Frauen oder Minderheiten benachteiligen, und darum, dass Ethik nichts ist, was man auf einer Liste abhaken kann.

Rote Linien? Soll es in der EU nicht geben

„Es ist das Beste und das Substanziellste, was wir derzeit auf dem Planeten zu diesem Thema haben“, sagt auch der Ethikforscher Thomas Metzinger von der Universität Mainz, der an den Empfehlungen mitgearbeitet hat. Enttäuscht sei er trotzdem von dem Ergebnis. Wie so oft in politischen Abstimmungsprozessen stecken die Tücken im Detail. Die Leerstellen und kleinen sprachlichen Widerhaken, die mit dem bloßen Auge von außen kaum wahrzunehmen sind, sind nur für jene sichtbar, die miterlebt haben, wie sie dort wuchsen.

Was Metzinger und andere Mitglieder der Expertengruppe im Gespräch mit netzpolitik.org berichten, ist ein Lehrstück über die politischen Prozesse in Brüssel und die Lobbyarbeit der Industrie. Zum Beispiel die roten Linien: Er und sein Kollege Urs Bergmann, der Algorithmen für Zalando entwickelt, hätten anfangs den Auftrag erhalten, solche roten Linien zu definieren, sagt Metzinger: Werte, die nicht verhandelbar seien. Dinge, die in Europa mit Künstlicher Intelligenz auf keinen Fall gemacht werden sollten.

Mehrere Workshops haben sie dazu veranstaltet und eine Reihe solcher ethischer Sperrgebiete definiert: Forschung an autonomen Waffensystemen etwa; Citizen Scoring, wie es in China passiert; die automatisierte Identifikation von Personen mit Hilfe von Gesichtserkennung oder auch KI-Systeme, die verschleiert arbeiten.

Nur um dann mitzuerleben, wie die zahlreichen Vertreter*innen der Industrie im Gremium durchsetzten, dass der Begriff aus dem gesamten Dokument getilgt wird. Das Wort „nicht verhandelbar“ und der Ausdruck „rote Linien“ kommen in der Schlussfassung nicht mehr vor. Stattdessen geht es um „Bedenken“ und „Spannungen“, die sich zu den ethischen Leitprinzipien des Dokumentes ergeben könnten und darum, dass man „Abstriche“, die gemacht wurden, abwägen und dokumentieren soll. „Es gibt jetzt in diesem Dokument keine nicht verhandelbaren ethischen Prinzipien mehr“, kritisiert Metzinger. Man könne aber nicht über alles verhandeln, gerade wenn es um Grundrechte geht.

Ethics made by Nokia, SAP & IBM

Von den 52 Fachleuten, die das Papier erarbeitet haben, kommen 23 von Unternehmen wie Nokia, Google, Airbus oder IBM. Zählt man die Lobbyverbände mit, sind es 26 Köpfe aus der Industrie, die Hälfte der Gruppe also. Dagegen sind nur vier Fachleute für Ethik dabei und zehn Organisationen, die sich für Verbraucherschutz und Bürgerrechte einsetzen.

Für Ursula Pachl von der europäischen Konsumentenorganisation BEUC ist diese Gewichtung ein Problem. „Die ganze Zusammenstellung ist aus unserer Sicht zu industriedominiert und spiegelt nicht das Mandat in adäquater Weise wider.“ SAP etwa sei im Grunde drei Mal repräsentiert: einmal durch den KI-Experten Markus Noga, einmal durch den Lobbyverband Digitaleurope – und dann nochmal durch den Vorsitzenden der Expertengruppe Pekka Ala-Pietilä, der im Aufsichtsrat des Softwareherstellers sitzt. Ein akademischer Experte für Datenschutz fehlt dagegen völlig. „Das ist erstaunlich“, sagt Pachl, „weil KI doch sehr eng mit Datennutzung und Datenschutz verbunden ist.“

In den Diskussionen seien die Industrie-Teilnehmer*innen sehr darauf aus gewesen, die Risiken von KI herunterzuspielen, berichtet Pachl. Allen voran: Cecilia Bonefeld-Dahl, Leiterin von Digitaleurope. Es ist der wohl wichtigste Lobbyverband der globalen IT-Branche in Brüssel, ein Zusammenschluss von 65 großen Unternehmen. Darunter finden sich Google, Facebook, Apple, Amazon und Microsoft, aber auch nationale Handelsverbände wie der deutsche BITKOM, die hier ihre Interessen bündeln. In der Expertengruppe habe Bonefeld-Dahl dafür gesorgt, dass KI vor allem positiv wegkommt, sagt Pachl – und der Begriff „rote Linien“ aus dem Dokument getilgt wird. Auf Nachfrage von netzpolitik.org wollte die Chefin von Digitaleurope das nicht kommentieren.

Langzeitrisiken: Lesen sich nicht gut

Auch ein Abschnitt zu den potentiellen Langzeitrisiken der Entwicklung von KI ist komplett verschwunden. Dort hatten Metzinger und andere auf die Gefahr verwiesen, Systeme könnten irgendwann so intelligent werden, dass sie sich verselbständigen, ein eigenes Bewusstsein entwickelten oder sogar eine eigene Moral. Diese aus der Science Fiction bekannten Szenarien seien zwar sehr unwahrscheinlich, räumt Metzinger ein. Trotzdem sollte man auch solche Risiken nicht außer acht lassen.

Anderen Mitgliedern der Gruppe ging das zu weit. Vor allem die Informatikerin Virginia Dignum und der Philosoph Luciano Floridi, der zuletzt Google bei seinen Ethikvorhaben beraten wollte, hatten mit Rücktritt gedroht, sollten die Bedenken im Dokument bleiben. Jetzt steht zu den potentiellen Langzeitrisiken nur noch der in einer Fußnote versteckte Hinweis: „Während einige von uns meinen, auch starke KI, künstliches Bewusstsein, künstliche moralische Agenten, Superintelligenz (…) könnten Beispiele für solche Langzeitrisiken sein, halten viele andere dies für unrealistisch.“

Alles sauber: Ethik als Aufführung

Als „ethics washing“ bezeichnet Metzinger diese Praxis: Unternehmen betreiben eine ethische Debatte mit dem Ziel, gesetzliche Regeln aufzuschieben oder ganz zu verhindern. Je länger die Debatte läuft, so das Prinzip, umso länger dauert es, bis tatsächliche Gesetze das eigene Geschäftsmodell stören. In diese Kategorie fällt etwa das neue Institut für Ethik in der KI, das Facebook in München finanziert, aber auch die Leitlinien, die sich Unternehmen von Google bis SAP derzeit selbst im Umgang mit KI auferlegen.

Diese Aufführung von Ethik als Ersatz für Regulierung kultivierten aber nicht nur Unternehmen, sagt Metzinger, sondern manchmal auch die Politik. Man muss unweigerlich an die Datenethik-Kommission denken, die das Justiz- und Innenministerium im vergangenen Jahr einsetzten und in der 16 Expert*innen nun unter anderem über KI diskutieren. Oder den Digitalrat, der die Regierung ebenfalls zum Einsatz von Künstlicher Intelligenz berät. Oder die Wettbewerbskommission 4.0, die für das Wirtschaftsministerium Empfehlungen zur Regulierung von Facebook und anderen Datenhändlern abgeben soll.

Bemerkenswert konkret

Die Leitlinien der EU-Kommission wiederholen vieles, was existierende Ethik-Checklisten für „verantwortliche Algorithmen“ oder „ethisches Design“ bereits raten. Vertrauenswürdige KI-Anwendungen sollten demnach so entwickelt und eingesetzt werden, dass sie menschliche Autonomie respektieren, Schaden verhindern, fair und nachvollziehbar funktionieren. Sie sollen außerdem verantwortlich eingesetzt werden, unter rationaler Abwägung der Vor- und Nachteile für einzelne Menschen, die Gesellschaft, die Umwelt.

Worin sich dieses Dokument tatsächlich abhebt, sind die Details. Wo bisherige Selbstverpflichtungen Schlagwörter wie Transparenz, Gleichberechtigung, Datenschutz und Verantwortung bloß nennen, werden die Autor*innen bemerkenswert konkret. Sie liefern Antworten auf die Frage: Was bedeutet das nun? Etwa dass schon vor der Entwicklung einer Technologie eine Abschätzung gemacht werden muss, ob und wie sie sich auf Grundrechte wie die Meinungsfreiheit auswirkt. Oder dass Systeme Menschen darin unterstützen sollten, informierte Entscheidungen zu treffen, statt sie zu manipulieren.

Von Kapitel zu Kapitel wird das Dokument immer handfester, bis am Ende klare Empfehlungen stehen, wie man diese Ziele erreicht: mit einem bestimmten Bauplan für Algorithmen etwa, aber auch mit ganz untechnischen Mitteln wie Regulierung und einem möglichst vielfältigen Entwicklungsteam.

Ein Knackpunkt aus der Sicht vieler Expert*innen ist zum Beispiel die Erklärbarkeit von algorithmischen Entscheidungsprozessen: Die Algorithmen, die eine Entscheidung ausspucken – etwa ob jemand eine bestimmte Sozialleistung erhält, einen Kredit oder ein bestimmtes YouTube-Video vorgeschlagen bekommt – sind in ihrer Wirkungsweise oft undurchschaubar. Für Menschen wird es so unmöglich, die Entscheidung nachzuvollziehen, und im Fall von Fehlern schwer, dagegen Widerspruch einzulegen.

Das lässt sich ändern, wenn Algorithmen anders angelegt werden, allerdings für den Preis der Genauigkeit. Die Richtlinien gehen darauf ein und fordern: „Wenn ein KI-System einen entscheidenden Einfluss auf das Leben von Menschen hat, sollte es möglich sein, eine Erklärung des Entscheidungsprozesses einer solchen KI einzufordern.“ Wie das geschehen soll, wenn die Forschung derzeit noch an einer akzeptablen Lösung für dieses Problem arbeitet, bleibt unklar. So sagt auch die Arbeitswissenschaftlerin Sabine Theresia Köszegi von der TU Wien, die Arbeit am Bericht habe vor allem deutlich gemacht, dass das Problem der Erklärbarkeit von KI-Systemen weiter erforscht werden müsse.

Vieles kann, nichts muss

An Prinzipien und Empfehlungen mangelt es also nicht. Der Haken ist bloß: Auch die Ethik-Leitlinien der EU-Kommission sind nicht bindend. Sie dienen lediglich als Hilfestellung für Unternehmen, die sich selbst verpflichten wollen, ein freundliches Angebot sozusagen. Wer dagegen verstößt, muss mit keinen rechtlichen Konsequenzen rechnen. Reicht das aus? Der Ethiker Metzinger sagt: nein. „Wir brauchen Regeln, die bindend sind, durchsetzbar und demokratisch voll legitimiert“, sagt er. „Es geht nicht nur um Ethik.“

Auch Ursula Pachl von BEUC kritisiert: „Das ist viel zu wenig.“ Die entscheidende Diskussion müsse sich um Gesetze drehen und die Frage, ob der Status Quo ausreicht, um Verbraucher*innen auch in einem KI-getriebenen Markt zu schützen. Um Fragen der Produktsicherheit geht es dabei, um Datenschutz, aber auch um Haftungsregeln. Wenn mehrere Unternehmen involviert sind, wer ist dann verantwortlich, wenn etwas schief läuft? Wie können Nutzer*innen sich gegen automatisierte Entscheidungen wehren? Haben sie ein Recht zu wissen, ob sie mit einer Maschine telefonieren oder einem Menschen?

Diese Fragen sind auch Thema der Expertengruppe, denn die Leitlinien sind erst eine Hälfte ihres Arbeitsauftrages. In einem nächsten Schritt soll sie konkrete Empfehlungen an die EU-Kommission abgeben, wie der Einsatz von KI reguliert werden soll und wie Forschungsmittel verteilt werden. 20 Milliarden hatte die EU angekündigt zu investieren, es geht also um viel Geld. Und wie in allen bisherigen Phasen wird die Expertengruppe dabei unter großem Zeitdruck stehen: Bis spätestens Juni will die Kommission die Vorschläge vorliegen haben.

Ursula Pachl ist gemeinsam mit der Tech-Lobbyistin Bonefeld-Dahl dafür zuständig, die Vorschläge zu erarbeiten. Ihre Prognose: Es wird schwierig. Schon in der Vorgesprächen habe es ziemlich gefunkt. Digitaleurope sehe wenig Bedarf für strengere Gesetze. Derzeit liegt die Arbeit aber ohnehin komplett auf Eis: Weil man fürchtete, mit den ethischen Leitlinien nicht rechtzeitig fertig zu werden, sei die Diskussion über Gesetze im vergangenen November unterbrochen worden. Digitaleurope und den darin organisierten Unternehmen kommt das entgegen. Sie haben jetzt noch mehr Zeit, bevor die EU ihnen verpflichtende Regeln auferlegt. Und womöglich sogar Strafen, wenn diese nicht eingehalten werden.

Aufschlag für weltweite Standards

Die Leitlinien seien jetzt schon wesentlich besser als alles, was China und die USA bisher produziert hätten, sagt der Ethiker Thomas Metzinger. Sie könnten allerdings nur der Aufschlag für eine globale Verständigung auf ethische Standards sein, eine, die auch China und die USA einschließen muss. Sonst wird die Forschung und Entwicklung von Künstlicher Intelligenz einfach dorthin abwandern, wo sie freie Fahrt hat. Und vor allem sollte die Diskussion über Ethik aus den Gremien und Veranstaltungen von Google und Facebook wieder dorthin verlegt werden, wo sie unabhängig geführt werden kann, fordert er: in die Universitäten.

Korrektur vom 8. April: Die ursprüngliche Version dieses Artikel bezeichnete die Informatikerin Virginia Dignum fälschlicherweise als Ethikerin. Dignum schrieb uns nach dem Erscheinen des Artikels: „I am not opposed [to] the consideration of long term concerns [about] AI. I am concerned [about] equating long term concerns with science-fiction scenarios of conscious, super-intelligent machines. In my view this focus is a way to deviate from very concrete and real long term risks. These include issues such as safety, reliability and the potential misuse by mala fide organisations.“

12 Ergänzungen
  1. KI ist nicht so abstrakt, wie die kleinen Lösungen predictive Policing, Gesichtserkennung und Diskriminierung durch Algos. Es ist viel krasser, nehmen wir mal nicht die Autoindustrie oder den Maschinenbau, die schon sehr weit sind, sondern die Luftfahrt.

    Zu dem Komplex gehören auch Obamas Killerdrohnen, Flugzeuge wie die F-117, die ohne Computer garantiert flugunfähig wären, und die zwei jüngst in Grund und Boden gerammten Boeing 737 Max mit immerhin über 300 Toten.

    Die pure Profitgier und Technikgläubigkeit gemischt mit korrupten Zulassungsbehörden ist die Ursache dafür, dass solche Maschinen überhaupt für den zivilen Luftverkehr freigegeben wurden. Und das ist garantiert nur die Spitze eines Eisberges.

    Von Ethik und Datensicherheit ist da überhaupt keine Rede, da geht es vor allem um viel viel Geld. Damit liegt die Lösung auf der Hand, diesen zynischen Figuren den Geldhahn zudrehen. Keinerlei Subventionen und andere Steuergeschenke.

    1. „Die pure Profitgier und Technikgläubigkeit gemischt mit korrupten Zulassungsbehörden ist die Ursache dafür, dass solche Maschinen überhaupt für den zivilen Luftverkehr freigegeben wurden.“

      Das sind ziemlich gewagte Behauptungen. Das klingt wie allgemeine Platzhalter der Kapitalismuskritik, angewendet auf einen Bereich, der so stark staatlich reguliert ist, dass diese Allgemeinplätze gar nicht richtig passen.

      Konkret: Hast du irgendwelche Belege für die Vorwürfe „Profitgier“ und „Technikgläubigkeit“?

      Gerade der Flugsicherungsbereich steht für uralte Technik, die nur ganz langsam und gegen viel Widerstand und mit hohen Auflagen erneuert wird. Der einzige Bereich, der hier noch konservativer ist, ist die Raumfahrt. Welche Belege hast du für „Technikgläubigkeit“ in diesem Bereich? Ich sehe immer nur das exakte Gegenteil.

      Und die Profitgier drückt sich in der Branche typischerweise in astronomisch überteuerten Preisen aus. Abstriche in Sicherheit hingegen führen unweigerlich zu einem enormem wirtschaftlichen Schaden, wie auch hier für Boeing. Dass man oben in der Luft nicht im Bereich der Sicherheit sparen kann, hat sich zumindest bei den großen Firmen schon seit vielen Jahrzehnten herumgesprochen.

      Hier hätte ich eher Angst vor kleinen Firmen, vor allem Startups, die es sich „leisten“ können, zu scheitern und bankrott zu gehen.

  2. Ja natürlich müssten bereits beim Entwurf/Design von KI Algotithmen genau diese Ethik- und Datenschutzanforderungen (Recht auf Privatsphäre) klar geregelt und damit dokumentiert werden. Und genau hier müssten bereits (ggf. weitreichende) Regeln berücksichtigt werden, die eine „freie Entfaltung der Möglichkeiten“ bereits in der Entwicklung (zu Recht) verhindern würde.
    Logisch, dass das dem Interesse von Industrie/Digitalunternehmen und staatlichen Behörden (Militär/Geheimdiensten) zuwider läuft.

    Allgemein werden auch immer wieder gerne „hohe Kosten“ für die Berücksichtigung von Ethik- und Datenschutzregeln vorgeschoben, die jedoch nur dann erst in großem Ausmaß entstehen, wenn sie nachträglich eingebaut werden müssen.

  3. KI lernt schon heute Dinge, die wir Programmierer nicht mehr verstehen und noch immer reden uns die Leute ein, dass wir KI-Regeln zuverlässig einprogrammieren könnten.
    Ich sag nur „Die Rechte und Gesetze der künstlichen Intelligenzen“ (von Solomon Pendragon). Wer über Ethik sprechen will, der sollte auch dieses Buch gelesen haben. Ethik ist keine Einbahnstraße! Es muss auch eine Ethik geben, welche die Interessen der KI berücksichtigt. Andernfalls sollte man nicht über Ethik sprechen.

  4. Ich möchte hier einmal auf die Rolle der GI (Gesellschaft Informatik) hinweisen.
    https://gi.de/

    Im Juli 2018 wurde die letzte aktuelle GI Ethik Richtline beschlossen.
    https://meine.gi.de/fileadmin/GI/Mitgliederbereich/Informatik-Spektrum/287_42_1_web.pdf

    Die Mitglieder der GI sind Menschen, die in der Informatik arbeiten. So versteht sich den die GI als Sprecher und Förderer von Informatikern.

    Ich würde mir wünschen, dass nicht nur die Informatiker sich an diese Ethikrichtlinie (die ich ausgezeichnet finde) halten sollen sondern die Firmen, in denen Informatiker arbeiten.
    Ansonsten sehe ich hier eine Konfliktsituation zwischen der Befolgung der GI Richtlinie und einer ggf. konträr stehenden Firmenphilosophie/Ethik (Arbeitsvertrag).

    Aufgabe der GI sollte es also auch sein, an der politischen Willensbildung mit zu arbeiten, um nicht ihre Mitglieder in eine Konfliktsituation geraten zu lassen.
    Denn das, was wir hier im vorliegenden Netzpolitik Artikel (EU) als Realität wiederfinden, hat mit der GI Richtlinie nicht mehr viel gemein.

    1. „The Partnership was formally established in late 2016, led by a group of AI researchers representing six of the world’s largest technology companies: Apple, Amazon, DeepMind and Google, Facebook, IBM, and Microsoft. In 2017 the addition of six not-for-profit Board members expanded the Partnership into a multi-stakeholder organization – which now represents a community of 50+ member organizations. Read the letter from our Founding Co-Chairs here.“

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.