KI-Forscherin Timnit GebruTausende Google-Angestellte protestieren nach Rauswurf

Vergangene Woche verließ die KI-Ethik-Forscherin Timnit Gebru Google im Streit. Google spricht von Kündigung, sie selbst von einer Entlassung. Nun stellen sich Tausende Googler öffentlich hinter die Wissenschaftlerin und fordern eine Aufklärung des Vorgangs.

KI-Forscherin Timnit Gebru spricht auf einer Konferenz
Google KI-Forscherin Timnit Gebru spricht für Google auf einer Konferenz in San Francisco. CC-BY 2.0 Kimberly White

Warum arbeitet die KI-Forscherin Timnit Gebru nicht mehr bei Google? Diese Frage beschäftigt seit vergangener Woche viele Google-Angestellte, aber auch Gebrus Forschungsgemeinschaft im Bereich der KI-Ethik. Gebru war auf diesem Feld ein Star, bekannt als Co-Autorin einer Studie, die nachwies, dass kommerzielle Gesichtserkennungssysteme Schwarze Frauen schlechter erkennen. Damals arbeitete sie noch bei Microsoft. Später wurde sie ein Aushängeschild für Google, sprach weltweit auf Konferenzen.

Gebru beschäftigt sich nicht nur fachlich mit den rassistischen und sexistischen Verzerrungen von Algorithmen. Sie kämpfte auch als Aktivistin gegen das Ungleichgewicht in ihrer Branche. Sie ist eine der Gründerinnen der Organisation „Black in AI“, die sich für die Repräsentation Schwarzer Menschen in ihrem Feld einsetzte.

Gebru klagt über Forschungs-Zensur

Seit einer Woche befindet sich Gebru nun in einem öffentlichen Streit mit Google. Die Details der Eskalation lassen sich schwer nachvollziehen, weder Gebru noch Google wollen den Fall weiter kommentieren. Bekannt ist: Am Mittwoch schrieb Gebru auf Twitter, sie sei von Jeff Dean, Leiter der Forschungsabteilung entlassen worden. Dies sei mit Verweis auf eine E-Mail passiert, die sie zuvor an eine interne Mailingsliste von Google geschrieben hatte und in der sie Google vorwirft, „marginalisierte Stimmen“ zu unterdrücken.

Inzwischen ist diese Mail öffentlich geworden. Gebru beschreibt darin, wie sie ein Forschungspapier zurückziehen sollte, das sie gemeinsam mit weiteren Autorinnen bei einer Konferenz eingereicht hatte. Die Gründe dafür seien unklar gewesen. Sie spricht von ihrer eigenen „Entmenschlichung“ im Unternehmen und legt nahe, dass sie von ihren Vorgesetzten absichtlich an der Veröffentlichung ihrer Forschung gehindert wurde.

Die Studie, die Gebru gemeinsam mit Wissenschaftlerinnen von Google und außerhalb verfasst hatte, drehte sich um rassistische und anderen historische Verzerrungen in Modellen, die menschliche Sprache imitieren. Es legte nahe, dass Konzerne wie Google mehr tun könnten, um das zu verhindern. MIT Technology Review hat die Inhalte des Entwurfs hier zusammengefasst. „Ich hatte den Eindurck, wir werden zensiert und dachte, dass das Implikationen für ethische KI-Forschung als Ganzes hat“, sagte Gebru gegenüber Wired. „Du wirst nicht immer Studien haben, die die Firmen glücklich machen und nicht auf Probleme hinweisen.“

Offener Protest der Belegschaft

Der Fall zieht Kreise. Inzwischen haben Tausende Google-Angestellte einen offenen Brief unterzeichnet, in dem sie unter dem Schlagwort #believeblackwomen die Aufklärung der Vorgänge fordern. Sie werfen Google vor, Gebru rassistisch diskriminiert, ihre Forschung zensiert und sie dann gefeuert zu haben, nachdem sie diese Behandlung öffentlich machte.

Auch Gebrus unmittelbare Kolleg:innen aus dem Ethical Artificial Intelligence Team haben sich in einem Post auf dem Google-Walkout-Blog zu Wort gemeldet. Sie widersprechen darin der Darstellung von Jeff Dean, Gebru habe selbst gekündigt. Sie beschreiben auch, wie der interne Überprüfungsprozess für Forschungsstudien bei Google normalerweise abläuft und dass der Umgang mit Gebrus Studie nicht der Norm entspreche, sondern „diskriminierend und ungleich“ gewesen sei. Die Darstellung Jeff Deans, dass Gebru mit der Einreichung ihrer Studie vor einer Bewilligung durch Google gegen die Regeln verstoßen habe, sei falsch. Die Studie sei zunächst intern bewilligt worden. Erst später sei Gebru aufgefordert worden, ihren Namen vom Papier zu entfernen.

Keine Kündigung, sondern Forderungen

Auch Gebru schreibt auf Twitter, sie habe nicht gekündigt. Sie habe lediglich Forderungen gestellt, als Voraussetzung dafür, um bei Google zu bleiben. Unter anderem ging es um Transparenz über die Entscheidungskriterien und die in die Entscheidung involvierten Personen. Sie bat darum, nach ihrem anstehenden Urlaub das Gespräch fortzuführen.

In diesem Fenster soll ein Twitter-Post wiedergeben werden. Hierbei fließen personenbezogene Daten von Dir an Twitter. Aus technischen Gründen muss zum Beispiel Deine IP-Adresse übermittelt werden. Twitter nutzt die Möglichkeit jedoch auch, um Dein Nutzungsverhalten mithilfe von Cookies oder anderen Tracking-Technologien zu Marktforschungs- und Marketingzwecken zu analysieren.

Wir verhindern mit dem WordPress-Plugin „Embed Privacy“ einen Abfluss deiner Daten an Twitter so lange, bis Du aktiv auf diesen Hinweis klickst. Technisch gesehen wird der Inhalt erst nach dem Klick eingebunden. Twitter betrachtet Deinen Klick als Einwilligung in die Nutzung deiner Daten. Weitere Informationen stellt Twitter hoffentlich in der Datenschutzerklärung bereit.

Zur Datenschutzerklärung von Twitter

Zur Datenschutzerklärung von netzpolitik.org

Kurz darauf schrieb ihr eine Vorgesetzte, ihre Kündigung werde angenommen, berichtet Gebru. Mit Verweis auf ihre E-Mail an die interne Liste solle sie sofort aus dem Unternehmen ausscheiden. Das darin gezeigte Verhalten sei „inkonsistent mit den Erwartungen an eine Google-Managerin“. „Es scheint, als hätten sie (Management) für mich entschieden“, schrieb sie auf Twitter.

Gebru ist nicht die erste prominente Frau aus dem Gebiet der KI-Ethik, die Google im Streit verlässt. 2019 hatte bereits Meredith Whittaker gekündigt. Sie war eine der Hauptorganisatorinnen der internen Mitarbeiterproteste gegen die Verträge mit dem US-Militär und kritisierte öffentlich, dass Google durch die Entwicklung von KI-Systemen zu viel Macht erlange. Nach ihrer Kündigung schrieb sie, sie und weitere Kolleginnen seien für ihren Aktivismus abgestraft worden und Vorgesetzte hätten sie aufgefordert, ihre Arbeit zu KI-Ethik einzustellen. Google bestritt diese Anschuldigungen.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

7 Ergänzungen

  1. In der Schule lernt man in Form der Erörterung, ein Thema einer differenzierten Betrachtungsweise zu unterziehen. Nur wenn man auch die Nachteile einer Technik kennt, kann man die Vorteile nützen und sich vor den Nachteilen schützen. Zumindest weiß man, was auf einen zukommt und kann im Vorfeld entsprechende Maßnahmen ergreifen.

    Wer aber auf Nachteile hinweist, gilt bei vielen als negativ eingestellt und als „Nestbeschmutzer“, der die Preise verdirbt und einen selber in einem schlechten Licht darstellen lässt. Von oben wird erwartet, dass ein Auftrag widerspruchslos ausgeführt wird (nach unten Treten, nach oben Buckeln). Mit negativer Kritik können die wenigsten umgehen.

    Auch bei Google mag man keine „Nestbeschmutzer“. Lieber lässt man das Produkt beim Kunden reifen.

  2. Hat es irgend einen tieferen Sinn, dass der Autor das Adjektiv „schwarze“ im Zusammenhang „Schwarze Frauen“, „Schwarze KI-Foscherin“, „Schwarze Menschen“ konsequent mit großem Anfangsbuchstaben schreibt?

      1. Macht Sinn ja. Und in dem Fall erlaube ich mir hier, mir selber auch für einmal die Selbstbezeichnung Weisser zu geben.

        Auch wenn mir die Bezeichnung Mensch im Allgemeinen und Infomaniac (und weiteres) im Speziellen grundsätzlich mehr zusagen. :)

  3. Unabhängig vom Grossen und Ganzen (was sich leider am Schluß zu She-said-he-said summiert und in anderen Darstellungen zu oben – „Wenn ihr das nicht erfüllt, möchte ich hier nicht mehr arbeiten“ – „OK, wir nehmen ihre Kündigung an …) ist die Lage in kommerzieller + industrieller Forschung tatsächlich so: Wer zahlt, kann bestimmen, was veröffentlicht wird.

    Ich bin Forscher in der Industrie und wir haben immer Abstimmungsprozesse was genau wir veröffentlichen dürfen und wann; in unserem Fall bezogen auf die Patentsituation und die Firmenstrategie.

    Wenn man unabhängig forschen möchte, bleibt nur die Universität.

  4. Es liest sich, als habe da jemand seine Roles & Responsibilities nicht unter einen Hut bekommen: Aktivist und Mgr in einer Firma. Und dann zieht eine Firma natuerlich die Konsequenzen. In einer verantwortlichen Position, zumal einer US-Firma, ist „$Bedingung oder ich moechte hier nicht mehr arbeiten“ ein klare Ansage und man muss damit rechnen, dass es als Kuendigung angenommen wird (

    Ansonsten ist natuerlich fraglich, wie weit eine Firma Aktivismus mit ihrer Sprachgenerierung betreiben moechte, und wie weit sie einfach von den meisten moeglichst gut verstanden werden will. Da sehe ich grosses Konfliktpotential, und im Rahmen einer Anstellung entscheidet nunmal die Firma ueber Auesserungen dazu.

  5. Auch wenn ich der Meinung bin, dass Google nicht grundsätzlich falsch gehandelt hat, und dass Timnit Gebru (bewusst?) gewisse Grenzen überstrapaziert hat, so finde ich die Aussagen von ihr und ihrer Forschung doch ziemlich überzeugend und wichtig.

    Ich sehe also in ihr nicht ein Opfer eines übermächtigen, frauenverachtenden und rassistischen Grosskonzerns, Sondern eher eine Heldin, à la Winkelried (schweizer Historyhero), die sich gesagt hat: Wenn Google schon eine Person wie mich sozusagen als Aushängeschild anstellt um sich das Stichwort Ethik auf die Fahne schreiben zu können, dann will ich auch bis zum Schluss aussagen, wie ich die Probleme von AI und Co. einschätze. Und lasse mich nicht bei der ersten Kritik gleich mundtot machen. (Ich habe ihr diese Worte jetzt in den Mund gelegt, aber gewisse ihrer Tweets gehen in eine ähnliche Richtung. In den letzten & Tagen wurde da leider soviel getwittert, dass ich sie jetzt gerade nicht finde.)

    Soweit mein Lob für sie und ihr Team, das wahrscheinlich aber auch noch umfangreicher werden kann, wenn ich das konkrete paper (Link war auf Reddit) noch gelesen habe. Bis jetzt habe ich erst den Artikel darüber auf MIT technology review gelesen.

    Was ich aber schon auch sagen muss: Ihre Forderung, dass sie die Namen der anonymen Reviewer wissen wollte, das geht in meinen Augen viel zu weit. Und endet im schlimmsten Fall in einer Art Hexenjagd auf Twitter und Co. Soweit ich nämlich die Kritik von Feminismus, Antirassismus und ähnlichen Strömungen überzeugend finde und auch Lösungsvorschläge schätze (Siehe zum Beispiel eben das Konzept der Selbstbezeichnung wie hier in den Kommentaren besprochen), soweit sehe ich aber auch oft, dass sich einzelne Aktivitäten ins Negative steigern.

    Und so bin ich grundsätzlich durchaus besorgt über die Risiken von mit Geld und Machtstrukturen durchsetzten IT-Megamaschinen, welche uns heute schon begleiten und zukünftig wie ihre Forschung das thematisiert, noch viel stärker prägen werden. Aber ähnlich kritisch sehe ich auch das Aufkommen von solchen Witchhunt-Hiveminds. Seien diese jetzt auch rechts, links, progressiv oder konservativ, LGBT oder religiös.

    Und ja auch ich bin gerne auf dem Internet unterwegs, insbesondere in Social media.

    Am liebsten dabei beim Versuch Brücken zu schlagen und zu bewohnen: zB in einer facebook Gruppe für LGBT Christen. Aber ja, dies weicht vom Thema ab. Ausser dass es auch nochmals ein paar Selbstbezeichnungs-Grossbuchstaben sind.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.