Kanada lässt afrikanische KI-Forscher*innen nicht zu Konferenz einreisen

In der Forschung zu Künstlicher Intelligenz fehlen die Beiträge von Frauen und nicht-weißen Menschen. Die Veranstalter*innen der weltgrößten Konferenz NeurIPS wollen das ändern – und scheiterten an den Einreisebedingungen nach Kanada.

Eier im Karton
Gleiche unter sich: KI-Forscher*innen bemühen sich um mehr Vielfalt, werden aber von der kanadischen Regierung sabotiert. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Erol Ahmed

Dass Künstliche Intelligenz ein Problem mit rassistischer Diskriminierung hat, ist bekannt. Vor diesem Hintergrund ist es gelinde gesagt ungünstig, wenn ganze Gruppen von schwarzen Forscher*innen nicht an der weltgrößten Konferenz für Künstliche Intelligenz teilnehmen konnten, wie das vergangene Woche in Montreal passiert ist. Rund 100 Teilnehmende der jährlichen Konferenz NeurIPS konnten nicht nach Kanada einreisen, weil ihnen die Visa versagt oder zu spät ausgestellt wurden, berichtet WIRED:

KI-Forscher*innen sagen, das Visa-Problem untergrabe ihre Bemühung, das Feld inklusiver zu machen und damit die Wahrscheinlichkeit zu senken, dass Technologien Menschen diskriminieren oder benachteiligen, die nicht weiß oder westlich sind. Eine Reihe von Leuten, die ihre Arbeit bei „Black in AI“ hätten präsentieren sollen, einem Workshop am Freitag, konnten nicht nach Kanada reisen. Viele kamen aus afrikanischen Ländern.

“Wir bemühen uns KI zu demokratisieren, so dass sie für alle Menschen funktioniert, nicht nur für einige“, sagt Rediet Abebe, Doktorandin an der Cornell University und eine der Organisatorinnen der Veranstaltung. „Für viele Menschen war es sehr schwer, sich für kanadische Visa zu bewerben. Das ist eine Sorge nicht nur in Bezug auf dieses Jahr, sondern weil NeurIPS in den kommenden zwei Jahren in Vancouver stattfinden wird.“

Software zur Gesichtserkennung, die nur für nicht-weiße Gesichter funktioniert. Vorhersagende Polizeiarbeit, die ihre Beamt*innen vor allem in nicht-weiße Nachbarschaften lenkt. Suchmaschinen, die auf die Anfrage nach schwarzen Frauen Pornoseiten vorschlagen. Jedes Mal, wenn offenkundig wird, dass und wie Algorithmen Menschen rassistisch diskriminieren, ertönt er wieder, der Ruf: Das Feld müsse diverser werden. Ohne die Erfahrungen, Fragestellungen und Ideen von schwarzen Menschen, Frauen und anderen unterrepräsentierten Gruppen würde sich das Problem der Voreingenommenheit schließlich nie lösen lassen.

Die Veranstalter*innen scheinen sich der Probleme mittlerweile bewusst zu sein. Die Konferenz mit dem vollen Namen Neural Information Processing Systems war nach 30 Jahren gerade erst von NIPS zu NeurIPS umgetauft worden, nachdem sich Teilnehmerinnen über die sexistische Konnotation des Akronyms beschwert hatten und eine Petition starteten. „Nips“ ist ein Slang-Ausdruck für Brustwarzen – ungünstig vor dem Hintergrund, dass Frauen in der Branche ohnehin in der Unterzahl sind und Sexismus auch jenseits des Namens ein Problem auf der Konferenz war.

Auch das Visa-Problem ist nicht neu. Ein junger Forscher an der Eidgenössischen Technischen Hochschule Lausanne mit marokkanischem Pass twitterte, die Aussicht auf Schwierigkeiten habe ihn von vornherein davon abgehalten, an der Konferenz teilzunehmen.

Ein anderes Flaggschiff der Forschungsgemeinschaft, die International Conference on Learning Representations (ICLR), hat aus den Erfahrungen der Vergangenheit Konsequenzen gezogen: Die Konferenz findet im Jahr 2020 in Addis Abeba in Äthiopien statt. Der kanadische Forscher Yoshua Bengio, der als „Vater“ des Deep Learning, einer Unterkategorie von Künstlicher Intelligenz, gilt, sagte dazu im Gespräch mit dem MIT Technology Review, es sei schlicht unfair, Teile der Forschungsgemeinschaft auszuschließen und so sei deren Teilnahme am ehesten zu gewährleisten.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

3 Ergänzungen

  1. Das es eine Schweinerei ist die nicht einreisen zu lassen trage ich mit.
    Mir erschließt sich aber nicht warum es eine besondere Berücksichtigung der ethnischen Herkunft oder des Geschlechts bei einer technischen Fragestellung geben soll.
    Ich würde eher sagen, das geschlechtsneutal und unabhängig von anderen Kriterien immer die Besten (bezogen auf die Aufgabenstellung) herangezogen werden sollten die man kriegen kann.
    Die Nutzerreaktionen (spätestens wenn von einem signifikanten Teil keine Kohle kommt) werden die Entwickler schon auf den richtigen Weg bringen.
    Und generell, sollten wir nicht einfach nur Menschen und nicht unterschiedliche Ethnien sehen?
    Was die Gesichtserkennung betrifft, ich würde es eher als Feature (hier wird ja nicht zu Unrecht immer über Überwachung gejammert) sehen und nicht als Diskriminierung wenn beispielsweise meine Hautfarbe dazu führen würde, das ich als Schnabeltier erkannt werde und nicht als Franz Müller aus der Hauboltstraße 8 in Dienslaggen.

    1. „Mir erschließt sich aber nicht warum es eine besondere Berücksichtigung der ethnischen Herkunft oder des Geschlechts bei einer technischen Fragestellung geben soll.“

      Ganz einfach:
      – Das sind Faktoren die die Denkweise beeinflussen
      – Dadurch werden diese Menschen zu anderen Schlüssen kommen
      – Diese Vielfalt kann sehr anregend sein, so ist im Übrigen auch Europa entstanden (Stichwort: Al-Andalus als „Wissenschafts-Hub“ der die Lehren aus dem Orient in unsere Gefielde transportierte und moderne Wissenschaft erst möglich machte)

      Unter’m Strich: eine Schweinerei!

      Irgendwann wird der Westen dafür bezahlen. Heute merken wir es noch nicht so, aber der Tag wird kommen.

      1. Ich glaube Sie haben die Arbeitsweisen von KI bzw. Machine Learning nicht richtig verstanden. Einfach ausgedrückt hängt das Ergebnis von der Eingabe ab. Eine KI muss trainiert und das Ergebnis hängt davon ab was ich der KI an Eingaben gebe.
        Die Verbrechenssuche hauptsächlich in nicht weißen Wohngebieten basiert höchstwahrscheinlich auf den historischen Daten. Jetzt kann man viel darüber diskutieren inwieweit warum die historischen Daten so sind, aber die KI macht genau das was sie soll in diesem Fall. Aufgrund der Eingabedaten errechnet sie die Wahrscheinlichkeit von möglichen neuen Verbrechen.
        Die Suche bei Google basiert einfach auf den bisher meist gesuchten Begriffen. Übrigens konnte ich weder bei Google, DuckDuckGo noch bei Bing die Ergebnisse der Aussage dazu bestätigen.

        Die Basis für KI/Machine Learning sind neuronale Netze und die Basis von neuronalen Netzen ist Mathematik. Hier lässt sich nichts „demokratisieren“, zu mal in dem Zusammenhang der Begriff einfach nur blöd verwendet wird. Ich kann eine KI auch so trainieren, dass Sie auf Bildern einen Hammer erkennt und diesen als Nagel bezeichnet. Dazu muss ich Training Bilder mit einem Hammer nur als Nagel bezeichnen.

        In wieweit hier schwarze KI Forscher etwas ändern können ist die Frage. Wichtiger als die Hautfarbe, das Geschlecht oder sonstige Merkmale sind die mathematischen Fähigkeiten neuronale Netze zu bauen und diese vernünftig zu trainieren. In den meisten Fällen dürfte die Technik gar nicht das Problem sein, sondern die Eingabe beim Training die immer noch vom Menschen durchgeführt wird. Es ist immer noch wie schon seit Jahrzehnten in der EDV „Shit in, Shit out“.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.