#rp18 – Die neue Bürokratie: danah boyd über Verantwortung in algorithmischen Gesellschaften

Die amerikanische Wissenschaftlerin fragt nach der Verantwortung in Zeiten von 4chan, vorhersagender Polizeiarbeit und künstlicher Intelligenz. Um die zu übernehmen, braucht es mehr Wissen darüber, wie Algorithmen und Netzwerke Gewalt und Lügen verstärken können. Damit können wir lernen, strategisch zu handeln und letztendlich weniger Schaden anrichten.

danah boyd hielt die Keynote auf der diesjährigen Ausgabe der re:publica. CC-BY 2.0 Jay Cross

Wie kommt es, dass Politiker 2008 einen Akt zur Bekämpfung von Online-Belästigung für Kinder verabschiedeten, obwohl es dafür wenig belastbare Zahlen gab und Kinder beispielsweise im eigenen Zuhause weitaus öfter sexuell belästigt oder missbraucht werden? Wie kann es sein, dass Teenager auf dem Imageboard 4chan Wege finden, Oprah Winfrey im Fernsehen Worte in den Mund zu legen?

Am ersten Tag der re:pulica nimmt danah boyd in ihrer Keynote diese und viele ähnliche Beispiele zum Anlass, einmal zu versuchen, die Frage nach der Verantwortung in zunehmend algorithmisierten Gesellschaften anzugehen. Sie erforscht sozio-politische und kulturelle Aspekte von sozialen Medien bei Microsoft und leitet das Forschungszentrum Data & Society in New York.

Doch zunächst, wie kommt es zu solchen Spektakeln? Auf den ersten Blick gibt es nur Motive: Sicherlich liegt es am Spaß daran, große Systeme zu manipulieren. Auch an den Kenntnissen, die Jugendliche sich über digitale Öffentlichkeiten und ihr Zusammenspiel mit traditionellen Medien aneignen. Oder, im Fall der Politiker, daran, alte Ängste auf das Internet zu projizieren, damit Mehrheiten zu bekommen und zu zeigen, dass man dieses Internet im Griff hat. Heute sehe man, so steht es in der Ankündigung ihres einstündigen Vortrags, dass „algorithmische, datenbasierte Technologie nicht notwendigerweise eine soziale Welt, in der viele von uns leben möchten, unterstützt“.

„Wie unsere algorithmische Welt untergraben wird“

Die Kernfrage von boyd war: „Was heißt es, nicht nur Nationalstaaten oder Unternehmen zur Verantwortung zu ziehen, sondern große Netzwerke von Menschen, die mit verschiedenen Technologien arbeiten?“ Vor der Antwort nannte boyd einige Beispiele, die die Tragweite dieser Frage zeigen sollten.

Ein amerikanischer Geistlicher stellt an einer Landstraße drei islamfeindliche Schilder auf und lässt sich mit ihnen fotografieren. Damit bekommt er die Aufmerksamkeit lokaler Medien. Als er aber ankündigt, dass er einen Koran verbrennen will, dauerte es nicht lange, bis er bei CNN dazu interviewt wird. Denn viele argumentieren dagegen, wollen ihn davon abhalten. Was er danach auch tut. Bis die Aufregung sich wieder legt und er mit einer Gruppe von Leuten wirklich einen Koran verbrennt. Woraufhin es in muslimischen Ländern Ausschreitungen gibt. Wer ist schuld? Der Initiator? Die Menschen, die sich aus gutem Grund dagegen aussprachen? Die Blogger und Journalisten? Die Idee vom Nachrichtenwert?

Über eine Stunde zeigte danah boyd viele Beispiele dafür, wie unsere algorithmische Welt derzeit untergraben wird. - CC-BY-SA 2.0 netzpolitik.org

Wer mit Suchmaschinen nach Bildern sucht, wird mit Klischees beworfen: Der Suchbegriff „Baby“ spuckt weiße Neugeborene mit hellblauen beziehungsweise rosa Stramplern aus. Wer nach CEO sucht, bekommt einen männlichen Anzugträger im mittleren Alter, der vor einer verglasten Bürokulisse nachdenklich die Hände ineinander legt oder sich auf einem Bürostuhl abstützt. Das ist offensichtlich und auch den für die Suchinfrastruktur zuständigen IT-Unternehmen bewusst. Doch wenn sie daran etwas ändern, indem sie etwa Fotos von anderen Menschen in die Suchergebnisse spülen, hilft das laut boyd auch nicht wirklich. Denn die Nutzerinnen und Nutzer, die gerade ein Foto für ihre Präsentation suchen, klicken doch wieder auf die alten Stereotype und verstärken die Effekte damit wieder.

Anderes Beispiel: Ein Journalist schreibt über eine Verschwörungstheorie. Obwohl er sie im Text widerlegt, reproduziert er sie im Titel seines Erklärartikels. Eine andere Plattform greift die Überschrift auf, bricht sie aber nach den ersten sechs Wörtern ab. Stehen bleibt die Anschuldigung mit einem Link zu einer bekannten Nachrichtenseite. Auch wenn ein Richter die Entscheidung einer polizeilichen Vorhersage-Software revidieren kann, mag es aus seiner Sicht rationaler sein, ihr zu folgen, da das weniger Widerstand innerhalb des Justizsystems produziert.

Die neue Bürokratie

Was diese Beispiele laut boyd zusammenhält, ist, dass sie zeigen, wie Unternehmen, Blogger, Jugendliche, Politiker und Aktivisten alle Teil eines digitalen Verstärkungsökosystems sind. Das mag neu klingen. Aber auch wenn wir die Mechanik, die Art und Weisen der Verstärkung noch nicht alle kennen: Die Situation, in der sich diese Menschen befinden, ist uns allen bekannt, so boyd.

Bei den digitalen, algorithmischen Verstärkungseffekten handele es sich um eine neue Form von Bürokratie. Wie die alte zeichnet sie sich dadurch aus, Verantwortung zu verwässern und auf das Ökosystem zu verteilen. Boyd sagt: „Wir haben über ein Jahrhundert Erfahrung mit Bürokratie“. Sie erstrecke sich von den absurden Episoden in Franz Kafkas „Der Prozess“ bis zu Adolf Eichmann, der eine tragende Rolle in der Organisation des Holocaust spielte, und vor Gericht stumpf wiederholte, er habe nur Befehle befolgt.

In der neuen Bürokratie gebe es Akteure, die sich mehr auskennen und solche, die weniger wissen. Viele haben ökonomische Interessen. Heute sei es wichtig zu fragen, wie Äußerungen, Entscheidungen, Provokationen, Spektakel, ja menschliches Handeln, digital weitergetragen werden – „wie die Verstärkungseffekte sich auswirken und wem sie schaden“, so boyd. Und dementsprechend auch strategisch zu handeln. Dafür braucht es neben Wissen über die bürokratischen Techniken und Technologien auch Reflexion. Hannah Arendt verurteile Eichmann genau dafür: nicht gedacht zu haben.

In diesem Fenster soll ein YouTube-Video wiedergegeben werden. Hierbei fließen personenbezogene Daten von Dir an YouTube. Wir verhindern mit dem WordPress-Plugin „Embed Privacy“ einen Datenabfluss an YouTube solange, bis ein aktiver Klick auf diesen Hinweis erfolgt. Technisch gesehen wird das Video von YouTube erst nach dem Klick eingebunden. YouTube betrachtet Deinen Klick als Einwilligung, dass das Unternehmen auf dem von Dir verwendeten Endgerät Cookies setzt und andere Tracking-Technologien anwendet, die auch einer Analyse des Nutzungsverhaltens zu Marktforschungs- und Marketing-Zwecken dienen.

Zur Datenschutzerklärung von YouTube/Google

Zur Datenschutzerklärung von netzpolitik.org

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

2 Ergänzungen

  1. Das Ziel ist es, weniger Schaden anzurichten?

    Was ist mit der schöpferischen Kraft der Menschen? Der Fähigkeit, etwas zu erschaffen, schöpferisch zu sein.

    Und bewusst zu werden – selbst bewusst.

    Und damit den Weg zu bahnen weg von der Manipulation, der magischen Kraft mancher Menschen (und deren Maschinen… SmartPhones…), andere in ihren Bahn zu ziehen. Und letztendlich nur Leere zu hinterlassen.

  2. Zu den buttons der social_media-Plattformen könnten bsplw. jeder gemeinnütziger Verein auch schonmal einen Bitcoin-Spenden-Button einrichten. Dadurch würde ein „geheimer“ Spender eine neue Verantwortung bekommen, die Spendenempfänger eine „sichere“ Nicht-Wissenheit nur über die Herkunft der ansonsten transparenten Spenden.

    Bitcoin, momentan halt, deshalb – weil einer gerade wieder ü7000 € Wert ist. :)

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.