Intransparente Algorithmen Facebook blockiert unabhängige Analyse durch AlgorithmWatch

Facebook steht schon länger in der Kritik, Forschungsprojekte zu seinen Diensten zu verhindern. Nun drohte das Unternehmen der Nichtregierungsorganisation AlgorithmWatch mit einer Klage, weshalb diese eine umfassende Studie zum Instagram-Algorithmus einstellt.

Kleine Schlösser hängen an einer Stange.
Facebook möchte die Funktionsweise seiner Algorithmen verschlossen halten und verwehrt dabei unabhängige Forschungsarbeit. (Symbolbild) – Gemeinfrei-ähnlich freigegeben durch unsplash.com Marcos Mayer

Facebook ergreift Maßnahmen, um Forscher:innen daran zu hindern, die Funktionsweise seiner Plattformen zu untersuchen. Am Freitag vermeldete die gemeinnützige Organisation AlgorithmWatch in einem Statement, ihr Forschungsprojekt zu Instagram zurückziehen, um eine Klage von Facebook zu verhindern. 

Die umfassende Studie analysierte seit März 2020 den Newsfeed-Algorithmus von Instagram, um herauszufinden, warum er den Nutzer:innen bestimmte Inhalte anzeigt. Dazu installierten über 1.500 Freiwillige ein Browser-Add-on, das die Datenspenden ihres Feeds an eine Datenbank sendete. Das Projekt wurde unter anderem vom Europäischen Netzwerk für Datenjournalismus und der Süddeutschen Zeitung unterstützt und lieferte laut AlgorithmWatch bereits zwei wichtige Entdeckungen. Erstens spricht die Auswertung der Daten dafür, dass „Instagram-Nutzer·innen dazu ermutigt werden, Bilder von sich mit viel nackter Haut zu posten“. Zweitens liefert die Untersuchung Belege, dass Politiker:innen ihre Reichweite mit reinen visuellen Beiträgen ohne Text erhöhen können. 

Facebook drohte mit Klage

Facebook hingegen kritisiert das Forschungsprojekt und seine Methodik, die in den Augen des Unternehmens „in mehrfacher Hinsicht fehlerhaft“ sei. Nach dem Bericht von AlgorithmWatch bestreitet Facebook nicht nur die Ergebnisse des Projekts, sondern wirft der Organisation vor, gegen die Datenschutz-Grundverordnungen der EU zu verstoßen. Unter anderem erhebt Facebook den Vorwurf, AlgorithmWatch sammle Daten ohne Zustimmung. In ihrem Statement kontert die Nichtregierungsorganisation beide Anschuldigungen: Zum einen würden die freiwilligen Datenspenden nur Information über die Feeds der Teilnehmer:innen beinhalten und auf diese hätten die Nutzer:innen rechtmäßigen Anspruch. Zum anderen habe AlgorithmWatch sofort alle Daten von Menschen gelöscht, die nicht eingewilligt haben. Die gemeinnützige Organisation veröffentlichte den Quellcode, als Beweis für ihre datenschutzkonforme Arbeit. Dennoch droht ihr eine Klage durch Facebook. Deswegen beschloss AlgorithmWatch, das Projekt zu beenden und alle erhobenen Daten zu löschen. 

Der Algorithmus ist politisch intransparent

Facebook steht immer wieder in der Kritik, weil es gegen unabhängige Forschung zu seiner Funktionsweise vorgeht. Erst kürzlich sperrte das Unternehmen die Accounts von Forscher:innen der New York University, die untersuchten, wie Instagram Werbeanzeigen schaltet.

Der erneute Vorfall zeigt das ungleiche Mächteverhältnis zwischen unabhängigen Forscher:innen und dem milliardenschweren Facebook. Facebook hätte einen eindeutigen finanziellen Vorteil, sollte es tatsächlich zu der angedrohten Klage kommen. Wenn Forscher:innen ihre Arbeit aus Sorge vor rechtlichen Konsequenzen einstellen, fehlt ein wichtiges demokratisches Kontrollinstrument. Die Intransparenz der Systeme wächst, wenn die wissenschaftliche Arbeit von unabhängigen Organisationen wie AlgorithmWatch gebremst wird.

Diese Intransparenz nimmt auch eine relevante politische Dimension an. In der Vergangenheit stand Facebook wiederholt in der Kritik, politische Inhalte unrechtmäßig gelöscht zu haben. So sperrte der Konzern während der erneuten Krise zwischen Israel und den besetzen Gebieten im Juni palästinensische Inhalte, obwohl kein Verstoß gegen die Moderationskriterien ersichtlich war. Nur ein paar Monate zuvor sperrte Instagram scheinbar willkürlich ein Video, das das Verhalten der Polizei beim Anschlag von Hanau kritisiert. Beide Vorfälle zeigen, dass es eine unabhängige Kontrolle darüber braucht, welche politische Meinungen durch die Algorithmen entfernt und welche gepusht werden. AlgorithmWatch bringt die Notwendigkeit einer externen Kontrollinstanz auf den Punkt: „Forscher·innen können sich nicht auf die von Facebook zur Verfügung gestellten Daten verlassen, weil man dem Unternehmen nicht trauen kann.“

Der Digital Services Act als potenzielle Lösung

AlgorithmWatch verbindet den Vorfall mit einer Forderung an die Politik in Deutschland und der EU: Die anstehenden Verhandlungen um den Digital Services Act der Europäischen Union könnten wegweisend für weitere Forschungsprojekte sein. Das EU-Parlament diskutiert im Herbst über das Gesetzespaket, das die Macht der Plattformkonzerne einhegen soll. Die NGO sieht in dem Digital Services Act die Chance, verbindlich festzuschreiben, dass Online-Plattformen ihre Daten für Forscher:innen, Nichtregierungsorganisationen und Journalist:innen zugänglicher machen müssen. 

0 Ergänzungen

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.