Als Elon Musk zahlreiche ehemals gesperrte Accounts von Rechtsradikalen und Verschwörungsideolog:innen zurück auf die Plattform ließ, war es der Berliner Datenanalyst Travis Brown, der sich anschaute, was diese Accounts nach ihrer Rückkehr machen. In Recherchen mit der BBC und bei CNN zeigte er, dass ein großer Teil der etwa 1.100 untersuchten Accounts wieder das tat, wofür die Sperre eigentlich einmal erlassen wurde: Hass und Desinformation verbreiten.
Twitter, das nun den Namen X trägt, reagierte auf die Recherchen mit einer Accountsperre. Nicht aber für die untersuchten Accounts, sondern für den Datenanalysten Brown. Der Vorwurf: unzulässige Datenerhebung.
Eine Weile lang sah es aus, als könnte sich Brown erfolgreich wehren. Das Landgericht Berlin entschied im August zu seinen Gunsten, im September erhielt er seinen Account auf der Plattform wieder. Doch dann sperrte Twitter im Oktober den Datenforscher erneut und beauftragte eine große Anwaltskanzlei gegen Brown. Sie verschickte eine 36-seitige Schutzschrift an das Berliner Landgericht, um sich gegen eine mögliche weitere einstweilige Verfügung präventiv zu wehren.
Mit großem juristischen Aufwand
In diesem Schreiben, das netzpolitik.org einsehen konnte, wirft die Plattform Brown vor, dass er eine Vielzahl sensitiver Nutzerdaten veröffentlicht habe, außerdem habe er dabei aktiv und vorsätzlich die Interessen sowohl der Nutzer:innen als auch von Twitter geschädigt.
Twitters Anwälte führen verschiedene Programme auf Browns Github-Account als Grund für die Sperrung auf. Mit ihnen soll gegen verschiedene Nutzungsbedingungen der Plattform verstoßen worden sein. Github ist ein Dienst, bei dem Entwickler:innen Programme, Skripte und Code in sogenannten Repositories speichern und mit anderen weiterentwickeln können.
Einige der Repositories stammen aus der Zeit, als Brown in den Jahren 2014 und 2015 für Twitter gearbeitet hatte, die anderen sind eigene Programme oder sogenannte Forks von Brown. Das Vorgehen von Twitter bezieht sich damit auch auf Inhalte, die teils mehrere Jahre alt sind.
Öffentlich einsehbare Daten
In ihrem Schreiben macht die Kanzlei geltend, dass es aus Datenschutzgründen illegal sei, Nutzernamen, Profilbilder oder Anzahl der Follower:innen zu erheben. Diese Informationen sind in jedem Profil öffentlich einsehbar und werden von Datenanalyst:innen weltweit genutzt. Brown kann sich nicht erklären, warum bei öffentlich einsehbaren Daten eine Datenschutzverletzung entstehen soll.
Außerdem beanstandeten die Anwälte von Twitter ein Tool, mit dem Brown mithilfe des Dienstes „Wayback Machine“ des Internet Archives Daten erhob. Auch hier sieht Brown nicht die Regeln von Twitter verletzt.
Als Brown sich erneut gerichtlich wehren wollte, erklärte sich das Berliner Landgericht plötzlich für nicht mehr zuständig. Der Datenanalyst zieht nun also vor die nächste Instanz, das Berliner Kammergericht.
„Lassen uns nicht zum Schweigen bringen“
Travis Brown sieht in dem Vorgehen von Twitter einen Versuch, Forschende zum Schweigen zu bringen, die Extremismus und Desinformation beobachten. „Die Führung von X macht die Plattform immer gefährlicher, sowohl für ihre Nutzer:innen als auch für die ganze Welt, und sie ist bereit, Klagen und andere Einschüchterungsmaßnahmen einzusetzen, um Kritik zu unterdrücken“, sagt er in einer Pressemitteilung von HateAid. Die Organisation unterstützt Brown bei seinem juristischen Vorgehen.
„Wir lassen uns nicht zum Schweigen bringen und werden weiterhin Daten sammeln und weitergeben, denn wir alle haben ein Recht darauf, die Auswirkungen dieser Plattformen auf unsere Welt zu verstehen“, so Brown weiter.
Twitter selbst möchte sich zum Fall offenbar nicht gegenüber Journalist:innen äußern – sofern das Unternehmen überhaupt noch eine Presseabteilung hat. Auf ein Anfrage von netzpolitik.org antwortete Twitter mit einer automatischen Nachricht: „Wir sind gerade beschäftigt, schauen Sie später noch einmal vorbei.“
Blick hinter die Kulissen, um Demokratie zu schützen
Das Vorgehen gegen Brown ist kein Einzelfall. Immer wieder gehen Plattformen gegen Menschen und Organisationen vor, die mit Hilfe von Daten hinter die Kulissen schauen wollen. In den USA verklagt X beispielsweise die Nichtregierungsorganisation Center for Countering Digital Hate, weil sie mehrere Berichte veröffentlicht hat, die eine Zunahme von Hassreden auf der Plattform belegen sollen. Auch Meta geht gegen Datenanalysen vor: Konten von Forschern der New York University wurden gesperrt, und die Organisation AlgorithmWatch sah sich angesichts einer drohenden Klage gezwungen, ein Projekt auf Meta-Tochter Instagram einzustellen.
Die Abwehr-Haltung der Plattformen gegenüber unabhängiger Forschung ist deshalb ein Problem, weil Twitter, Instagram und Co. wichtige Öffentlichkeiten bereitstellen, die alleine aufgrund ihrer Größe einer Erforschung zugänglich sein sollten. In der EU könnte das Gesetz über Digitale Dienste (DSA) erstmals eine rechtliche Grundlage dafür schaffen: Die Verordnung sieht den Zugang zu Daten sehr großer Online-Plattformen (VLOPS) für Forschungszwecke vor, wenn auch in eher eingeschränkter Weise.
Laut Anna-Lena von Hodenberg, der Geschäftsführerin von HateAid, sei es extrem gefährlich, wenn eine unabhängige Recherche und Berichterstattung über soziale Netzwerke nicht mehr stattfinden könne. Sie erinnert an die bevorstehenden Wahlen zum Europäischen Parlament und die US-Präsidentschaftswahlen. Vor diesem Hintergrund sei es wichtig zu sehen, was hinter den Kulissen der Plattformen vor sich gehe. „Denn nur wenn wir wissen, was dort passiert und wer wie handelt, können wir unsere Demokratien schützen.“
Schönes Beispiel dafür wie z. B. ein Konzern Informationen an die Öffentlichkeit verhindern möchte und dann genau das Gegenteil erreicht. Die Spatzen pfeiffen es von den Dächern, dass X diesbezügliche Inhalte nicht mehr ausreichend überprüft; die damit verbundene Kritik an der Platform reißt nicht ab.
„nicht mehr ausreichend überprüft“? Im Gegenteil, er lädt sie geradezu ein, immer unter dem universellen Deckmantel „free Sppech“. Der kleine Muck ist ein glühender Anhänger des Horrorclowns mit den orange gefärbten Haaren; den wieder ins Amt des POTUS zu hieven, steht ganz oben auf Elons Agenda.
Warum ist Datenschutz hier nicht wichtig? „Öffentliche Daten“
Mir ist nicht klar, ob auf Github nur Auswertungen („x% der beobachteten Accounts haben das und das gemacht“) oder auch die Rohdaten veröffentlicht wurden.
Vllt unterfällt unter ein Forschungsprivileg bzw. berechtigtes Interesse nicht d Veröffentlichung?
Ich weiß es nicht.
„Datenschutz“ ist ein vorgeschobenes Argument, um Transparenz zu verhindern. Per Definitionem ist alles auf Twi-X öffentlich, wovor also sollte es geschützt werden können? Das einzige, was Brown gemacht hat, ist ein Werkzeug für die automatisierte Auswertung zu schreiben und einzusetzen. Alles, was er erfasst und auswertet, ist für Jede/n zugänglich! Da sehe ich weder Bedarf noch Möglichkeit eines „Datenschutzes“.
> „Datenschutz ist ein vorgeschobenes Argument, um Transparenz zu verhindern.“
Diesen Satz finde ich absurd. Forschung ist hingegen ganz oft ein vorgeschobenes Argument um Datenschutz zu umgehen. Genau so wie Kinder, Terror und Demokratieschutz. Netzpolitik dokumentiert das recht gut. Ich kann also verstehen wenn Twitter dieser Argumentation nicht folgt und hab mir mal den GitHub Account (travisbrown) angeschaut.
Dort finde ich z.b. unter dem Projektnamen „cancel-culture“ Tools für Twitter, die scheinbar dazu gedacht sind systematisch diverse Daten, wie gelöschte Tweets, sowie Beziehungen zwischen Usern zu sammeln. Oder andere Projekte, mit Tools um dritte Archive nach historischen Daten von Usern zu durchsuchen.
Daneben liegen Projekte, wie „evasion“, oder „twitter-watch“, das unter dem Titel:
> This project tracks far-right and far-right-adjacent accounts on Twitter.
Twitter-User auflistet und diverse Daten und Meta-Daten sammelt und verknüpft. Die Programme sind zwar schon älter, aber die Daten und Listen werden regelmäßig aktualisiert.
Sehe ich das richtig, dass hier von einem erfahrenen Programmierer, unter dem Deckmantel der „Forschung“ vermeintlich professionell doxxing betrieben wird? Gegen politische Gegner. Gruselig. Selbst wenn tatsächlich jeder einzelne Account auf der Liste, genau das tut was die READMEs der Projekte beschreiben.
Zwischen den „Bubbles“ kann ich immer weniger unterschied erkennen.. Keine Ahnung wer hier wen mehr hasst.. und wieso eigentlich? Wie kommt man auf die „far-right hate“-Liste? Was gut oder schlecht ist, bestimmt doch nur noch, wer es gesagt hat und auf welcher Liste der ist.
Das Sammeln von personenbezogenen Daten ist keine Datenforschung. Freie Rede bedeutet für mich, dass ich meine Meinung vertreten kann, welche dann von anderen zerpflückt oder bestätigt wird. Ganz ohne, dass ich dadurch auf der Doxxingliste eines „Datenforschers“ lande.
Bis dahin bleib ich lieber
Anonym
Ziemlich klassischer Fall von SLAPP-Klage (strategic lawsuit against public participation) mit der Reiche und Mächtige die kleinen Leute davon abhalten ihnen bei ihren Machenschaften in die Quere zu kommen.