Öffentlichkeit

Ein Bot allein macht keine Revolte. Und auch keine Migrationsdebatte.

Bei der Debatte um den UN-Migrationspakt und bei den Protesten in Frankreich sollen plötzlich Social Bots eine wichtige Rolle spielen. Dabei sind menschlich gesteuerte Troll-Accounts, echte und falsche Influencer sowie staatlich-kontrollierte Medienunternehmen weitaus einflussreicher. Ihre Tweets bekommen viele Interaktionen und können sich stark verbreiten.

Social Bot (Symbolbild) CC-BY-NC-SA 2.0 kirainet

Derzeit macht ein Artikel der „Welt“ die Runde: 28 Prozent der Tweets über den UN-Migrationspakt seien von Bots verfasst worden, schreiben die Autoren nach einer „in Auszügen vorliegenden Studie“. Für die Studie will das Unternehmen Botswatch GmbH 800.000 Tweets zwischen dem 24. November und dem 2. Dezember untersucht haben. Wir erfahren jedoch weder etwas über die Methodik („Was ist ein Bot?“) noch über den tatsächlichen Einfluss von Bots auf die Debatte. Es ist aus Sicht von Kommunikationsforschern schon an sich schwierig, Bots zu erkennen.

Bei der Erkennung von Bots werden oftmals Kriterien wie „mehr als 50 Tweets am Tag“ angesetzt, die alleine allerdings wenig Aussagekraft haben. Bei der Studie von Botswatch ist die Methodik nicht bekannt, unsere mehrfachen Anfragen an die Firma nach den vollen oder auszugsweisen Studienergebnissen und der zugrundeliegenden Methodik wurden bislang nicht beantwortet.

Der Datenspezialist Luca Hammer hat in einem Thread auf Twitter den Artikel der „Welt“ auseinandergenommen. Bei einer Stichprobe mit dem Bot-Analysetool Hoaxy erkennt er auf dem Hashtag #migrationspakt gerade mal sechs Prozent mögliche Bots, die jedoch keinen Einfluss auf die Debatte haben.

Auch wenn die Autoren des Welt-Artikels durchaus andere Einflussmöglichkeiten beleuchten, lenkt die Debatte um Bots von anderen wichtigen Einflussfaktoren der politischen Debatte auf Twitter ab. Grundsätzlich fallen in politischen Debatten auf dem Dienst verschiedene Typen von Accounts auf, die Einfluss nehmen wollen. Diese sind alle keine automatisierten Accounts:

  1. „Troll-Sockenpuppen“: Hierbei handelt es sich um menschengesteuerte Accounts mit meistens wenigen Followern, die im Diskurs mitmischen, Tweets kommentieren und oftmals direkte Mentions an Personen schicken. Nach unseren Recherchen sind diese Accounts oftmals in anderen Kommunikationstools wie Discord organisiert und springen koordiniert in Debatten ein. Diese Menschen besitzen oftmals eine Vielzahl an Accounts, die sie mit hoher Tweet-Frequenz nutzen. Der Datenspezialist Hammer hat viel zu Trollnetzwerken und rechten Netzwerken auf Twitter geforscht, unter anderem auch für netzpolitik.org. Er hält weniger die Bots für ein Problem als eben manuell gesteuerte Sockenpuppen.
  2. „Fake-Influencer“: Gut geführte Fake-Accounts können einen deutlich größeren Einfluss ausüben als Bots. So stellte sich in den USA heraus, dass die vermeintliche Alt-Right-Bloggerin Jenna Abrams ein Produkt der russischen Trollfabrik in St. Petersburg war. Mit ihren 70.000 Followern interagierte sie mit anderen Rechten, stritt sich mit Gegnern, erlangte eine Gefolgschaft und wurde sogar in der New York Times zitiert. Solche Accounts, wer immer sie auch führt, können eine Glaubwürdigkeit entwickeln, zu der Social Bots nicht fähig sind. Viel stärker als Bots können von Menschen gemachte Fake-Accounts Diskurse beeinflussen. Wir haben dies auch beim inoffiziellen AfD-Unterstützernetzwerk gezeigt, wo eine ganze Armada von Accounts im Sinne der AfD-Pressestelle kommunizierte.
  3. Accounts von staatlich kontrollierten Medien nach dem Muster des aus Moskau gesteuerten RT. Regime-treue Nachrichtenquellen können dabei helfen, Debatten in eine gewisse Richtung zu lenken.

Alle drei Formen von Accounts wenden unterschiedlichste Techniken der Kommunikation an. Sie können Debatten lähmen, Dinge in Frage stellen, Personen einschüchtern, (einseitige) Berichterstattung betreiben, Falschmeldungen verbreiten oder auch einfach nur Themen kuratieren, hervorheben oder verstärken.

Gelbwesten-Protest: Sicherheitsforscher entdeckt keine Bots auf populärem Hashtag

Der französische Sicherheitsforscher Baptiste Robert, der unter dem Namen Elliot Alderson twittert, hat sich die englischen Tweets zu den Gelbwesten-Protesten unter dem Hashtag #GiletsJaunes angesehen und ihren Einfluss anhand der Menge von Interaktionen gemessen. Das Ergebnis: Die einflussreichsten Accounts sind keine Bots, sie reichen vom polnischen Nationalisten, über einen türkischen Breaking-News-Account, über Trump-Anhänger bis hin zum Account des in Deutschland ansässigen russischen Medienunternehmens Redfish. Robert hat sich die Interaktionen zwischen den Konten angeschaut und weder eine koordinierte Aktion noch Bots gefunden. Zu ähnlichen Ergebnissen kommt auch eine Stichprobe beim oben erwähnten Dienst Hoaxy, die wir gemacht haben.

Der französische Sicherheitsforscher Baptiste Robert hat mehr als 250.000 englische Tweets unter dem Hashtag #GiletJaunes ausgewertet – und keine Bots gefunden. Alle Rechte vorbehalten Elliot Alderson

Alleine angesichts der Einflussmöglichkeiten menschlich betriebener Accounts, ist es schlichtweg unseriös und unterkomplex soziale Bewegungen oder hart umkämpfte gesellschaftliche Diskurse mit Bots erklären zu wollen. Selbstverständlich gibt es Accounts, die international und strategisch bei unterschiedlichen Themen eingesetzt werden, um Stimmung für oder gegen eine Sache zu machen. Doch wirklichen Einfluss – im Sinne vieler Interaktionen – haben eben nicht Bots, sondern die oben erwähnten Account-Typen. Dabei gibt es durchaus Accounts, die für unterschiedliche Felder eingesetzt werden: ein Account, der 2016 im Sinne der AfD auf deutsch agitierte, taucht plötzlich bei den Gelbwesten-Protesten mit englischsprachigen Tweets auf. Türkische Accounts, die sich noch nie mit Frankreich befasst haben, kuratieren plötzlich Bilder von (mutmaßlicher) Polizeigewalt. Dies alles können manuelle Versuche äußerer Einflussnahme sein.

Der Vorwurf der äußeren Einflussnahme kann aber auch zur Diskreditierung von Bewegungen genutzt werden, die selbst nichts mit diesen Online-Aktivitäten zu tun haben. In diese Kerbe haut auch Alex Stamos, ehemaliger Sicherheitschef von Facebook, gegenüber der französischen Zeitung Libération. Die Troll-Accounts, wer auch immer hinter ihnen stecke, schütteten zwar Öl ins Feuer von sozialen Bewegungen, sie hätten das Feuer aber nie selbst entzündet. Reale Bewegungen auf der Straße, hinter denen Menschen stünden, die sich wie aktuell zu sehen auf den Kreisverkehren in Frankreich filmten, die wirklich auf Facebook debattierten, würden durch so etwas nicht unbedingt manipuliert. Es sei vielmehr auch die Meta-Kommunikation über die angebliche Einflussnahme, welche Spaltungen vertiefe.

Festzuhalten ist: Kurzfristig wird die Wichtigkeit und die Schwere der Einflussnahme von Bots für den öffentlichen Diskurs total überschätzt. Langfristig müssen wir aber grundrechtskonforme Wege finden, diese Gefahr zu beseitigen. In diesem Sinne ist der Fokus des Welt-Artikels und der Widerhall, den der Artikel oftmals ungeprüft und ohne Kenntnis der vollständigen Studienergebisse in anderen Medien erlangte, kritisch zu hinterfragen. Mal ganz abgesehen von der publizistischen Rolle, welche die Welt in der Ausrichtung ihrer Berichterstattung, in ihren Kolumnen und Blogs für die Etablierung rechtspopulistischer Diskurse selbst spielt.

14 Ergänzungen
  1. „Langfristig müssen wir aber grundrechtsfreundliche Wege finden, diese Gefahr zu beseitigen.“

    Können wir uns auf „grundrechtskonforme Wege“ einigen? Das mit dem freundlich klingt irgendwie wie ein niedlicheres „grundrechtsschonend“.

    1. Ich finde das ja nicht. „Grundrechtskonform“ ist klar, eben innerhalb der Grenzen der Grundrechte. Für mich ist aber „grundrechtsfreundlich“ überhaupt nicht mit dem euphemistischen „grundrechtsschonend“ vergleichbar. Wenn etwas „grundrechtsfreundlich“ gestaltet ist, heißt das für mich eher, dass die Grundrechte nicht nur beachtet werden, sondern die Gestaltung positiv ihnen gegenüber erfolgte, also sie nicht nur beachtend, sondern auch respektierend und nicht an ihren Grenzen streifend.

      Aber liegt vielleicht im Auge des Betrachters, wie man das liest.

      1. Ja, ich habe da im Nachgang noch weiter drüber nachgedacht. Ich sage mal so, wenn du du „grundrechtsfreundlich“ sagst, bin ich da voll bei dir. Wenn ein Seehofer „grundrechtsfreundlich“ sagt, gehen bei mir die Alarmglocken an.
        Daher war mein Gedanke, wenn er dann einfach „dein“ Vokabular aufgreift und das aber eine ganz andere Bedeutung hat, dann finde ich das problematisch. Weil die Leute halt deine Nutzung des Wortes bei Seehofer hören und die gleiche Bedeutung annehmen.
        Aber wahrscheinlich kann man das am Ende bei jedem Wort anders auslegen.

        1. Interessanter Standpunkt, durchaus nachvollziehbar für mich: es kommt darauf an, wer ein und dasselbe Wort bzw. denselben Satz sagt. So passen wir identische Aussagen zweier Personen ganz unserer Interpretation an.

          Ist ein alltäglicher Vorgang denke ich, dem man sich jedoch bewusst sein sollte, wie bei Vorurteilen oder neutraler bei erfahrungsbedingtem Denken.

  2. „Langfristig müssen wir aber grundrechtsfreundliche Wege finden, diese Gefahr zu beseitigen.“

    Warum?

    Genau betrachtet steht hier, es gibt eine Meinung dir wir als Gefahr sehen und deshalb nicht zulassen wollen.

    Das widerspricht dem Grundsatz der Meinungsfreiheit.

    Die im Artikel genannten Beispiele erklären auch nicht warum das verboten werden sollte.

    Aber der Artikel strotzt nur vor Andeutungen, wo eine Beschränkung der Meinungsfreiheit mitschwingt. Der letzte Absatz, ein raunen der, zeigt wo man stehen sollte und wo besser nicht.

    Das alles hat mit einer freiheitlichen debattenkultur nichts mehr zu tun. Das ist agitation und Propaganda.

    1. Nein, die Gefahr bezieht sich ausschließlich auf maschinelle, automatisierte Accounts, also Bots. Das geht ja aus dem Zusammenhang deutlich hervor.

      1. „Dies alles können manuelle Versuche äußerer Einflussnahme sein.“

        Äußere Einflussnahme, innerhalb der EU und in Kommunikation mit einem EU-Beitrittskandidaten?
        Wie 80s ist das denn? No border, no nation, no bot discrimination! Kein Bot ist illegal!

        Meine Bots tun was ich will und sind nur Werkzeuge zur Verstärkung meines Rechts auf meine freie Meinungsäußerung und wer das ungerecht findet, der gehe auf Github und lade sich selbst einen runter! Evolution, beeyatchez! Wer das nicht hinbekommt und nach Verboten schreit, der ist ein Knecht des Kapitals, das nicht will, daß wir uns selbst ermächtigen! :)

  3. Was ist eigentlich an Einflussnahme so unredlich? Oder geht es nur um die, die ihr falsch findet?

    Mir leuchtet nicht ein, was an einem russichen Sender falsch sein sollte. Die Reportagen des TV Senders sind interessant und die Debatten auf den verschiedenen Kanälen sind oft weiter gestreut, als ich es hier in den vermeintlich öffentlich rechtlichen Sender (die zu 50% von Parteien kontrolliert werden) mittlerweile wahrnehme.

    Dieses ewige geute das irgendetwas gesteuert wird, soll wohl davon ablenken, dass es politsche Kreise gibt, die gerne mehr einschränken wollen. Denn egal wie man es dreht oder wendet, es gibt immer mehr als ein Sichtweise über Dinge und wennn man nur eine wahrnehmen möchte, ist man anfälig für Propaganda, die einem die Wahrheit verkünden will.

    Vielfalt war mal ein Ziel unserer Medienordnung. Ihr propagiert hier meiner Meinung das gegenteil. Denn die „Gefahr“ die es zu beseitigen gilt, läßt sich auch so umdeuten das es darum geht nicht konforme Meinungen nicht zu zulassen. Eine Methode die vor allem eine politische Hilflosigkeit ausdrückt gegenüber Menschen die eine andere Meinung haben. Aber ich vermute, ihr denkt ihr kämpft für „die gute Sache“ was Eingrife legitimiert.

    1. Ich sehe jetzt keine Stelle, in der ich in meinem Artikel eine Einschränkung der Medienvielfalt fordere. Das ist bei der Debatte auch nicht der Punkt. Schwieriger wird es schon, wenn irgendwelche Player mit großen Aufwand und viel finanziellem Einsatz zahlreiche Personen faken, um größeren Einfluss auf die öffentliche Debatte zu nehmen.

    2. Ich sehe jetzt keine Stelle, in der ich in meinem Artikel eine Einschränkung der Medienvielfalt fordere. Das ist bei der Debatte auch nicht der Punkt. Schwieriger wird es schon, wenn irgendwelche Player mit großen Aufwand und viel finanziellem Einsatz zahlreiche Personen faken, um größeren Einfluss auf die öffentliche Debatte zu nehmen.

Ergänzung an Rainer Datenschutz Ergänzung abbrechen

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.