Fachgespräch im Bundestag: Experten halten Einfluss von Social Bots für überschätzt

Gleich zwei Ausschüsse befassten sich in der letzten Woche im Bundestag mit Social Bots. Politiker befürchten, dass solche Meinungsroboter zur Manipulation der Bundestagswahl genutzt werden könnten. Doch dafür gibt es bislang keine Belege, erklärten die meisten Experten.

Linus Neumann vom CCC machte den Politologen Simon Hegelich für den Medien-Hype um Social Bots verantwortlich. Foto: Screenshot bundestag.de

Bots, Bots, Bots – in der Bundespolitik ist die Sorge um Manipulationen durch Social Bots vor der anstehenden Bundestagswahl groß. Das zeigt sich auch in den Ausschüssen des Deutschen Bundestages. Gleich zwei nahmen sich in der vergangenen Woche dem Thema an und befragten Experten zu ihrer Einschätzung. Es zeigt sich: Fast jeder hat eine persönliche Bot-Anekdote auf dem Lager, über den Einfluss von Social Bots auf die Willensbildung ist jedoch wenig bekannt. Also viel Aufregung um nichts? Der Reihe nach.

Anhörung 1: Ausschuss für Digitale Agenda

Die Bot-Woche im Bundestag begann am Mittwoch, den 25. Januar mit einer Anhörung des Ausschusses Digitale Agenda, der fünf Sachverständige um ihre Einschätzung zu Fake News, Bots und IT-Sicherheit bat. Unter ihnen auch der netzpolitik.org-Redakteur Markus Reuter, der in seinem Statement (pdf) vor sinnlosem Aktionismus warnte:

Über die Wirkungen und Effekte von Fake News und Social Bots auf die politische Meinungs- und Willensbildung gibt es bislang weder in den USA noch in Deutschland ausreichende und ergiebige Studien, weswegen eine Regulierung zum jetzigen Zeitpunkt ohne eine empirische Grundlage passieren würde.

Anhörung 2: Ausschuss für Technikfolgenabschätzung

Am darauffolgenden Tag veranstaltete der Ausschuss für Bildung, Forschung und Technikfolgenabschätzung ein Fachgespräch mit ganzen 25 geladenen Experten (Liste). Unter ihnen Sozialwissenschaftler, Informatiker, das BKA, Politikberater und mit Marie-Teresa Weber vom IT-Verband Bitkom immerhin eine Frau. Dass so viele Sachverständige geladen wurden, kann zwei Dinge bedeuten. Entweder der Einfluss von Bots ist wahrhaftig so groß, wie von einigen behauptet wird oder wir werden Zeuge eines Medien-Hypes. Um es vorwegzunehmen: Nach dem Fachgespräch drängt sich der letztere Eindruck auf.

Grundlage der Diskussion im Ausschuss war ein Thesenpapier des Büros für Technikfolgenabschätzung, über das netzpolitik.org bereits ausführlich berichtete. Die Autoren definieren Social Bots als „Computerprogramme, die eine menschliche Identität vortäuschen und zu manipulativen Zwecken eingesetzt werden, indem sie wie Menschen im Internet kommunizieren“. Trotz der schwachen empirischen Grundlage schreibt die Studie dem Phänomen ein großes Gefahrenpotenzial zu.

Quantität bedeutet nicht Qualität

Es gebe eine umfassende empirische Grundlage, die bezeuge, dass Social Bots jeden relevanten Hashtag bei Facebook, Twitter und Co. bevölkern, erläuterte der Münchner Politikwissenschaftler Simon Hegelich. Die große Frage sei, ob jemand wirklich seine Meinung in Folge einer Bot-Nachricht ändere. Es sei schwierig diese Dinge empirisch stichhaltig zu beweisen. Hegelich warnte daher davor, aus Quantität auf die Qualität zu schließen.

Sein Münchner Kollege, Jürgen Pfeffer von der TU München, sprach sich gegen Ranglisten, die die Follower von Politikern vergleichen, aus. Da diese vor allem von Bots bevölkert seien, entstehe bei vielen ein falscher Eindruck über den Einfluss. Mehr Vertrauen in die Fähigkeiten der Nutzer von sozialen Netzwerken zeigte Alexander Sander von der Digitalen Gesellschaft. Nutzer würden erkennen, wenn Debatten von Bots zugespamt würden.

Kennzeichnungspflicht für Social Bots? „Völlig sinnlos“

Der Forderung nach einer Kennzeichnungspflicht für Social Bots erteilten fast alle Experten eine Absage. Schon jetzt gebe es bei Facebook die Pflicht seinen Klarnamen anzugeben, die nicht kontrolliert werde. Wie und wer solle dann erst eine Pflicht zum Kennzeichen von Social Bots überprüfen, kritisierte Stephan Sachweh vom IT-Sicherheitsunternehmen Pallas. Der Vorschlag sei daher „völlig sinnlos“. Vor einem „sozialen Klimawandel“, ausgelöst durch Social Bots, warnte hingegen Dirk Helbing von der Eidgenössischen Technischen Hochschule Zürich eindringlich. Helbing sprach sich als einer der wenigen Anwesenden für eine Kennzeichnungspflicht aus, die von den Grünen gefordert wird.

Unverständnis über die große politische und mediale Aufmerksamkeit für Social Bots äußerte Linus Neumann vom Chaos Computer Club. Angesichts der dünnen Faktenlage hält Neumann die Rufe nach einer Kennzeichnungspflicht für „massiv überzogen“. Nicht Bots seien das Problem, sondern der Vertrauensverlust der Bürger in Politik und Medien. Zwar könnten Bots fremdenfeindliche Tendenzen verstärken, dies sei aber aufgrund der geringen Nutzerzahlen von Twitter in Deutschland zu vernachlässigen. Wahlmanipulation befürchtet er nicht. Privatfernsehen, Bild-Zeitung und lügende Innenminister würden die Menschen viel eher politisch beeinflussen, so Neumann im Ausschuss.

Medienkompetenz stärken

Dem Vorschlag aus dem Thesenpapier ein kostenpflichtiges und paralleles Internet „von und für Eliten“ zu schaffen, widersprach der Informatiker Christian Grimme von der Westfälischen Wilhelms-Universität Münster vehement. Dies verstoße gegen die grundlegenden Prinzipien des Internets. Stattdessen müsste die informationstechnische Grundbildung in der Gesellschaft verbessert werden, schon in der Schule. Jedoch nicht durch das wahllose Verteilen von Tablets, sondern durch die Vermittlung von grundlegenden technischen Zusammenhängen.

Aufklärung und Bildung sind laut Grimme der einzige Weg um den Einfluss von Bots zu minimieren. Denn Wirkung können Bot-Accounts nur entfalten, wenn leichtgläubige Nutzer sie für echt halten. Darin waren sich alle anwesenden Experten einig.

Fazit

Das zweieinhalbstündige Fachgespräch zeigte vor allem eins: Es gibt viel Redebedarf über Social Bots und sei es nur um Geschichten über virtuelle Bot-Begegnung zu teilen. Solange es jedoch keine stichhaltigen Belege für ihre Beeinflussung gibt, scheint eine Regulierung vorschnell und ist purer Aktionismus, geschweige denn in der Praxis umsetzbar.

In der Mediathek des Bundestages findet sich eine Aufzeichnung des Fachgesprächs.

17 Ergänzungen

  1. >Orakel OrakelErdrutschartiger Sieg der AFD!Erdrutschartiger Sieg für die Goße Koalition!<
    Wahlbeteiligung unter 30%.

  2. -Orakel Orakel-
    Ich sehe schon die Schlagzeilen!
    -Erdrutschartiger Sieg der AFD!-
    Bundestagswahl von Nordkoreaner, Russen und Chinesen durch Social Media Bots Manipuliert und muss wiederholt werden!
    Alle AFD Wähler wurden wegen der leichten Manipulierbarkeit durch Social Media Bots, von der Wahl ausgeschlossen!
    -Erdrutschartiger Sieg für die Goße Koalition!-
    Wahlbeteiligung unter 30%.

    1. Das Üble bei dem Thema ist ja, dass man als Bürgerrechtler, der gegen neue Gesetze bei dem Thema ist, permanent einen Mob von Rechtsradikalen „Meinungsfreiheit, Meinungsfreiheit“ krakeelen hört, der das aber nicht wegen der Bürgerrechte tut, sondern weil er die herbeiphantasierte nationale Revolution in Gefahr sieht.

  3. Wir können beruhigt davon ausgehen dass das kollektive Gedächtnis und Bewusstsein der Bevölkerung, soweit noch nicht der totalen Gehirnwäsche unterzogen, dabei hilfreich sein wird eine selbstständige Entscheidung am Wahltag zu machen. Nur dann bitte nicht den Gottkanzler..

    1. Ich vermute auch das Thema Social Bots und Fake News wird jetzt erst mal auf kleinerer Flamme gekocht, nachdem jetzt /r/the_schulz’ens #Schulzzug ausgefahren ist. Das sind ja schließlich die guten FakeNews! :)

  4. Man muss Kindern (hier auch jungen Erwachsenen) beibringen, wie man mit Medien umzugehen hat, so wie man ihnen zeigt, dass man erst nach rechts und links schauen muss, bevor man über die Straße geht.

    1. So ist es. Doch es scheint von gewissen Kreisen nicht gewünscht. „Dumm wählt gut.“ oder wählt garnicht, was ja auch gut für die „immer weiter so Fraktion“ ist.

  5. Ich teile das Fazit des Artikel-Autors nicht. IT-Sachverständige sind eher nicht ausreichend kompetent, um den Einfluss von Bots auf Menschen zu beurteilen. Es hat den Anschein, dass Technik-Affine ein Interesse daran haben, die Manipulationsmöglichkeiten von Social Bots herunterzuspielen.

    Ich empfehle das Gespräch mit Linguisten und (Sozial-)Psychologen zu suchen.
    Darüber hinaus wäre der ganze Aufwand, der mit Bots betrieben wird ja überflüssig, wenn er keine Effekte zeigen würde.

    1. Das Fazit sagt doch nur aus, dass es keine stichhaltigen Belege für die Beeinflussung durch Bots gibt und daher eine vorschnelle Regulierung purer Aktionismus wäre. Die Aufgabe, Belege für die Beeinflussung durch Bots zu finden, könnte selbstverständlich gut durch Linguisten und (Sozial-)Psychologen übernommen werden.

  6. Politikwissenschaftler Simon Hegelich: Die große Frage sei, ob jemand wirklich seine Meinung in Folge einer Bot-Nachricht ändere. Es sei schwierig diese Dinge empirisch stichhaltig zu beweisen. Hegelich warnte daher davor, aus Quantität auf die Qualität zu schließen.

    Wenn man die Wirkung einer einzelnen „Bot-Nachricht“ betrachtet, dann mag das zutreffen. Wer sich jedoch bei der Analyse auf einzelne „Bot-Nachrichten“ beschränkt begeht eine fundamentale Fehleinschätzung, denn Bots generieren zwar einzelne Nachrichten, aber das Merkmal von Bots ist es ja gerade, dass sie dies automatisiert und massenhaft tun. Deshalb muss eine fundierte Analyse gerade die massenhafte Verbreitung berücksichtigen, die ihre ganz eigene Wirkung entfaltet.

    Ohne Kennzeichnung erscheinen „Bot-Nachrichten“ als ähnlich gerichtete Meinungen von vielen Menschen (Followern). Oder als Vielzahl von Meinungsmachern (Fake-Accounts). Tatsächlich handelt es sich jedoch um das Werk von Leuten, die Manipulation betreiben, wirksame Manipulation.

    Die Manipulation ist subtil und wirkt nicht durch die Rezeption einiger „Bot-Nachrichten“ sondern als überwältigende Erscheinung, die durch die große Zahl und Wiederholungen eine Wirklichkeit vorspiegelt, die ein Artefakt darstellt.

    Die subtile Wirkung entfaltet sich zweierlei.

    Erstens wird die Einschätzung von Mehrheitsverhältnissen/Häufigkeiten verzerrt: Gehöre ich mit meiner Meinung zu einer Mehrheit oder Minderheit?

    Zweitens findet ein schleichendes (Re-)Framing durch Begriffe statt. Dies geschieht durch Wiederholungen von Begriffen in gewünschten Bedeutungszusammenhängen. So wird ermuntert, geächtete Begriffe als verwendbar erscheinen zu lassen.

    Das alles ist möglich, weil „Bot-Nachrichten“ getarnt als häufige Einzelmeinungen von Menschen erscheinen. Wären sie als Bot identifizierbar, so wären sie schnell als lästige automatisierte Werbung, als Propaganda, als Manipulation oder psychologische Kriegsführung wahrgenommen.

  7. der grimme gefällt mir. oder sagen wir es so: was ich im kurzen überschlag fand läßt mich vermuten der mann weiß wovon er redet. recht so… weiter so :-)

  8. Der Artikel liest sich so, als wäre er von Beginn an auf den letzten Satz des Fazits ausgerichtet gewesen. Sollten Social Bots z.B. die Wahl beeinflussen, muss doch die Konsequenz nicht automatisch „Regulierung“ bedeuten. Das scheint ein Tabu-Wort für die Internetgesellschaft zu sein.

    Ich lesen im Artikel nur von direkter Beeinflussung. Dass aber Social Bots die Richtung von Diskussionen mitbestimmen, das steht da nicht. Und das ist durchaus eine reale Gefahr. Nämlich, dass über dieses Mittel Themen gesetzt werden, die vielleicht die Menschen in der Masse gar nicht bewegen, sondern nur Interessensgruppen. Dass Bildzeitung und Co. das auch tun, ist nun wirklich kein Argument dafür, sich zurückzulehnen!

    Da muss man auch nicht unbedingt regulieren, sondern es gibt auch andere Möglichkeiten, z.B. Medienkompetenz stärken. Und zwar sowohl die Kompetenz der Leser/Zuschauer als auch die Kompetenz der Medien selbst, nicht mehr auf Tweets zu starren. Denn das wird auch in seriösen Nachrichten getan. Die Menschen können eben NICHT menschliche von Bot-Tweets unterscheiden. Dasselbe gilt für positiv bewertete Tweets. Wenn da 20.000x positiv bewertet steht, erscheint die Nachricht wichtig/beliebt. Wer soll bitte da noch zwischen Mensch und Bot unterscheiden? Geht nicht. Hat aber jetzt schon Einfluss!

    Also an die Netzgemeinde: bitte nicht reflexartig sämtlichen online sich abspielenden Kram verteidigen, sondern an Lösungen mitarbeiten.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.