Spätestens seit Donald Trump 2016 die Präsidentschaftswahl in den USA gewonnen hat, grassiert die Angst vor dem Einfluss der Meinungsroboter. Im US-Wahlkampf sollen automatisierte Accounts in sozialen Netzwerken Stimmung gemacht haben. Sehr viele für Donald Trump, deutlich weniger für Hillary Clinton. Die Befürchtung hinsichtlich von Social Bots ist: Wenn automatisierte Accounts einen Kandidaten oder eine Partei bejubeln, dann wird dieser politische Einfluss nicht von dem mit den besten Argumenten und den meisten Anhängern ausgeübt, sondern von dem Akteur, der am meisten Geld in Technik und Know-How stecken kann. Das könnte eine demokratische Auseinandersetzung verzerren – und ist deshalb nicht wünschenswert. Doch haben Bots wirklich so viel Einfluss, wie man angesichts nervöser Debatten immer wieder meinen könnte? Was sind überhaupt Bots?
Das Wort „Bot“ ist die Kurzform des englischen Wortes Robot (Roboter). Im Zusammenhang mit sozialen Medien ist ein Bot ein maschinell gesteuerter Account, der automatisiert Aufgaben erfüllt. Dabei können Bots sehr praktisch und völlig legitim sein. Die Netzpolitik-Redaktion hat zum Beispiel einen Bot, der in regelmäßigen Abständen überprüft, ob auf netzpolitik.org neue Artikel veröffentlicht wurden. Dann postet er Überschrift, den Link und das Artikelbild auf Twitter. Ganz von allein, ohne dass die Redaktion jeden Artikel von Hand rausschicken müsste. Dass hinter diesem Twitter-Roboter kein Mensch steht, wird dabei direkt im Account transparent gemacht.
Guter Bot, böser Bot
Will jemand im größeren Stil Bots einsetzen, benötigt er viele Accounts. Solche Accounts können automatisiert erstellt werden und sind im Internet in Tausenderpaketen gegen Geld erhältlich. Für den Preis der falschen Accounts gilt: Je menschlicher der Bot wirkt, desto teurer wird es. Vier Jahre alte Bots mit Profilbild, Biografie-Text und zahlreichen Freunden sind also mehr wert als der gerade erstellte Bot ohne Bild, ohne Text, ohne Follower und mit einem kryptischen Kontonamen wie „@xrg92120208383“ bei Twitter. Die Aktionen von Social-Media-Accounts lassen sich über eine Software steuern. So wird ein Social Bot daraus. Diese können Freundschaftsanfragen bei Facebook stellen, anderen Accounts folgen, Tweets bei Twitter retweeten oder einen Facebook-Post liken.
Einfache Social Bots dienen der künstlichen, maschinellen Relevanzzuweisung. Sie können beispielsweise bestimmte Themen oder Hashtags automatisiert verstärken. Diese künstliche Relevanzerhöhung kann durch die Berichterstattung von Medien („Auf Twitter ‚trendete‘ Kandidat XY“ oder „Politikerin XY hat 100.000 Follower“) noch einmal multipliziert werden. Wie oft ein Video auf YouTube angeschaut wurde, lässt sich mit Geld und Know-How genauso manipulieren wie die Menge von Freunden auf Facebook, die Anzahl von Likes bei Instagram oder eben Retweets eines bestimmten Hashtags auf Twitter. Aufwändig programmierte Bots könnten auch mit anderen Accounts interagieren, etwa indem sie auf bestimmte Aussagen mit bestimmten Antworten reagieren. So ein Bot könnte auf einen Tweet „Ich wähle XY“ antworten: „Willst du wirklich XY wählen? XY hat hier gelogen, siehe Link“. So könnten Bots tausendfach automatisiert Zweifel säen. Diese Spielart der Bots ist auch in Kombination mit sogenannten Fake News, also Falschmeldungen, denkbar.
Entwarnung für Bundestagswahlkampf 2017
Trotz starker Befürchtungen sind solche Arten automatisierter Desinformation gar nicht oder nur in sehr geringem Maßstab im Bundestagswahlkampf 2017 passiert. Meinungsroboter kamen nur vereinzelt zum Einsatz. Vor der Wahl hatten alle Parteien der Nutzung von Social Bots eine Absage erteilt – und sich auch daran gehalten.
Bei der AfD war allerdings eine andere Art der Täuschung zu beobachten: Im Umfeld der Partei tauchten im Wahljahr auf Twitter zahlreiche inoffizielle Unterstützer-Accounts auf, die gezielt Werbung für die Partei machten. Durch eine großangelegte Datenuntersuchung von Tagesspiegel und netzpolitik.org kam heraus, dass die Accounts untereinander und mit der Partei in Kommunikation standen und deren Kanäle signifikant verstärkten. Doch waren es keine Roboter, die diese Armee von pseudonymen Accounts bedienten, sondern echte Personen.
Ein ähnliches Phänomen, bei dem beispielsweise auf Twitter Diskussionen und deren Wahrnehmung manipuliert werden sollen, sind Trollgruppen, die sich über andere Kommunikationsebenen wie beispielsweise die Chat-Plattform Discord organisieren und koordinieren. Eine dieser Gruppen war Reconquista Germanica, die populäre Hashtags mit eigenen, hetzerischen Inhalten flutete. Oftmals reichen für solche koordinierten Aktionen und eine signifikante Wahrnehmbarkeit schon 50-100 Accounts, die von wenigen Menschen gesteuert werden.
Eine weitere Strategie ist der Aufbau von Fake-Influencern. So gelang es, eine falsche rechte US-Bloggerin mit dem Namen „Jenna Abrams“ aufzubauen, die mehr als 70.000 Follower hatte, von Abgeordneten retweetet und von bedeutenden Zeitungen zitiert wurde. Solche Kunstfiguren, in denen aber jede Menge menschlicher und kreativer Arbeit steckt, können aufgrund ihrer höheren Glaubwürdigkeit deutlich einflussreicher werden als automatisierte Accounts. Koordinierte Aktionen von sogenannten „Sockenpuppen“ und falschen Influencern, die von Menschen gesteuert und koordiniert werden, sind deutlich besser in der Lage Stimmungen aufzunehmen und in die Kommunikation einzugreifen oder diese zu stören. Die Grenzen zwischen erlaubter Meinungsäußerung, politischem Campaigning und unerwünschter oder gar illegaler Einflussnahme dürfte allerdings fließend sein, was die Bekämpfung von demokratieschädigender Einflussnahme in diesem Feld besonders schwer macht.
Die Relevanz von Social Bots wird überschätzt
Der Datenjournalist Michael Kreil untersucht Twitter seit Jahren. Er spricht den Social Bots auf dem sozialen Netzwerk keine Relevanz in der politischen Kommunikation zu. Kreil sieht deshalb auch keinen Handlungsbedarf bei der Regulierung von Social Bots – außer der Unterstützung der beobachtenden Forschung, damit diese besser als heute erkennen könne, falls Social Bots tatsächlich einmal eine Rolle spielen würden. Kreil sieht viel mehr Handlungsbedarf bei sogenannten „Dark Ads“, also Werbung für oder gegen Parteien, bei der ihr Ursprung nicht überprüfbar ist. Das passiert unter anderem bei der Finanzierung aus dem Ausland. Dies sieht auch Linus Neumann, Sprecher des Chaos Computer Clubs und Sachverständiger für Social Bots im Bundestag, ähnlich: „Bots verzerren eventuell ein bisschen die individuelle Wahrnehmung der Öffentlichkeit, aber das Individuum hat am Tag ungefähr 16 Stunden Aufmerksamkeit, von denen Bots nur winzige Teile und Teilaspekte überhaupt erreichen können.“
Wie Kreil und Neumann sieht auch der Social-Media-Analyst Luca Hammer Social Bots als „irrelevant in der politischen Kommunikation“ in Deutschland an. „Einen viel größeren Einfluss in der politischen Willensbildung hat das Sprechen über Social Bots.“ So seien in der Debatte um die EU-Urheberrechtsreform GegnerInnen der Richtlinie fälschlicherweise als Bots bezeichnet worden. Diese Art der Entmenschlichung führe dazu, dass die betroffenen Bürgerinnen und Bürger sowie ihre vorgetragenen politischen Bedenken diskreditiert würden.
Das Problem der Nachweisbarkeit von Bots
Das Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag definiert Bots folgendermaßen: „Social Bots sind Computerprogramme, die eine menschliche Identität vortäuschen und für manipulative Zwecken eingesetzt werden, indem sie wie Menschen im Internet kommunizieren.“ Das wirft ein weiteres Problem auf: Man kann die Definition wissenschaftlich nicht verwerten. „Wie soll man denn Social Bots von Menschen unterscheiden können, wenn per Definition Social Bots und Menschen nicht unterscheidbar sind?“, fragt Kreil.
Viele Wissenschaftler unterstellen den vermeintlichen Social Bots deshalb ein bestimmtes Verhalten ohne dies jedoch belegen zu können. Das Computational Propaganda Research Project am Oxford Internet Institute (OII) und mit ihm viele andere Forscherteams verwenden als Kriterium, dass ein Account mehr als 50 Tweets am Tag absetzt. Doch dieses Kriterium erreichen auch Menschen problemlos. Kreil hat herausgefunden, dass es im Bundestag Abgeordnete gibt, die täglich 200 bis 300 Tweets und Interaktionen auf Twitter auslösten – und eben ganz augenscheinlich keine Bots seien.
Probleme in der Erkennung der Social Bots sieht auch Neumann: „Sämtliche bisher entwickelten Verfahren fielen auch bei grober Prüfung durch immense Fehlklassifizierungen auf.“ Das sieht auch Datenanalyst Hammer so. Er ist davon überzeugt, dass man nur über eine tiefe qualitative Auswertung von Accounts sicher bestimmen könne, ob ein Account ein Social Bot sei. Das werde aber nicht gemacht, da Analysten auf die automatisierte Auswertung setzen würden. Um Social Bots im großen Stil zu erkennen bräuchte es qualitative Untersuchungen, die bei einer großen Zahl an Accounts sehr aufwändig wären. Die schwierige Nachweisbarkeit führt dazu, dass eine Regulierung, die im politischen Raum immer wieder gefordert wird, sich gegen ein Phänomen richten würde, das derzeit von der Wissenschaft nicht zufriedenstellend erkannt werden kann. Weder über Quantität, Qualität noch über die Wirkung von Social Bots gibt es genügend Erkenntnisse.
Plattformen müssen eine unabhängige Auswertung ermöglichen
Hammer sieht die Plattformen erst einmal selbst in der Pflicht gegen Social Bots vorzugehen: „Twitter setzt etwa Machine Learning ein, um verdächtige Accounts zu erkennen und diesen dann eine Aufgabe zu geben.“ Die Accounts müssen dann sogenannte Captchas lösen oder ihre Telefonnummer verifizieren. Dies führe dazu, dass die „Bot-Betreiber“ dazu übergingen, selbst weniger auf Automatisierung als auf Menschen hinter den Accounts zu setzen. Ähnlich sieht das Neumann: „Sofern es für notwendig erachtet wird, Social Bots zu bekämpfen – was zunächst zur Diskussion stehen sollte – kämen kurzfristig wohl nur Sperrungen der Accounts in Frage.“ Menschen sollten stattdessen in Medienkompetenz und der Anwendung von „journalistischen Standards” geschult werden, damit sie seriöse Äußerungen von unseriösen unterscheiden können – egal ob sie von einem Bot stammen oder nicht.
Michael Kreil lehnt eine Kennzeichnungspflicht, wie sie unter anderem von CDU, SPD und Grünen gefordert wurde, ab, da Kriminelle ihre „Social Bots“ sowieso nicht kennzeichnen würden. Auch Hammer ist der Meinung, diese Maßnahme sei nicht zielführend, sondern könnte sogar Spammer mit der Kennzeichnung legitimieren. Stattdessen fordert er, dass Plattformen verpflichtet werden sollten, ihre Programmierschnittstellen stärker zu öffnen, um unabhängigen Forschern bessere Auswertungen rund um Social Bots und Manipulation zu ermöglichen. Um Datenschutzproblemen zu begegnen würden für diese Art der Auswertung auch pseudonymisierte Daten ausreichen.
Was nicht erkannt werden kann, sollte nicht reguliert werden
Das Problem bei der Bekämpfung von Social Bots oder anderen manipulativen Accounts ist, dass eine Regulierung sehr schnell Grundrechte wie die Presse- oder Meinungsfreiheit tangiert – und so die negativen Folgen der Regulierung schwerer wiegen als der derzeit (kaum) festgestellte Schaden für die Demokratien durch diese Taktiken der Desinformation. Auch Neumann vom CCC findet, dass andere Ideen wie eine „Personalausweispflicht im Internet” das Potenzial für einen immensen Flurschaden hätten. Die breite und zuweilen nervöse Debatte um Fake News und Social Bots hat Deutschland für das Thema sensibilisiert. Eine Regulierung gegen Bots scheint beim bisherigen Stand der Wissenschaft viel zu gefährlich: Sie könnte schnell auch nützliche und sozial wünschenswerte Anwendungen stören, die Meinungsfreiheit beschränken und Innovationen behindern.
Dieser Text erschien zuerst bei der Bundeszentrale für politische Bildung, er ist Teil eines Dossiers über Digitale Desinformation. Der Artikel steht unter der Creative Commons Lizenz CC-BY-NC-ND.
Rauchen gefährdet die Gesundheit nicht. Wir brauchen mehr Forschung.
Keine Ahnung, ob Bots wirksam sind. Wir brauchen mehr Forschung.
Der Artikel ist unbefriedigend und erinnert an Lobbyismus-Methoden. Solange Glyphosat nicht als krebserregend bewertet wird, kann es weiter genutzt werden. Es entsteht der Eindruck, dass das Bot-Problem heruntergeredet werden soll, um keine Regulierung auszulösen. Gibt es Interessen-Konflikte, weil technisch affine Akteure sich die Option erhalten wollen, zu opportunem Zeitpunkt selbst manipulativ aktiv zu werden?
Bots sind zutiefst anti-demokratisch, weil Akteure nach belieben Meinungstrends vorspiegeln können, die gesellschaftlich toxisch sein können.
Es gibt schon genug Spinner auf dieser Welt, aber sie sind eine Minderheit. Es mag ja noch angehen, dass jeder Trottel seine einzigartige Meinung darf, doch mir sträubt sich der Pelz, wenn ein paar wenige den Anschein erwecken können, sie stellten eine Mehrheitsmeinung dar. Das überlebt auf Dauer keine Gesellschaft.
Plattformen müssen sicherstellen, dass sie es mit realen Personen zu tun haben, und dass diese nur ein Account besitzen dürfen.
Es ist ethisch bedenklich, wenn Menschen ein Eindruck vorgetäuscht wird, dass es sich um eine Kommunikation mit „echten Menschen“ handele. Das ist Täuschung und Betrug.
Ich halte es für grundfalsch, wenn trotz einer erkannten Gefahr nichts unternommen werden soll, mit der fadenscheinigen Begründung man bräuchte mehr Forschung.
Wir müssen dem jetzt schon Einhalt gebieten, weil fortschreitende Möglichkeiten im Bereich AI die Kommunikation mit und unter Menschen in eine Schieflage bringen können und menschliches Verhalten manipulierbar wird. Diese Technik in den falschen Händen wäre dann kein kleines Problem mehr.
Danke erstmal fuer den schoenen Bericht. Ich habe zwei Anmerkungen zu den zwei Kernmoeglichkeiten der geschilderten Problematik zu begegnen: Stigma vs. Kompetenz.
„Michael Kreil lehnt eine Kennzeichnungspflicht, wie sie unter anderem von CDU, SPD und Grünen gefordert wurde, ab, da Kriminelle ihre „Social Bots“ sowieso nicht kennzeichnen würden.“
Die Kennzeichnungspflicht macht in erstinstanzlicher Wirkung, also beim Leser aus dem genannten Grund wirklich keinen Unterschied. Das ist den fordernden Politikern auch vermutlich klar. Ich gehe nicht davon aus, dass diese so doof sind. Der Ansatz koennte aber fuer die Behandlung der Accounts bzw. der Installateure derselben, welche der dann bestehenden Kennzeichnungspflicht nicht gerecht wurden, einen juristischen Aspekt hinzufügen, nämlich den Nachweis, dass vorsätzlich gehandelt wurde. Vielleicht geht es ‚der Politik‘ auch darum oder um etwas in der Art.
„Menschen sollten stattdessen in Medienkompetenz und der Anwendung von „journalistischen Standards” geschult werden, damit sie seriöse Äußerungen von unseriösen unterscheiden können – egal ob sie von einem Bot stammen oder nicht.“
Das ist ein Lösungsansatz, der noch weitere positive Wirkungen zu erzielen vermag. Wer sich eine solche Medienkompetenz/Erkenntniskompetenz angeeignet hat, ist auch (besser) gefeit gegen Telefonbetrug, religiösen Unsinn, Manipulationen durch Werbung und den Staatsapparat etc. Am besten kommt sowas auf den Lehrplan in den allgemeinbildenden Schulen.
Ich bin auch der Meinung, das hier die Fähigkeiten wiet überschätzt werden.
Eine Fernserecherche konnten schon sehr früh nachweisen, dass zB „Likes“ in Pakistan bestellt und ausgeführt wurden. Das kann ich durchaus nachvollziehen, wenn gut ausgebildete aber ohne Arbeit in außereuroäischen Ländern lebende Informatiker sich damit Geld verdienen (müssen).
https://www.fanslave.de/facebook-fans-kaufen
Viel schlimmer empfinde ich die Tatsache, dass die Politiker selbst erst durch ihre Art und Weise, wie sie ihre Wähler informieren, es so zugelassen haben, dass es fast schon nicht mehr unterscheidbar ist, welchen Informationsquellen tatsächlich getraut werden können.
Und das gilt nicht nur für die Europapolitik.