Zwischen 9 und 15 Prozent aller aktiven und englischsprachigen Twitter-Konten sind einer Studie zufolge so genannte Social Bots, die automatisiert Inhalte posten und weiter verbreiten. Forscher der Universitäten von Indiana und Southern California in den USA entwickelten ein Vorgehen zum Erkennen solcher Bots und veröffentlichen ihre Ergebnisse nun in einer Studie (pdf).
Dazu schnitten sie 10 Prozent der öffentlich zugänglichen Tweets über einen Zeitraum von drei Monaten mit und analysierten die Handlungen von aktiven und englischsprachigen Konten. Per Analyse der Metadaten und Inhalte dieser Konten wurden über 1000 verschiedene Faktoren ermittelt. Zudem wurden 3000 Konten manuell gesichtet und mit Anmerkungen versehen. In die Analyse aller Konten floss außerdem ein Wechselwirkungsindikator ein, also eine Messung, wie viele der von den Accounts abonnierten Nutzer ihnen zurückfolgen.
Den Forschern fiel auf, dass Menschen eher anderen Menschen folgen und Bots eher anderen Bots. Man kann auf der von den Forschern eingerichteten Seite BotOrNot Twitter-Konten analysieren lassen, muss dazu jedoch Zugang zu dem eigenen Konto geben.
Empirische Grundlage geschaffen
Zu ihrer Intention bezüglich der Studie halten die Forscher sich bedeckt und erklären lediglich die wissenschaftliche Grundlage zum Erkennen von Bots. Sie erwähnen unter anderem aber automatisierte Bots, die eine Graswurzelbewegung vortäuschen sollen. Wie die Forscher klarstellen, fallen in ihre Botkategorie jedoch auch einfache Programme, die wie der Twitter-Account @netzpolitik_org automatisiert Inhalte von Nachrichtenseiten teilen.
Social Bots und ihre vermutete Gefahr für die Demokratie sind auch Thema im Bundestag geworden. Vor wenigen Wochen warnten Experten jedoch vor übersteigerter Panik gegenüber dem derzeitigen Einfluss von Social Bots und kritisierten, dass es nicht genügend empirische Daten zur tatsächlichen Bedeutung des Phänomens gäbe. Mit dem entwickelten Rahmenkonzept könnten Bots nun leichter als solche erkannt werden.
In der Überschrift steht „aller Accounts“, untersucht wurden aber nur „aktive, englischsprachige Accounts“?
Das stimmt und ist nun korrigiert.
Mich interessiert das Thema und verusche zu verstehen, wovon diese Studien handeln. Um welche Bots geht es denn da konkret?
Ich kenne Bots entweder als lustige „Gesellen“ die in regelmäßgen Abständen Unsinn posten oder als Werkzeug für (vor allem) Journalisten, die mit Bots ihre Veröffentlichungen auf Plattformen vermarkten – die also automatisiert Inhalte posten.
Daneben gibt es noch eine Reihe von Bots die auf Stichwörter mit einer Auswahl von Antworten reagieren, wie z.b. der TAZ Bot „Judith Botler“ http://www.taz.de/!5386375/),
Aber das Bots so klug handeln wie es in der Studie dargestellt wird erschleißt sich mir nicht ganz. Wer diskutiert den mit solchen accounts? wel läßt sich dadurch beeinflussen?
Wenn ich einem Journalisten folge, der nur stumpf seine Artikel postet und auf nichts reagiert, dem entfolge ich schnell auf Twitter.
Ich verstehe wirklich nicht, was diese Forscher meinen. Das Tool mal ausprobiert:
http://truthy.indiana.edu/botornot/?sn=WestieBot
Der WestieBot ist sowas von einem Bot, wird aber nicht als solcher erkannt laut diesem Tool ist er sogar weniger Bot als der account von Netzpolitik.
Wo ist diese unglaubliche Zahl von einflussreichen Twitterbots?
Ich hab einen gefunden: http://truthy.indiana.edu/botornot/?sn=saschalobo ist zumindest tendenziell ein Bot.
Die Studie kritisiert also die Einflussnahme durch Journalisten die Bots benutzen?
Sollte man auch dazu schreiben.
In der Studie wurden keine Bots konkret genannt, jedoch verlinken die Forscher auf der von Dir besuchten Webseite Beispiel-Bots, die z.B. nur retweeten. In der Studie werden des weiteren Spammer, Bots zur Selbstwerbung und automatisiert gefütterte Bots erwähnt.
Den Forschern ging es primär um ein „Framework“ zum Erkennen von Bots, weniger um die daraus resultierende Interpretation.
Das kann daran liegen, dass beide dieser Bots deutschsprachig sind. So kann das Tool nur die Metadaten und nicht den Inhalt interpretieren, und kommt so zu einer fehlerhaften Einschätzung. Der WestieBot verbreitet ja keine automatisierten Links und wirkt so wohl eher nicht als Bot.
Wenn Du Antworten auf deine weiterführenden Fragen findest, freue ich mich über eine Nachricht.
Danke, das habe auch soweit verstanden.
Aber ich finde auch nach einem Tag suche keinen Hinweis über konkrete Bots, die in irgendeiner Form „Meinungsmanipulation“ betreiben. Es gibt aber etliche Artikel die das einfach behaupten. Was steckt also dahinter?
Und wie gesagt, der echte Bot ist nach Einschätzung der Software weniger ein Bot, als der Account von Sascha Lobo. Dann frage ich mich, welche Wert die Schlußfolgerungen dieser Studie haben? Oder was sie überhaupt ausdrücken wollen?
Denn natürlich gibt es Twitter Bots. Wie gesagt, viele Journalisten betreiben welche.
Aber diese Hysterie die damit erzeugt wird kann ich nicht verstehen. Gerade heute Morgen kam im Moma wieder eine Meldung über unzählige aus dubiosen Quellen stammende Bots, die uns alle Manipulieren, ich habe aber bisher keine wirklich evidente Studie/Nachricht darüber gelesen.
Mein Endruck ist:
Viele Nachrichten heute sind Meinungen, die von staatlich geförderten Medienzentren oder auch sogenannten „Denkfabriken“ verbreitet werden (und oft bei direkt bei der dpa landen) und dankbar von vielen Medien aufgenommen werden. Es sind vermutlich kostengünstige und durch ihre Verbreitung auch lukrative Artikel, die eine gewisse Klickrate erzeugen.
Im Augenblick sind das vor allem Meldungen über Fakenews, Bots und Erdogan. Diese enthalten fast nur Meinungen, Ansichten oder Propaganda. Und ganz wenig Nachrichten oder Informationen und fast nie Belege oder Hintergrundwissen.
Und ich lese keine Boulevardmedien, wie Bild oder Buzzfeed und nutze kein facebook. Aber selbst auf Heise und hier oder auch auf HPD finden sich solche Meldungen.
Gerade wenn es um sowas wie hier geht, wünsche ich mir von Netzpolitik oder noch mehr bei Heise konkrete Infos, damit ich weiß worüber gesprochen wird. Ich lese diese Seite ja, weil mich das Thema interessiert und evtl. auch technisch mehr informiert bin, als andere. Wenn aber dann nur Meinungen wiedergekaut werden, bringt das wenig und verunsichert noch mehr.
Ich glaube daher auch nach wie vor nicht an diese vermeintlichen, gefährlichen Bots. D da geht es vermutlich um etwas ganz anderes. Wir werden wohl demnächst massive Einschränkungen und Regulierungen erleben – nur zu unserem Besten, damit uns diese „Bots“ nicht manipulieren.
Ich war noch nicht mit meinem heutigen Feeds durch:
https://netzpolitik.org/2017/analyse-so-gefaehrlich-ist-das-neue-hate-speech-gesetz-fuer-die-meinungsfreiheit/
Welche „staatlich geförderten Medienzentren“ meinst Du denn?
Da ich nicht bei der Presse arbeite, weiß ich auch nicht woher diese – oft gleich lautetenden Meldungen stammen – oft wird in den Artikeln als Quelle dpa genannt. Aber dahinter stecken mit Sicherheit andere Agenturen. Ich denke da an so was:
http://www.nato.int/cps/en/natolive/news_room.htm
https://en.wikipedia.org/wiki/National_Scholastic_Press_Association
https://de.wikipedia.org/wiki/Europ%C3%A4ische_Stabilit%C3%A4tsinitiative
https://de.wikipedia.org/wiki/United_States_Agency_for_International_Development
Das Problem ist aber, dass bei diesen z.T. staatlich finanzierten Instituten oft nicht erkennbar sind, als was sie Tätig sind. Wenn es z.b. bei USAID um Katastrophenhilfe oder Unterstützung bei „Privatisierung des öffentlichen Sektors und auf globale Marktöffnung zielende Reformen“ geht, dann kann sich das auch um umganfreiche Einmischung in innere Angelegenheiten von Staaten handeln.
War aber nicht das eigentlich Thema meiner Frage. Mich interessieren eigentlich die Bots, die ich nicht finde.
Es gibt aber auch vermeintliche private Agenturen, die zwar offiziell privat finanziert sind, aber durchaus von staatlichen Stellen unterstützt werden.
https://www.stiftung-mercator.de/
und was natürlich fehlt sind die ganzen Stiftungen der Parteien, die auch alle mehr oder weniger Medienpolitisch agieren und staatlich finanziert sind
https://de.wikipedia.org/wiki/Parteinahe_Stiftung
Ich hoffe irgendwann, irgendwo mal wirklich rauszufinden, was mit diesen social Bots und deren Einfluss gemeint ist, bzw, was hinter dieser Kampagne steht. Sicher nicht Jounalisten zu verbieten Werkzeuge zu benutzen.
Hallo
Verstehe die Aufregung nicht, dachte das währe das nächste Big thing im Social Web, wenn schon die C´t beschreibt wie es geht.
Gibt es nix wichtiges?
Trotzdem weiter so.
In der Überschrift steht, das höchstens 15 Prozent […] der Accounts Bots sind.
Im Text wird dann zwar richtig gestellt (zwischen 9 und 15 Prozent). Wäre demnach nicht eine Überschrift wie „Forscher schätzen mindestens 9 Prozent sind Bots“ angemessen gewesen? Aber das ist eben die niedrigere Zahl :-)
Also ich habe soweit es meine Zeit zuläßt versucht Bots zu finden, der von der Software eindeutig als Bot erkannt wird und keinen gefunden. Die Accounts von Snowden und Netzpolitik ragieren relativ weit oben. Das HausohneFenster ist sicher kein Bot er postet auch Videos seiner Band.
Eine kleine Auswahl aus den Accounts denen ich folge (bzw. die gefunden habe, als ich konkret nach TwitterBots gesucht habe) und deren Einstufung durch http://truthy.indiana.edu/botornot/:
@HausOhneFenster 51%
@netflix_bot 45% <= BOT
@WAZ_Redaktion <= BOT
@snowden 44%
@netzpolitik 42%
@bildblog 40%
@heisedc 40%
@heuteshow 38%
@uebermedien 37%
@MuseumBot 35% <= BOT
@sixtus 34%
@mainz_de %31
@niggi 30%
@westibot 29% <= BOT
@tilojung 29%
@RAStadler 24%
Ich finde einfach keine Hinweis darauf, was diese Studie proklamiert, dass Einfluss der Socialbots eine Rolle spielt. Im gegenteil https://www.resocialbot.com/ scheint eine ganz tolle Software zu sein, um Artikel zu verteilen – so wie ich mir das auch mit meinen technischen Wissen vorstelle.
Interessant ist dagegen der engl. Wikipedia Eintrag https://en.wikipedia.org/wiki/Social_bot da wird diese nützliche Software als "Black Propaganda" oder Manipulation Software bezeichnet.
Der deutsche Eintrag https://de.wikipedia.org/wiki/Bot#Social_Bots:_Funktion_in_sozialen_Medien ist da viel neutraler (wie lange noch?). Wobei es auch dort keine konkreten Hinweise gibt, wo man genau diese Bots findet.
Nach allem was sich zu dem Thema findet (bzw. eben nicht) wäre das doch mal ein Artikel für Netzpolitk wert?
Es wird hier mit einem Begriff für ein ganz normales Werkzeug im Netz massiv versucht Menschen zu verunsichern oder eine Meinung zu erzeugen (Bots=Böse) ohne das sich überhaupt nachvollziehen läßt wovon alle sprechen oder wo genau das Problem liegt.
Meinungen im Netz verbreiten ist ja nicht verboten und wie gesagt ich bin sicher das viele Journalisten oder Zeitungen Bots benutzen um ihre Arbeit zu verbreiten.
Wenn man dann aber liest, was die Politik sich darunter vorstellt, scheinen es massive Widersprüche zu geben.
http://www.spiegel.de/netzwelt/netzpolitik/afd-will-im-wahlkampf-social-bots-einsetzen-a-1117707.html
Sorry, ich sehe gerade, ich hab mich etwas zuviel auf die Studie gestürzt und nicht den letzten Abschnitt im Artikel wahrgenommen. Ihr schreibt das im Grunde ja auch.