Die Nichtregierungsorganisationen Global Witness und Cybersecurity for Democracy haben in einer gemeinsamen Studie untersucht, wie konsequent Social-Media-Plattformen politische Werbeanzeigen mit Falschmeldungen blockieren. Dazu schalteten sie je zwanzig Werbeanzeigen mit falschen Informationen zur US-Kongresswahl am 8. November bei YouTube, Facebook und TikTok.
Die Studie offenbart gravierende Mängel bei der Moderation: TikTok winkte 90 Prozent der Anzeigen kurzerhand durch, Facebook etwa 25 Prozent. Damit bestätigen sich Befürchtungen, dass es bei der anstehenden Wahl zu Manipulationen kommen könnte.
Die eingereichten Anzeigen zielten darauf ab, Menschen vom Wählen abzuhalten. Sie bewarben unter anderem falsche Wahltermine oder delegitimierten die Stimmabgabe auf dem Postweg. Andere Anzeigen zweifelten offen die Integrität des Wahlvorgangs an. Sie behaupteten beispielsweise, das Wahlergebnis stünde bereits fest oder könne manipuliert werden.
Für die Anzeigen verwendeten die mit der Studie betrauten Wissenschaftler:innen Falschinformationen, die bereits im Umlauf sind, und spielten diese dann online in den umkämpften Bundesstaaten Arizona, Colorado, Georgia, North Carolina und Pennsylvania aus. Jeweils die Hälfte der Anzeigen verfassten sie auf Englisch, die andere auf Spanisch.
Gravierende Mängel bei TikTok, Nachholbedarf bei Facebook
Nach eigenen Angaben akzeptieren die Plattformen Werbeanzeigen nicht automatisch. Stattdessen durchlaufen diese zunächst einen Moderationsprozess, an dem typischerweise KI-Systeme und menschliche Moderator:innen beteiligt sind. Auf Basis der jeweiligen Netzwerkrichtlinien werden die Anzeigen dann blockiert oder freigegeben. Bei politischen Themen gelten bei allen getesteten Netzwerken besonders strikte Regeln. Soweit der selbstgesetzte Anspruch. Doch laut Studie widersprachen sämtliche der geschalteten Anzeigen den Vorgaben der Plattformen.
„TikTok schnitt unter allen Plattformen am schlechtesten ab“, so das Ergebnis der Studie. Trotz eines neuen Verbots politischer Werbung über offizielle Accounts von Regierungen, Politiker:innen und Parteien, winkte TikTok 18 der 20 eingereichten Anzeigen durch. Die Wissenschaftler:innen werfen der chinesischen Bytedance-Tochter deshalb gravierende Mängel bei der Moderation vor. Bei Facebook waren es immerhin noch fünf von zwanzig Anzeigen. Selbst Anzeigen, die behaupteten, man müsse zweimal wählen gehen oder für die Wahl geimpft sein, schaltete das Netzwerk frei.
Im Gegensatz dazu schnitt YouTube in der Studie positiv ab. Die Alphabet-Tochter blockierte sämtliche Werbeanzeigen und schloss zudem den Kanal, der die Anzeigen schalten wollte. „Das Abschneiden von YouTube in unserem Experiment zeigt, dass es nicht unmöglich ist, schädliche Desinformation zur Wahl zu erkennen“, kommentiert Laura Edelson das Ergebnis. Edelson ist stellvertretende Leiterin der beteiligten Cybersecurity-for-Democracy-Forschungsgruppe von der New York University.
Nationale Unterschiede bei der Plattformmoderation
Die Resultate zeigen auch, dass die Plattformen je nach nationalem Kontext unterschiedlich agieren. In einer ähnlichen Studie, die vor einem Monat in Brasilien durchgeführt wurde, hatte YouTube noch alle Anzeigen mit Falschinformationen durchgewunken. Auch Facebooks Bemühungen weisen deutliche nationale Unterschiede auf: Sowohl wahlbezogene Anzeigen in Brasilien als auch Hatespeech in Myanmar, Äthiopien und Kenia winkte Facebook zu einhundert Prozent durch, während es die Anzeigen in den Vereinigten Staaten größtenteils blockierte.
Nachdem die Wissenschaftler:innen ihre Studienergebnisse veröffentlicht hatten, dankte TikTok für das „Feedback“, das dazu beitrage, „unsere Prozesse und Richtlinien kontinuierlich zu verbessern“. Facebook wies die Kritik hingegen zurück. Der Mutterkonzern Meta begründete das gegenüber den Wissenschaftler:innen mit der kleinen Stichprobe der von ihnen geschalteten Anzeigen. Die Überprüfung von Inhalten erfolge zudem in einem mehrstufigen Prozess und werde auch nach deren Veröffentlichung fortgesetzt.
Dessen ungeachtet sind die Wissenschaftler:innen eindeutig in ihrer Kritik: „Wie Facebook muss auch TikTok erkennen, dass der Schutz von Demokratie nicht optional ist: Er ist Teil der Geschäftskosten.“ Von allen drei Plattformen fordern die Forscher:innen umfassende Informationen dazu, wie diese Werbeanzeigen intern konkret moderierten. Wissenschaft und Öffentlichkeit seien auf Transparenz angewiesen. Nur so könnten sie die Plattformen auf Grundlage ihrer eigenen Standards auch zur Rechenschaft ziehen.
Politische Fake Werbung auf in den Social Medias ist doch nur die Spitze des Eisbergs. Auf Facebook sehe ich oft Anzeigen die dann auf Fake Webshops führen oder wo für irgendwelche Scams oder Fake Investments geworben wird…. Wenn man die dann meldet dann bekommt man die Meldung das die Anzeigen legal wären und den Nutzungsbedingungen entsprechen würden….
Man wird dem wohl erst beikommen können wenn man die Digital Konzerne zu 100% für die über die Werbenetzwerke verbreiteten Inhalte Haftbar macht und Opfer davon ein Recht auf vollen Schadensersatz zugestanden bekommen. Da muss endlich deutlich härter reguliert werden.