BundestagswahlkampfSind die Plattformen gegen Manipulation gewappnet?

Manche verbieten politische Werbung, andere setzen zumindest vorerst noch auf Faktenchecks. Wir vergleichen, wie Meta, YouTube, TikTok und X zwischen freiwilligen Regeln und geltendem Recht navigieren. Während die meisten zumindest ihren guten Willen betonen, fällt eine Plattform vollkommen aus Reihe.

Menschen die Smartphones in der Hand halten
Smartphones sind Schauplatz auch für schmutzigen Wahlkampf (Symbolbild) – Gemeinfrei-ähnlich freigegeben durch unsplash.com Camilo Jimenez

Zahlreiche Meldungen aus den vergangenen Wochen haben Zweifel daran genährt, ob Social-Media-Unternehmen im Bundestagswahlkampf beim Schutz vor Desinformation und anderen Formen der Manipulation ihren Pflichten nachkommen. Wir haben bei Facebook, Instagram, TikTok, YouTube und X um Auskunft gebeten – die Antworten waren teils dünn.

Nach einem Kniefall vor Trump und einer Kehrtwende in der Inhaltsmoderation sieht sich Meta mit Vorwürfen konfrontiert, Hashtags zu progressiven Themen zu zensieren. Google kündigte an, einen Abschnitt des Code of Conduct der EU gegen Desinformation abzulehnen und keine Faktenchecks einzuführen. TikTok steht im Verdacht, zu wenig gegen eine von Russland orchestrierte Influencer-Kampagne bei der Präsidentschaftswahl in Rumänien unternommen zu haben. Und dann ist da noch Twitter-Nachfolger X, dessen Besitzer Elon Musk die Plattform aktiv nutzt, um Wahlwerbung für die AfD zu machen.

Schon bei den Präsidentschaftswahlen in den USA zeigten TikTok, Google, Meta und X erhebliche Defizite, Desinformation und Diffamierungen entgegenzutreten. So konnten beispielsweise Organisationen aus dem Umfeld der republikanischen Partei im großen Stil Werbung schalten, die sich als Harris-Werbung ausgab und mit grob verfälschten Inhalten Stimmung gegen die demokratische Kandidatin machten.

Russische Einflusskampagnen aufgedeckt

Zu befürchten ist, dass auch in Deutschland der Online-Wahlkampf noch dreckiger werden wird. Schon heute häufen sich die Berichte über Manipulationskampagnen, die vor allem Russland zugeschrieben werden. Man muss dafür nicht auf X schauen, inzwischen haben die Sockenpuppen auch Alternativen wie Bluesky für sich entdeckt: In einer aktuellen Welle setzten die Fake-Accounts offenbar eher auf Masse statt Qualität, kommentieren zusammenhanglos russlandfreundliche Positionen unter Posts von Journalist:innen und anderen.

Jüngst entdeckte das Investigativ-Medium Correctiv rund 100 gefakte Nachrichtenwebsites. Dahinter soll die russische Initiative „Storm-1516“ stehen, die auch schon im US-Wahlkampf mitgemischt hatte. Seiten mit Namen wie „Andere Meinung“ oder „Wochenüberblick aus Berlin“ verbreiten demnach erfundene Geschichten über die Gigolo-Affäre einer Ministerin der Grünen oder über die Agententätigkeit eines liberalen Bundestagsabgeordneten für Russland.

Schon seit 2022 bekannt ist die sogenannte Doppelgänger-Kampagne, bei der unter anderem mit täuschend echten Kopien seriöser Nachrichtenmedien gearbeitet wird, die falsche Informationen verbreiten. Auch diese Kampagne wird Russland zugeschrieben; die EU und die USA setzten deshalb mehrere russische Unternehmen auf Sanktionslisten.

Wahlkampf, mit Betonung auf Kampf

Doch wer beim Thema Desinformation nur auf ausländische Akteure zeigt, blendet einen wichtigen Teil der Manipulationsgefahr aus, die nicht etwa aus dem Ausland kommen, sondern von rechts außen. Die Videoplattform TikTok etwa informierte bereits im Februar und September 2024 darüber, dass sie Netzwerke gefakter Accounts hochgenommen habe, die AfD-Inhalte verstärkten.

Correctiv dokumentiert, wie die AfD mit Falschbehauptungen über die Steuerpläne der CDU Wahlkampf in Sozialen Medien macht. In einem weiteren Fall, den die DLF-Journalistin Ann-Kathrin Büüsker entdeckte, schaltete ein AfD-Politiker Werbung auf Google, die auf den ersten Blick wie Werbung der FDP zum Drei-Königs-Treffen aussah. In Wahrheit führte der Link zu einer Schmähseite gegen die FDP.

Unfreiwillige Einblicke in den Maschinenraum ihres Online-Wahlkampfs gewährte jüngst auch die Wagenknecht-Partei BSW. In einem offiziellen Telegram-Kanal für Supporter:innen teilten einige Unterstützer:innen selbst erstellte Wahlkampf-Videos. In einem der Videos werden die Grünen als „militaristische, faschistoide Heuchler“ verunglimpft, in einem anderen EU-Kommissionspräsidentin Ursula von der Leyen (CDU) und der ukrainische Präsident Wolodymyr Selenskyj als Atom-Zombies diffamiert. Die Partei bestätigte dem Spiegel gegenüber die Echtheit des Materials, betonte jedoch, dass verletzende Kampagnenvorschläge von Unterstützer:innen nicht angenommen würden.

Auch einige der Parteien, die bis zum 29. Januar als „Parteien der Mitte“ bezeichnet wurden, erliegen immer mehr der Versuchung des Populismus. Man denke an die fortwährende Anti-Grünen-Kampagne der CSU, das Agieren der CDU beim Thema Wärmepumpen oder die Selbst-Inszenierung der FDP als angebliche Opfer zum Ende der Koalition. Auch wenn sie es nicht so gemeint haben will, hat die FDP mit ihrer „offenen Feldschlacht“ den Ton für diese Wahlkampf gesetzt – die Betonung liegt auf Kampf.

Regeln zu politischer Online-Werbung greifen noch nicht

Wie groß die Auswirkungen von Desinformation und Diffamierungen auf die Wahlentscheidung von Bürger:innen tatsächlich sind, ist bis heute umstritten. Unbestritten ist jedoch ihr Effekt auf den Diskurs und das politische Klima. Russische Kampagnen etwa zielen oft weniger darauf ab, bestimmte Parteien zu fördern, als insgesamt Verunsicherung zu stiften, das Vertrauen in Institutionen der Demokratie zu stören und die Stimmung weiter zu polarisieren.

Nach Einschätzung der EU-Kommission gilt für die Bundestagswahl ein mittleres Risiko der Manipulation im Wahlkampf, sagte ein hochrangiger EU-Beamter kürzlich in einem Hintergrundgespräch der EU-Kommission. Bei der Medienkompetenz liege Deutschland europaweit nur im Mittelfeld. Außerdem würden hierzulande immer mehr Menschen Informationen vor allem aus den Sozialen Medien beziehen. Einer Studie der OECD zufolge erhöht dies die Anfälligkeit für Desinformation.

Zumindest für einen Teil des Problems hat die EU eigentlich vorgesorgt. Seit März 2024 hat sie EU erstmalig explizite Regeln für Wahlwerbung im Netz. Sie sollen Wahlkämpfe vor Manipulation à la Cambridge Analytica zu schützen. Unter anderem werden Online-Plattformen und Parteien zu mehr Transparenz über die Finanzierung und das Targeting politischer Online-Anzeigen verpflichtet.

Allerdings gelten die meisten Regeln der Verordnung erst ab Oktober 2025. Auf Wunsch der Bundesregierung war die Übergangsfrist mit eineinhalb Jahren plus 20 Tagen genau so lange gestaltet worden, dass die Regeln selbst erst nach dem regulären Wahltermin im September gegolten hätten. Da fällt es kaum noch ins Gewicht, dass die deutsche Umsetzung der EU-Vorgaben aufgrund des vorzeitigen Ampel-Endes noch nicht verabschiedet wurde.

Auch vom Datenschutz gibt es zu politischem Targeting bislang keine greifbaren Ergebnisse. Ein Appell der Berliner Datenschutzbeauftragten an die Parteien, beim EU-Wahlkampf 2024 auf zielgerichtete Werbung zu verzichten, verhallte folgenlos. Ein von Datenschutzaktivist Max Schrems und der Nichtregierungsorganisation noyb angestrengtes Verfahren, das die Behörde in dieser Sache gegen die Parteien führt, ist noch nicht abgeschlossen.

Bewährungsprobe für das Gesetz über digitale Dienste

Bleibt also das Gesetz über digitale Dienste (Digital Services Act, DSA), der erhoffte große Wurf Europas zum Schutz der digitalen Öffentlichkeit und zur Bändigung der Plattformen. Er schreibt zum Beispiel vor, dass Plattformen Meldewege für illegale Inhalte haben und einen wirksamen „Notice-and-Action“-Mechanismus vorhalten müssen. Besonders große Plattform mit mehr als 45 Millionen Nutzer:innen der EU – dazu gehören Facebook, Instagram, TikTok, YouTube und X – sind verpflichtet, systemische Risiken zu analysieren und Abhilfe zu schaffen.

Die EU-Kommission hat in ihrer Aufsichtsfunktion bereits mehrere Untersuchungen gegen Plattformen eingeleitet, vor allem gegen X. Zuletzt hatte es Befürchtungen gegeben, dass sie unter dem Druck der neuen US-Regierung einknicken und die Verfahren im Sande verlaufen lassen könnte. Diesem Eindruck tritt die Kommission jedoch entgegen.

In einem Hintergrundgespräch betonten hochrangige Kommissionsbeamte kürzlich, dass der DSA keine konkreten Maßnahmen wie Inhaltsmoderation oder Faktenchecks vorschreibe. Wie die Plattformen die Risiken bekämpfen, sei im Wesentlichen ihnen überlassen. Wichtig sei lediglich, dass die Maßnahmen effektiv sind.

Tatsächlich wird gerade das Problem der Desinformation im DSA nicht direkt adressiert. Vielmehr knüpft die Verordnung bei illegalen Inhalten an, was aus rechtsstaatlicher Sicht richtig ist. Desinformation allerdings ist in vielen Fällen nicht verboten und die EU will unbedingt den Eindruck vermeiden, dass sie mit dem Gesetz unliebsame Inhalte zensieren will. Der DSA setzt bei Desinformation deshalb auf Selbstregulierung der Plattformen und macht den Unternehmen vor allem Vorgaben zur Transparenz über ihre Regeln und Mechanismen.

X antwortet nicht

Also haben wir bei den großen Plattformen nachgefragt, wie sie den Wahlkampf vor unlauterer Manipulation schützen wollen und welche Regeln sie sich selbst geben. Während TikTok (Bytedance) auf einen Katalog mit sechs Fragen ausführlich antwortete und dabei einige Fragen ausließ, YouTube (Google) immerhin Versatzstücke von Standardantworten in englischer Sprache schickte und Instagram und Facebook (Meta) wenigstens noch mit einem Link auf einen Blogpost antworteten, reagierte die Pressestelle von X (Elon Musk) trotz erneuter Nachfrage überhaupt nicht.

Gemeinsam haben alle Plattformen, die uns geantwortet haben, dass sie ihre Anstrengungen zum Schutz des Bundestagswahlkampfes und gerade im Kampf gegen verdeckte Kampagnen und Fake-Accounts betonen. Regelmäßig informieren die Unternehmen über mutmaßlich politisch motivierte Account-Netzwerke, die sie offline nehmen. Auch bei realistisch wirkenden KI-generierten Inhalten liegen die Unternehmen auf einer Linie; diese müssten gekennzeichnet werden.

Darüber hinaus betonen sie den engen Austausch zwischen Behörden und Unternehmen. Erst am 24. Januar kamen mehrere Social-Media-Unternehmen, darunter Meta, Google, TikTok und X, bei einem Runden Tisch der Bundesnetzagentur zusammen, die in Deutschland die Aufsicht über digitale Dienste nach dem DSA koordiniert. Außerdem führte die Bundesnetzagentur nach eigenen Angaben einen „Stresstest“ mit den genannten Unternehmen durch, um deren Schutzmaßnahmen und Abläufe für den Wahlkampf zu prüfen. Das teile die Bundesnetzagentur in einer Pressemitteilung mit, die sich allerdings über die Ergebnisse des Tests ausschweigt.

TikTok hat Probleme mit politischer Werbung

TikTok betont in der Antwort auf unsere Anfrage, dass man Nutzer:innen eine Anlaufstelle in der App für vertrauenswürdige Informationen rund um die Wahl zur Verfügung stelle. „Hier erfahren Nutzer*innen, wie Bundesbürger*innen wählen können, den Umgang mit Falschinformationen und welche Regeln für Kandidierende gelten.“ Die Infoseite enthalte unter anderem Links zur Website und zum TikTok-Account der Bundeswahlleiterin. Wahlbezogene Videos und Live-Videos sowie Suchanfragen würden zudem als solche gekennzeichnet und mit einem Link zu der Wahlinformationsseite versehen.

„Gefährliche Fehlinformationen über Wahlen, Kandidat*innen und Wahlergebnisse“ seien zudem untersagt. Auch von Politiker:innen und Medien würden solche Inhalte entfernt.

Politische Werbeanzeigen sind auf TikTok ohnehin verboten, auch wenn das Unternehmen in der Vergangenheit Probleme hatte, diese Regel durchzusetzen. Auch heute findet man selbst bei sporadischer Überprüfung des Werbe-Archivs der Plattform recht schnell Anzeigen, die augenscheinlich politisch sind. So etwa die Anzeige eines Männlichkeits-Influencers, die gegen Robert Habeck Stimmung macht und mit dem Hashtag #afd versehen ist. Sie wurde laut Archiv allerdings nur „0“ bis 1.000 Nutzer:innen gezeigt.

Manche Lügen über Wahlen sind auf YouTube erlaubt

YouTube betont, Nutzer:innen den Zugriff auf hochqualitative Nachrichten zu ermöglichen, während es sicherstelle, dass „alle Standpunkte repräsentiert sind“. Mit Bezug auf Wahlen teilt das Unternehmen mit, dass Kennzeichnungen zu KI-generierten Inhalten bei politischen Inhalten besonders prominent platziert werden könnten.

Für Kritik sorgt seit längerem, dass YouTubes Guidelines zu wahlbezogener Misinformation nur bestimmte Aussagen verbieten. Dazu zählen solche, die Wähler:innen über den Zeitpunkt oder den Ablauf von Wahlen irreführen sollen, die andere Menschen dazu aufrufen, Wahlprozesse aktiv zu behindern oder die zu physischer Gewalt gegen Wahlpersonal oder Kandidat:innen aufrufen. In den USA führt diese sehr eng gefasste Policy dazu, dass widerlegte Verschwörungsmythen rund um die angeblich manipulierte Präsidentschaftswahl von 2020 auf der Plattform grassieren.

Eine Ankündigung von November 2024, aus Protest gegen die EU-Regeln zu politischer Werbung vorerst gar keine politische Werbung mehr zu erlauben, setzt Google bisher offenbar nicht um. Auf Antwort auf unsere Anfrage betont das Unternehmen lediglich seine Transparenzvorgaben zu politischer Werbung. So werde diese als solche gekennzeichnet und in einer Transparenzdatenbank zugänglich gemacht. Das Targeting politischer Werbung schränkt Google zudem schon seit einigen Jahren auf wenige Kategorien ein: Geschlecht, Alter und Standort.

Meta hält zumindest vorerst an Facktenchecks fest

Meta betont in einen Blogpost, wie bei vorangegangen Bundestagswahlen ein „Elections Operations Center“ einrichten zu wollen, „dem unternehmensweite Expert*innen aus den Bereichen Intelligence, Data Science, Engineering, Research, Operations, Content Policy, Public Policy und Legal zusammenarbeiten werden, um potenzielle Bedrohungen zu identifizieren und spezifische Eindämmungsmaßnahmen in unseren Apps und Technologien in Echtzeit umzusetzen.“

Man arbeitete zum Beispiel daran, Gefahren durch KI-generierte Inhalte und Deepfakes zu bekämpfen. Allerdings hätten zumindest die zahlreichen Wahlen im Jahr 2024 gezeigt, dass sich Befürchtungen bei dem Thema bislang nicht erfüllt hätten.

Mit Blick auf politische Werbung verweist auch Meta auf die seit Jahren praktizierte Kennzeichnungspflicht und rühmt sich seiner „branchenführenden Transparenz-Tools“. Tatsächlich hatte die NGO Civil Liberties Union vor Europe kürzlich in einer Bilanz zu den EU-Wahlen festgehalten, dass Metas Werbe-Archiv dem von Google in Sachen Funktionalität und Benutzerfreundlichkeit überlegen ist. Gleichwohl lassen beide Archive die wichtigste Information weiterhin vermissen: Welche Targeting-Kriterien die Werbetreibenden ausgewählt haben, um ihre Zielgruppen zusammenzustellen. Meta betont, keine Werbeanzeigen zuzulassen, die widerlegte Inhalte enthalten oder Menschen davon abhalten sollen, zu Wahl zu gehen.

Meta betont zudem, dass die jüngste Ankündigung von Mark Zuckerberg, auf ein System von Community Notes anstelle von professionellen Faktenchecks umzusteigen, sich nicht auf die deutsche Wahl auswirken werde, „Wir werden weiterhin mit den lokalen, unabhängigen Fact-Checking-Organisationen AFP, Correctiv und dpa-Faktencheck zusammenarbeiten, um virale Fehlinformationen in Deutschland zu entlarven.“ Gravierende Arten von Fehlinformationen würde man entfernen, so zum Beispiel Inhalte, die zu drohender Gewalt oder körperlichen Schäden beitragen könnten oder die darauf abzielen, Wahlen zu unterdrücken.

Musk wirbt für die AfD

Bleibt das von Elon Musk zur rechten Propagandamaschine umgebaute X. Seit seiner Übernahme von Twitter hat der Milliardär Accounts zurück auf die Plattformen geholt, die wegen Regelverstößen gesperrt waren. Er hat die Inhaltsmoderation auf ein Minimum heruntergefahren. Er hat Faktenchecks abgeschafft und durch sogenannte Community Notes ersetzt. Er hat politische Werbung auf der Plattform wieder eingeführt, ohne ein funktionierendes Anzeigen-Archiv zu installieren.

Ob und inwieweit Musk auch die technischen Systeme beeinflusst hat, die über die Reichweite von Inhalten auf X entscheiden, ist noch immer Gegenstand von Spekulation. Laut einer Analyse der Washington Post haben zumindest in den USA Akteur:innen der republikanischen Partei deutlich mehr Reichweite auf der Plattform als Demokrat:innen.

Laut Medienberichten soll Musk mindestens seinem eigenen Account zu mehr Reichweite auf der Plattform verholfen habe – und nutzt diese offen für politische Einflussnahme. Zuletzt hatte er sich mit dem Account auch direkt in den Wahlkampf in Deutschland eingemischt und Wahlwerbung für die AfD betrieben. Im Gegensatz zu den anderen erwähnten Plattformen ließ X unsere Presseanfrage unbeantwortet.

0 Ergänzungen

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Bitte keine reinen Meinungsbeiträge! Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.