USA, Brasilien, KeniaSo reagiert Facebook auf politische Wahlen

Eine Woche vor den Zwischenwahlen in den USA pausiert Meta politische Werbung. Der Konzern sieht sich gerüstet für den Umgang mit Falschinformationen im Umfeld von Wahlen – aber NGOs sehen das anders.

Smartphone mit US-Karte, Aufteilung der Staaten nach der führenden Partei, Republikaner, Demokraten
Facebook spielt eine entscheidende Rolle für die Verbreitung von Falschinformationen vor Wahlen (Symbolbild) – Gemeinfrei-ähnlich freigegeben durch unsplash.com Clay Banks

Facebook-Mutter Meta bereitet sich auf kommende Wahlen vor. Auf der eigenen Website erklärt der Konzern, man richte für die Woche vor den Zwischenwahlen in den USA am 8. November eine Blackout-Periode für politische Werbung ein. Das bedeutet, Werbetreibende können während dieser Zeit auf Facebook keine Werbung zu sozialen Themen, Wirtschaft oder Politik in den USA schalten. Lediglich bereits veröffentlichte Werbung werde angezeigt.

Diese Strategie hat der Konzern schon einmal gewählt, bei den US-Wahlen in 2020. Damals wie heute begründet Meta diesen Schritt damit, dass unmittelbar vor einer Wahl nicht genug Zeit sei, sich mit den in Werbung enthaltenen Aussagen angemessen auseinanderzusetzen. So beschreibt es Nick Clegg, der bei Meta für globale Angelegenheiten zuständig ist. Das bedeutet,  in der aufgeheizten Zeit vor der Wahl  sei es schwieriger, Werbung oder Posts mit falschen Angaben herauszufiltern, etwa einen falschen Wahltermin oder falsche Angaben dazu, wer wählen darf.

USA: Lehren aus dem Sturm aufs Kapitol

Auch Werbung mit falschen Angaben zum Wahlergebnis will Meta verbieten. Einen Einfluss auf diese Entscheidung dürfte auch der 6. Januar 2021 gehabt haben, als Anhänger:innen von Donald Trump das US-Kapitol stürmten. Am Tag der offiziellen Bestätigung von Joe Bidens Wahlsieg durch den Kongress hatten sich mehrere bewaffnete Trump-Anhänger:innen Zutritt zum Regierungsgebäude verschafft. In den sozialen Netzwerken hatte sich zuvor die Nachricht verbreitet, die Demokrat:innen hätten die Wahl manipuliert. Fünf Menschen starben.

Meta erklärt in seinem Transparenz-Zentrum, dass „Fehlinformationen entfernt werden, wenn sie wahrscheinlich direkt zur Gefahr von Gewalt bzw. Körperverletzung beitragen“. Das Unternehmen setze mehrere Gruppen von Faktenchecker:innen ein, um Aussagen zu prüfen. Werbetreibende, die wiederholt „als falsch eingestufte Informationen verbreiten“, müssten unter Umständen mit Einschränkungen rechnen.

Kenia: Facebook ließ problematische Anzeigen zu

Die Rolle von Facebook im Umfeld von Wahlen ist nicht nur in den USA ein Thema. Auch in Kenia wurde eine Auszeit für politische Werbung gefordert, und zwar von den Menschenrechtsorganisationen Global Witness und Foxglobe sowie der Facebook-Whistleblowerin Frances Haugen. Facebook sei demnach nicht in der Lage, Falschinformationen und Hassrede ausfindig zu machen. In Kenia gab es Anfang August Präsidentschaftswahlen.

In einem Experiment hatten die Organisationen gezeigt, wie Facebook trotz Kontrollmechanismen problematische Online-Werbung zuließ. Die NGOs hatten das selbst getestet und posteten 20 bezahlte Werbeanzeigen mit Hassrede, wie etwa dem Aufruf zu Gewalttaten an ethnischen Minderheiten. Nach Facebooks Gemeinschaftsrichtlinien ist das verboten. Trotzdem habe die Plattform alle Test-Anzeigen freigeschaltet.

Brasilien: „Schutz der Demokratie nicht bloß eine Option“

Auch für die bevorstehenden Wahlen in Brasilien stellt Global Witness dem Konzern kein gutes Zeugnis aus. In einem Blogpost erklärt Meta, wie es sich auf die Wahlen vorbereitet. Der Konzern arbeite mit brasilianischen Behörden zusammen. Die Anzeigen würden für sieben Jahre in der Werbebibliothek gespeichert, erfasst würden ferner Informationen über die Werbetreibenden.

Zum Einsatz komme auch eine KI, die Meta zufolge erfolgreich Fake-Accounts aufspüre. Sie könne bis zu 99,7 Prozent der Accounts löschen. Menschliche Moderator:innen müssten nur einen kleinen Teil an potentiellen Fake-Accounts begutachten.

Global Witness hat auch in Brasilien Werbeanzeigen zum Wahlkampf mit Falschinformationen versehen. Facebook habe alle zehn durchgewunken. In ihrem Bericht hält die NGO fest, Facebooks Bemühungen gegen Falschinformationen seien ineffektiv. Meta müsse anerkennen, dass der Schutz der Demokratie nicht bloß eine Option sei, sondern vielmehr notwendiger Teil jeder Geschäftstätigkeit, heißt es weiter.

Myanmar: Facebooks Rolle beim Völkermord an den Rohingya

Facebooks Umgang mit Falschinformationen auf der eigenen Plattform hat eine lange Vorgeschichte. Ein wichtiges Ereignis war etwa der Völkermord an den Rohingya in Myanmar. Der Fall erhielt im Jahr 2018 Aufmerksamkeit vom Human Rights Council der Vereinten Nationen. In einem über 400 Seiten starken Dokument hat eine Kommission unabhängiger Faktenchecker:innen ausgeführt, welche Rolle Facebook dabei gespielt hat.

Demnach habe Facebook Aufrufe zu Gewalt an den Rohingya nicht nur zugelassen – das Unternehmen habe auch zu wenig Moderator:innen mit den notwendigen Sprachkenntnissen beschäftigt, wodurch sich Hassrede und Falschinformationen ungehindert verbreiten konnten. Das Kriegsverbrechen an der muslimischen Minderheit hatte laut UN-Bericht 10.000 Tote zur Folge.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

7 Ergänzungen

  1. Kleine Korrektur zum 2. Abschnitt:
    Der 6. Januar, an dem der Sturm aufs Kapitol stattfand, ist nicht der Tag der Amtsübergabe. An ihm werden durch den Kongress die Stimmen der Wahlleute gezählt und das Ergebnis offiziell bestimmt.

  2. Sehr alarmierender Artikel mit bekannten Fakten. Zeigt aber, dass die Mechanismen und Werte des Kapitalismus (Geld verdienen) vor Demokratischen Werten (Bürger schützen, unabhängig informieren) steht.

    Das Bewusstsein über diese Mechanismen sollten allen Menschen transparent vor Augen geführt werden! Danke für solche Artikel der Aufklärung.

    1. Im Kapitalismus stehen Geld, Machtanhäufung und Ausbeutung der Arbeitenden IMMER vor dem Wohle der Menschen.

      Und wenn der Kapitalismus sich zu einem Superkapitalismus gewandelt hat (seit ca 2000), wird der Kapitalismus zwangsläufig irgendwann anfangen zu bröckeln.

      Dies tut er bereits seit ein paar Jahren, und wenn der Kapitalismus zerfällt, dann klopft der Faschismus an die Tür.

      Nun – seit mehr als 6 Jahren sind Nazis wieder wählbar in Deutschland, sind wieder salonfähig mit all deren widerlichen Ideologien… und es ist nicht nur in Deutschland so.
      Trump war auch nur ein Spiegelbild der heutigen Gesellschaft.

  3. The move comes after Twitter and Facebook shut down misleading accounts that they determined were sending messages to promote U.S. foreign policy.
    https://www.nytimes.com/2022/09/19/us/politics/pentagon-social-media.html

    A report in August by Stanford University’s Internet Observatory and the social media analytics firm Graphika said those accounts were pushing pro-American messages in the Middle East and Central Asia. The two groups attributed some of the accounts taken down by Facebook and Twitter to the Trans-Regional Web Initiative, a more than 10-year-old Pentagon initiative that sends out information in support of the United States in areas where the U.S. military operates.
    https://cyber.fsi.stanford.edu/io/news/sio-aug-22-takedowns

  4. >> das Unternehmen habe auch zu wenig Moderator:innen mit den notwendigen Sprachkenntnissen beschäftigt, wodurch sich Hassrede und Falschinformationen ungehindert verbreiten konnten. <<

    “Our plan is to steadily reduce headcount growth over the next year. Many teams are going to shrink so we can shift energy to other areas, and I wanted to give our leaders the ability to decide within their teams where to double down, where to backfill attrition, and where to restructure teams while minimizing thrash to the long term initiatives,” Zuckerberg said during a conference call with analysts (2022-09-29).

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.