Bezahlter Hass im NetzYoutube zeigte Werbung für rechtsextremen Mythos vom „Bevölkerungsaustausch“ an

Youtube blendete Anzeigen des Kopp-Verlags für ein Buch über die rechtsextreme Erzählung des „Bevölkerungsaustausches“ neben Videos zur Black-Lives-Matter-Bewegung ein. Inzwischen hat die Videoplattform die Anzeigen entfernt. Das Problem dahinter besteht jedoch weiter.

Verschwörungsmythen gegen Bezahlung auf Youtube
Eine bezahlte Anzeige des Kopp-Verlags bewirbt ein rechtsextremes Buch, das einen „Bevölkerungsaustausch“ heraufbeschwört – neben einer Debatte im US-Senat, die ein Anti-Lynching-Gesetz zum Thema hatte. – Screenshot: netzpolitik.org

In den USA wird hitzig über systemischen Rassismus und Polizeigewalt debattiert. Ausgerechnet neben der Berichterstattung großer US-TV-Sender rund um die „Black Lives Matter“-Bewegung tauchten auf Youtube zuletzt Anzeigen des deutschen Kopp-Verlags auf. Der Verlag ist seit langem für rechte und Verschwörungsinhalte bekannt. Die Anzeigen bewarben ein Buch, dessen Titel kaum einschlägiger sein könnte: „Bevölkerungsaustausch in Europa“.

Google, Youtube-Schwester und weltgrößtes digitales Werbenetzwerk, entfernte die Anzeigen, nachdem wir das Unternehmen darauf aufmerksam gemacht haben. „Wir haben strenge Werberichtlinien, die aufzeigen, welche Arten von Anzeigen auf unseren Plattformen, einschließlich YouTube, erlaubt sind“, teilte eine Sprecherin netzpolitik.org mit.

Die Richtlinien verbieten ausdrücklich Sprache, die Hass, Intoleranz oder Diskriminierung von Einzelpersonen oder Gruppen fördert. „In diesem Fall hat die Anzeige gegen unsere Richtlinien verstoßen“, sagte die Sprecherin.

Offen bleibt, ob der Verlag weitere Anzeigen für sein Sortiment über Google geschaltet hat und ob diese Anzeigen ebenfalls gegen die Richtlinien verstoßen haben. Fragen dazu wollte Google nicht beantworten. Der Kopp-Verlag hat auf unsere Anfrage nicht reagiert.

Verlag für Verschwörungsmythen

Neben rechtsextremen Verschwörungserzählungen vertreibt der Verlag etwa Bücher wie „5G: Die geheime Gefahr“, in dem wissenschaftlich nicht belegte Thesen vor einer „Verminderung der Gedächtnisleistung“ und anderen angeblichen Nebenwirkungen von Mobilfunk warnen. Ein anderes Buch will „Unbequeme Fakten & verschwiegene Hintergründe über Regierungsversagen, Staatskontrolle & Verschwörungstheorien“ im Zusammenhang mit der Corona-Pandemie liefern.

Harmlos ist das nicht, die Folgen können verheerend sein. „Der Kopp Verlag ist eine Herausforderung für eine offene Demokratie, weil er die Grundsäulen dessen infrage stellt, worauf eine aufgeklärte Gesellschaft beruht“, sagte der Jenaer Rechtsextremismus-Forscher Matthias Quent dem SWR. „Die Wissenschaft, die Fakten, die Sachorientierung. All das zählt nicht.“

Im auf Youtube beworbenen „Bevölkerungsaustausch in Europa“ verbreitet ein ehemaliger österreichischer Bundesheeroffizier den in rechtsextremen Kreisen verbreiteten Verschwörungsmythos einer angeblichen „Umvolkung“. Sie sei initiiert worden, heißt es in der Beschreibung des Verlags, um die „ethnische und kulturelle Zusammensetzung der Bevölkerung in Europa zu verändern“. Diese pauschale Dämonisierung ganzer Menschengruppen und die Erzählung einer lenkenden Macht im Hintergrund ist gefährlich.

Laut Hans Rauscher enthält das Buch keine Überraschungen: „Der Titel ist ein Klassiker aller rechtsextremen Schlüsselbegriffe von den Identitären bis zum ‚Manifest‘ des Attentäters von Christchurch“, schreibt der österreichische Kolumnist. „In der Einleitung ist auch schon von einem ‚Vernichtungskrieg gegen die Völker Europas‘ die Rede. George Soros hat ein ganzes Kapitel.“

Weit verbreitete These

Hilfsorganisationen wie HateAid, die Hass im Internet bekämpfen, kennen solche Thesen zur Genüge. „Der Verschwörungsmythos des Bevölkerungsaustausches ist recht verbreitet und begegnet uns bei unserer Arbeit häufig, gerade bei Hassangriffen aus dem rechten und rechtsextremen Spektrum“, sagt die Geschäftsführerin Anna-Lena von Hodenberg. „Dies liegt wohl auch daran, dass sie auch von hochrangigen AfD-Funktionären wie zum Beispiel Alexander Gauland verbreitet wird“.

Anzeige über "Flüchtlingsflut" auf Youtube
Warum Youtube eine Anzeige über „Die Flüchtlingsflut“ einblendet, bleibt unklar. Außer „The video you’re watching“ gibt es keine weiteren Hinweise. - Screenshot: netzpolitik.org

Warum die Anzeigen just neben Youtube-Videos über Polizeigewalt und Anti-Lynching-Initiativen erschienen, bleibt unklar. Angezeigt wurden sie in diesem Fall in mehreren Browsern zu unterschiedlichen Uhrzeiten – und immer neben Videos rund um die aktuelle „Black Lives Matter“-Debatte. Neben Videos über andere Inhalte tauchten sie in unseren Stichproben Ende letzter Woche nicht auf. Youtube wollte sich zu den Targeting-Kriterien der Anzeigen nicht öffentlich äußern.

Mit Hilfe von Targeting gezielt ausgespielte Anzeigen bergen das Potenzial, um Menschengruppen aufeinander zu hetzen. „Dies wissen wir spätestens seit den gezielten Targeting-Kampagnen durch Cambridge Analytica auf Facebook“, sagt von Hodenberg.

Intransparente, automatisierte Werbesysteme

Laut Tracking-Forscher Wolfie Christl spielen manuell erstellte Targeting-Kriterien mittlerweile eine zunehmend geringere Rolle. Anbieter wie Google oder Facebook setzen auf Maschinelles Lernen und lassen oft Algorithmen darüber entscheiden, wo und wem bestimmte Werbeinhalte eingeblendet werden.

„Vielleicht wissen Google und Facebook nicht einmal selbst, warum so eine Anzeige ausgerechnet neben ganz bestimmten Videos erscheint“, sagt Christl. Es sei denkbar, dass Akteure wie der Kopp-Verlag das Werbesystem Googles „gamen“ und die Anzeigen bewusst dort zu platzieren versuchen, wo sie potenziell am meisten Schaden anrichten können.

Genausogut sei jedoch möglich, dass Kopp lediglich Kampagnen-Ziele vorgab – zum Beispiel „möglichst viele Buchverkäufe“ – und der Algorithmus von Google nach einer Lernphase selbstständig darüber entschied, wo die Anzeigen besonders effektiv wirkten.

Seit Jahren mehren sich die Rufe nach mehr Transparenz in diesem Ökosystem. Erst heute hat die EU-Kommission eine – unverbindliche – Mitteilung veröffentlicht, die sich gegen die Verbreitung von Desinformation und Falschmeldungen auf Online-Plattformen richtet.

In eine ähnliche Kerbe schlägt Christl, möchte aber noch weiter gehen. „Mega-Plattformen müssen die gesetzten Einstellungen und Datengrundlagen für das Targeting von Werbung und andere Arten der bezahlten Personalisierung endlich vollständig transparent machen“, fordert der Tracking-Experte. „Und wir müssen dringend über politische und rechtliche Maßnahmen nachdenken, die über Datenschutz hinausgehen“.

Google trägt Mitverantwortung

Unerklärlich bleibt dennoch, warum milliardenschwere Konzerne wie Google offenbar keine Sicherungsmechanismen eingebaut haben, um einschlägige Anzeigen schon im Vorfeld zu unterbinden. Spätestens nach dem Terroranschlag von Christchurch, bei dem ein Rechtsextremer 51 Menschen ermordete, fast ebenso viele teils schwer verletzte und dies unter anderem mit dem „Bevölkerungsaustausch“ begründete, sollte klar sein, welche tödlichen Konsequenzen das Narrativ haben kann.

In vielen Fällen kann die Radikalisierung schleichend beginnen. „Die gezielten Anzeigen schüren oder verstärken rassistisches Denken und zwar unterbewusst“, sagt von Hodenberg von HateAid. „Denn wir wissen aus soziologischen Studien, dass, wenn bestimmte Botschaften nur oft genug wiederholt werden, sie von unserem Gehirn unterbewusst als Tatsachen wahrgenommen werden“.

Von Hodenberg glaubt, dass es nicht zu verantworten ist, diese Inhalte – zumindest ungekennzeichnet – weiterzuverbreiten. „Google muss sich deswegen endlich offen der Frage stellen, ob der Konzern aber gleichzeitig mit Werbeanzeigen mit rassistischen Inhalten auch noch Geld verdienen will. Das passt nicht zusammen, und wer sich aktiv dafür entscheidet, hat auch eine Mitverantwortung an dem, was diese Inhalte gegebenenfalls auslösen“.

8 Ergänzungen

  1. Die zunehmende Vermengung von Verschwörungstheorien mit Rechtsextremismus macht mir durchaus sorgen. Da verschmelzen gerade sozusagen zwei Millieus welche sich in der Ablehnung einer freien und offenen Gesellschaft einig sind.

    An Geld mangelt es denen zudem nicht, da ist ja geradezu eine richtige Verschwörungsindustrie entstanden welche diesen Content quasi kommerziell erfindet und unters Volk bringt. Finanziert durch Youtube Werbung und Buchverkäufe usw. Die Rechte bzw. Verschwörungstheorethikerszene dürfte somit deutlich besser finanziert sein als jene welche dagegen ankämpfen.

    Gerade diese kommerziellen Einnahmen muss man diesen Leuten entziehen damit es sich nicht mehr lohnt die Demokratie weiter durch Fake Behauptungen zu beschädigen.

  2. Falls das Kampagnenziel von Kopp „maximale Aufmerksamkeit“ war, dann scheint das ja sehr gut funktioniert zu haben, und selbst Netzpolitik.org hat dazu beigetragen die Aufmerksamkeit zu vergrößern.

    Das Problem ist nicht der Auftrag von Kopp an Google, sondern Googles Fähigkeit, beliebige Ziele seiner Auftraggeber zu erreichen.

    @Antifaschistischer Politik Nerd: da verschmilzt und vermengt sich nichts. Rechte wie Linke bedienen sich schon immer Verschwörungserzählungen. Von Michael Blume gibt es dazu eine hörenswerte Podcastreihe https://scilogs.spektrum.de/natur-des-glaubens/verschwoerungsfragen-9-adolf-hitler-als-rothschild-verschwoerer-der-libertaere-antisemitismus/

    1. Ich glaube und hoffe, der Artikel macht hinreichend klar, dass es um mehr geht als nur um eine Anzeige oder einen Verlag, sondern um ein kaputtes und intransparentes Werbesystem. Darüber zu berichten kann schon mal eine Gratwanderung sein, aber ohne öffentlichen Druck scheinen sich Unternehmen wie Google nur wenig zu bewegen.

      Und ohne in Abrede stellen zu wollen, dass es auch „linke“ Antisemiten und Aluhutträger gibt, der Link stützt die These nicht, außer man sieht Libertäre als Linke.

      1. Nach welchen Kriterien soll das Werbesystem kaputt sein? Gewinn von Google? Zufriedenheit der Auftraggeber? M.E. funktioniert das genau so, wie es soll.

        Der Artikel widmet den Verschwörungserzählungen zu viel Raum, als dass man erkennen könnte, dass nicht die einzelnen Verschwörungserzähler das Problem sind, sondern die auf Aufmerksamkeitsmaximierung basierenden Geschäftsmodelle von Google & Co. M.E. sind es die Algorithmen dieser Geschäftsmodelle, die dafür sorgen, dass solche Inhalte die öffentliche Wahrnehmung dominieren. Das beginnt schon lange vor den bezahlten Inhalten. Man schaue einfach nur mal, welche Aufmerksamkeit YT, FB, Twitter etc. bekannten Verschwörungserzählern verschaffen.

  3. Google & co werden ihr System nicht ändern, es sei denn die Konsumenten schliessen sich zusammen und drohen mit Nichtnutzung. Doch dies wird nicht geschehen, da wir mittlerweile zu sehr an die Plattformen gewöhnt und wohl auch abhängig davon sind. Und es ist schwierig zu organisieren.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.