Online-RadikalisierungYouTube-Algorithmus wohl harmloser als gedacht

US-Forscher:innen haben untersucht, ob automatische Empfehlungen auf YouTube Nutzer:innen radikalisieren. Die weit verbreitete These ließ sich wissenschaftlich nicht bestätigen. Radikalisierung passiert auf YouTube dennoch – aber anders.

Eine US-Studie konnte dem Empfehlungssystem von Youtube nicht nachweisen, Nutzer:innen in ein „Rabbit Hole“ zu führen. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Victor Larracuente

Das sagenumwobene YouTube-Empfehlungssystem, das ganze Heerschaaren von Nutzer:innen radikalisieren soll, spielt womöglich eine nur untergeordnete Rolle. Laut einer aktuellen Studie lässt sich derzeit kein sogenannter Rabbit-Hole-Effekt nachweisen, der Nutzer:innen zunehmend extreme Videos vorschlägt und sie in eine Radikalisierungsfalle lockt. Der Vergleich mit dem Kaninchenbau stammt aus dem Kinderbuch „Alice im Wunderland“. Die Protagonistin folgt darin einem weißen Kaninchen und stürzt durch dessen Bau in eine andere Welt.

Der Rabbit-Hole-Effekt hatte in den vergangenen Jahren immer wieder Nachrichtenmedien und Forscher:innen beschäftigt. Er war Thema von TED-Vorträgen, aufwändig recherchierten Podcasts und dem AlgoTransparency-Projekt des ehemaligen YouTube-Entwicklers Guillaume Chaslot. Auf die anhaltende Kritik reagierte YouTube schließlich 2019 mit der Ankündigung, sein Empfehlungssystem zu überarbeiten und dabei strenger gegen grenzwertige Inhalte wie 9/11-Verschwörungserzählungen oder angebliche Wunderheilmittel vorzugehen.

Was an dem Effekt damals wirklich dran war, lässt sich aus heutiger Sicht schwer sagen. Es gibt Hinweise, dass er nicht ganz an den Haaren herbeigezogen war, mit empirischem Datenmaterial wurde er jedoch nicht unterfüttert. Zudem passt YouTube seinen Algorithmus regelmäßig an, ohne sich dabei in die Karten schauen zu lassen.

Direkte Links problematischer als Empfehlungen

Die kürzlich veröffentlichte Studie gewährt nun zumindest einen Einblick in die gegenwärtige Lage. Demnach konsumieren Nutzer:innen extremistische Videos zumeist, weil sie dem entsprechenden YouTube-Kanal direkt folgen oder auf externe Links klicken. Überwiegend würden Videos von „alternativen und extremistischen Kanälen“ von einer kleinen Minderheit von Menschen angeschaut. Bei ihnen habe sich schon zuvor ein frauenfeindliches und rassistisches Weltbild verfestigt. Und nur selten ließe sich beobachten, dass YouTube solche Kanäle anderen Nutzer:innen empfiehlt.

Erstellt hat die Studie ein Forscher:innen-Team aus mehreren US-Universitäten, darunter Stanford und Dartmouth. Der Fokus lag naturgemäß auf US-amerikanischen Nutzer:innen und Inhalten. Die Schlussfolgerungen dürften sich aber bis zu einem gewissen Grad auf andere Regionen übertragen lassen. Demnach ist Radikalisierung auf YouTube wohl eher ein Problem der Nachfrage von Menschen, die solche Inhalte sehen wollen – auf algorithmische Empfehlungen lässt sie sich weniger zurückführen.

Zu diesem Schluss gelangte bereits 2018 die Datenforscherin Becca Lewis. Sie hat eine qualitative Untersuchung zu rechten Influencer:innen-Netzwerken erstellt. Eine entscheidende Rolle spielen demnach vor allem die Community rund um gut vernetzte YouTube-Persönlichkeiten und sogenannte „parasoziale Beziehungen“. Das Gefühl von vermeintlicher Authentizität, Nähe und Vertrauen mache Teile des Publikums anfällig für reaktionäres Gedankengut. Der Weg dahin könne zwar sehr wohl über die Empfehlungsalgorithmen von YouTube führen, sei aber nur eine Möglichkeit von vielen. Mehrere Folgestudien scheinen diese Sicht zu stützen.

Expert:innen spüren für YouTube grenzwertige Videos auf

Die Änderung am Empfehlungssystem vor drei Jahren habe sich jedenfalls bemerkbar gemacht, sagt eine YouTube-Sprecherin zu netzpolitik.org. Seitdem würden Nutzer:innen deutlich weniger lange grenzwertige Videos von Kanälen schauen, die sie nicht abonniert haben. Diese Dauer sei um 70 Prozent zurückgegangen. „Heute liegt der Konsum von grenzwertigen Inhalten, der aus Empfehlungen stammt, bei signifikant unter einem Prozent“, sagt die Sprecherin.

Das bedeutet: Die allermeisten YouTube-Empfehlungen seien nicht grenzwertig. Mit „grenzwertig“ sind Videos gemeint, die zwar keine illegalen Inhalte verbreiten und auch mit den Gemeinschaftsregeln von YouTube vereinbar sind, aber dennoch nicht unbedingt empfehlenswert sind.

Um solche Videos aufzuspüren, unterhält der Videodienst ein globales Netzwerk an Expert:innen aus verschiedenen Disziplinen. Anhand eines Leitfadens bewerten sie eine Teilmenge an Videos. Ihre Bewertungen fließen in Machine-Learning-Systeme ein, die dann weitere Videos automatisiert einstufen. Bis zu neun Meinungen von Expert:innen hole YouTube pro Video ein, sagt die Sprecherin. Generell achte der Dienst in den letzten Jahren vermehrt auf Qualität und empfehle autoritative Quellen. Dies sei „harte“ und „kontinuierliche Arbeit“, die viel Nuance erfordere, so die Sprecherin.

Aus der Verantwortung entlässt das YouTube aber freilich nicht. Der weltgrößte Videodienst bietet eine einfach nutzbare Infrastruktur an, über die sich ein Millionenpublikum erreichen und gegebenenfalls monetarisieren lässt – notfalls ganz ohne Empfehlungen. In gewisser Hinsicht könnte dies sogar noch besorgniserregender sein, heißt es in der Studie: Direkte Links auf einzelne Videos und die Möglichkeit, extremistische Kanälen zu abonnieren, würden Nutzer:innen dabei helfen, mehr solcher Inhalte zu konsumieren.

Mehr Forschung notwendig

Trotz der inzwischen schärferen Moderations- und Empfehlungspraxis von YouTube finden sich weiterhin unzählige hetzerische und desinformative Videos auf dem Dienst. Und oft genug sind sie ausgesprochen beliebt: So kamen etwa in einer Untersuchung mehrerer Landesmedienanstalten die drei populärsten desinformativen Videos auf insgesamt rund zehn Millionen Aufrufe, obwohl sie YouTube kaum empfohlen hatte. Grundlage der Studie war eine Stichprobe aus Videos zu den Themen Covid-19-Pandemie, Klimakrise und Migration.

Auch diese aus dem Vorjahr stammende Studie, die sich auf nicht-personalisierte Empfehlungen konzentriert hatte, konnte dem YouTube-Algorithmus kein Abdriften in immer extremere Inhalte nachweisen. Einig sind sich die Forscher:innen jedoch darin: Wer sich auf die Suche nach einschlägigen Inhalten macht, wird sie auf dem Videodienst auch finden. Und YouTube mache es solchen Nutzer:innen leicht, in ihrer weltanschaulichen Blase zu bleiben.

Was diese Mechanismen mit Nutzer:innen auf einer individuellen und kollektiven Ebene machen, bleibt jedoch unklar, schreiben die Autor:innen der neuen US-Studie. Dazu sei mehr unabhängige Forschung notwendig – und vor allem auch solche, die nicht auf Browser-Plugins oder ein „Reverse Engineering“ der Algorithmen zurückgreifen muss. Das dürfte bald möglich sein: So schreibt das EU-Gesetz für digitale Dienste, auf das sich die EU kürzlich verständigt hat, endlich den Zugang für Forscher:innen fest.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

4 Ergänzungen

  1. Ob diese Manipulationen harmlos sind zweifle ich an, wenn sich einer Videos über Latexbekleidung ansieht, so führen diese Manipulationen dazu das der USER zu andern Themen gedrängt wird, interessanterweise oft genug dann zu militärischen und kriegsverherrlichten Material, was an Perversität ja wohl kaum noch zu überbieten ist. Die gezielte Manipulation das Krieg und Gewalt gesellschaftlich wünschenswerter ist als Erotik.

    Bei Latexbekleidung mag das noch relativ harmlos sein, wenn das bei Themen wie LGBTIQ der Fall ist, dann ist das meines Erachtens bereits eine Fall mit dem sich das Strafrecht und die Gerichte beschäftigen sollten.

    Die Probe bei YouTube gemacht, der sechste (sic!) Vorschlag war „Was passiert, wenn eine Atombombe deine Stadt trifft?“… Kein einziger Vorschlag war ein weiterführendes Video zu LGBTIQ! Bei Latexbekleidung war der sechste Vorschlag im übrigen „Hitler und die Apostel des Bösen“

    Bei AN602 ist diese Art der Manipulation wesentlich schwächer, es gibt genügend passende Vorschläge, womit ich den Vorwurf mach das YouTube ein Kriegstreiber und Gewaltverherrlichung ist, und das ganze dazu ohne jegliche FSK18 Einschränkung!

    Selbstredend das beim dritten Aufruf „An602“ kein einziger Vorschlag war zu Latexbekleidung und LGBTIQ,, das hat mich gefälligst ja mich zu interessieren.

  2. Gedanken, weil faul:
    – Welche Sicht hatten die Forscher auf die Daten?
    – Wurden Tools zum Targeting mit einbezogen?
    – Wurde nur die eingeloggte Welt betrachtet?
    – Wie wurde verhindert, dass die Forschenden als solche getrackt werden?
    – Wie differenziert man, wann solches als Waffe eingesetzt wird, und wann nicht? [Als „plumpe“ Fortsetzung.]

    Ich glaube auch, dass Links auf Inhalte zu verteilen, eine größere Rolle spielt, mit Absolution wäre ich hier allerdings sehr vorsichtig. Tatsächlich ist die Einschränkung der Sicht, die nicht gegebene Transparenz, sowie letztlich die allgemeine Waffenfähigkeit, gesellschaftlich betrachtet vermutlich das um Größenordnungen wichtigere Problem.

    1. Gedanke ist eher „harmloser als gedacht“… bzgl. Sofortradikalisierung? Allgemeine Harmlosigkeit kann nicht angenommen werden, immerhin muss man annehmen, dass schon massenhafte Manipulation vorliegt. Und das nicht nur wegen der Natur von Auswahlalgorithmen.

      1. Man kann mit Sicherheit sagen, dass intransparente Unternehmen, die Nutzern personalisierte Inhalte hinhalten, alles andere als Harmlos sind, im Sinner von Gefahrenklassen.

        Wäre sowas harmlos, hatten bereits vor der Zeit der Big Tech sowas wie Werbung, Kampagnen, Tratsch u.ä. allgemein als harmlos einzustuft werden können, was spätestens bei Gegenüberstellung des damaligen Wissensstandes der Tabak- und Ölindustrie zu deren Handeln im Werbe- und Kampagnenbereich als geklärt gelten dürfte. Zumindest bei Werbung ist der Inhalt sogar transparent, wenn auch nicht jedem jederzeit für alle Orte der Welt einsehbar, trotzdem sind die Effekte problematisch. Z.B. kaufen viele Menschen schlechte Produkte, weil sie nur die aus der Werbung kennen, und das soll nicht mal im reinen Kapitalismus passieren, zumindest gemäß den Standardapologien für solchen.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.