YouTube-Algorithmen halfen Verschwörungsvideo zu Florida-Amoklauf bei der Verbreitung

Seit dem Amoklauf am 14. Februar protestieren Schüler in mehreren Bundesstaaten für schärfere Waffengesetze. CC-BY-SA 2.0 Lorie Shaull

Nach dem Amoklauf in einer Schule in Florida, bei dem 17 Menschen erschossen wurden, wird in den Vereinigten Staaten erneut über die Waffengesetzgebung diskutiert. Im Zuge dessen sind auf YouTube zahlreiche Videos aufgetaucht, die einem der überlebenden Schüler unterstellen, ein bezahlter Schauspieler zu sein. Als Begründung gab es jedoch nur einen älteren Clip, auf dem der Schüler im Gespräch mit Journalisten zu sehen ist. Mindestens eines der Verschwörungsvideos tauchte als erster Vorschlag in den Nachrichten-Trends der Videoplattform auf. Das half dem Video dabei, sich viral zu verbreiten.

Die Nachrichtenseite Futurezone schreibt:

Durch seine Beliebtheit bei den Usern landete es in der „Trending“-Section von YouTube und erfuhr so noch einmal weitere Verbreitung. Auch auf Facebook wurde das Video von zahlreichen Nutzern geteilt und daher tauchte es auch dort in der „Trending News“-Section auf. Sowohl YouTube als auch Facebook haben es mittlerweile vollständig von ihren Plattformen entfernt.

„Business Insider“ hat bei YouTube nachgefragt und wollte wissen, wie dieses Video überhaupt im „News“-Bereich landen konnte. Laut einem YouTube-Vertreter lag das daran, dass das Video Teile eines offiziellen News-Clips beinhaltet hatte, das als „verlässliche Nachrichtenquelle“ abgespeichert war.

„Das Video hätte niemals in der Trending-Section landen dürfen, unser System hat es falsch eingeordnet. Als wir den Fehler bemerkt haben, wurde es entfernt, weil es gegen unsere Richtlinien verstößt. Wir arbeiten daran, unser System weiter zu verbessern“, heißt es zudem. YouTube will seine Algorithmen jetzt so einstellen, dass Videos, die offizielle News-Quellen beinhalten, nicht automatisch unter den beliebten Videos landen können.

Anfang Februar hatte der Guardian in Zusammenarbeit mit einem ehemaligen YouTube-Angestellten versucht, die Software, die Nutzerinnen und Nutzer der Plattform Video-Empfehlungen zuspielt, zu analysieren. Sie waren unter anderem zu dem Ergebnis gekommen, dass der Youtube-Algorithmus die Verbreitung von Verschwörungstheorie-Videos aktiv befördert.

Mehr Zeit für kritische Berichterstattung

Ihr kennt es: Zum Jahresende stehen wir traditionell vor einer sehr großen Finanzierungslücke und auch wenn die Planung und Umsetzung unseres Spendenendspurts viel Spaß macht, bindet es doch sehr viele Ressourcen; Ressourcen, die an anderer Stelle für unsere wichtige Arbeit fehlen. Um Euch also weniger mit Spendenaufrufen auf die Nerven zu gehen und mehr Recherchen und Hintergründe bieten zu können, brauchen wir Eure regelmäßige Unterstützung.

Jährlich eine Stunde netzpolitik.org finanzieren

Das Jahr hat 8.760 Stunden. Das sind 8.760 Stunden freier Zugang zu kritischer Berichterstattung und wichtigen Fragestellungen rund um Internet, Gesellschaft und Politik bei netzpolitik.org.

Werde Teil unserer Unterstützungs-Community und finanziere jährlich eine von 8.760 Stunden netzpolitik.org oder eben fünf Minuten im Monat.

Jetzt spenden


Jetzt spenden

3 Ergänzungen

  1. Hmmm… gegen welche Richtlinien soll das Video denn verstossen haben, wie youtube behauptet? Zitat-Recht sollte ja wohl noch gelten. Wurde auch der gesamte Nachrichtenbeitrag, in welchem das Video Teil von war, gelöscht? Wenn ja mit welcher Begründung. Da wäre es doch mal wert nachzuhaken.
    Denn heute ist es ein angebliches VT Video und morgen eines gegen die GroKo.

Ergänzung an Walter Sobchak Ergänzung abbrechen

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Bitte keine reinen Meinungsbeiträge! Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.