YouTube-Algorithmen halfen Verschwörungsvideo zu Florida-Amoklauf bei der Verbreitung

Seit dem Amoklauf am 14. Februar protestieren Schüler in mehreren Bundesstaaten für schärfere Waffengesetze. CC-BY-SA 2.0 Lorie Shaull

Nach dem Amoklauf in einer Schule in Florida, bei dem 17 Menschen erschossen wurden, wird in den Vereinigten Staaten erneut über die Waffengesetzgebung diskutiert. Im Zuge dessen sind auf YouTube zahlreiche Videos aufgetaucht, die einem der überlebenden Schüler unterstellen, ein bezahlter Schauspieler zu sein. Als Begründung gab es jedoch nur einen älteren Clip, auf dem der Schüler im Gespräch mit Journalisten zu sehen ist. Mindestens eines der Verschwörungsvideos tauchte als erster Vorschlag in den Nachrichten-Trends der Videoplattform auf. Das half dem Video dabei, sich viral zu verbreiten.

Die Nachrichtenseite Futurezone schreibt:

Durch seine Beliebtheit bei den Usern landete es in der „Trending“-Section von YouTube und erfuhr so noch einmal weitere Verbreitung. Auch auf Facebook wurde das Video von zahlreichen Nutzern geteilt und daher tauchte es auch dort in der „Trending News“-Section auf. Sowohl YouTube als auch Facebook haben es mittlerweile vollständig von ihren Plattformen entfernt.

„Business Insider“ hat bei YouTube nachgefragt und wollte wissen, wie dieses Video überhaupt im „News“-Bereich landen konnte. Laut einem YouTube-Vertreter lag das daran, dass das Video Teile eines offiziellen News-Clips beinhaltet hatte, das als „verlässliche Nachrichtenquelle“ abgespeichert war.

„Das Video hätte niemals in der Trending-Section landen dürfen, unser System hat es falsch eingeordnet. Als wir den Fehler bemerkt haben, wurde es entfernt, weil es gegen unsere Richtlinien verstößt. Wir arbeiten daran, unser System weiter zu verbessern“, heißt es zudem. YouTube will seine Algorithmen jetzt so einstellen, dass Videos, die offizielle News-Quellen beinhalten, nicht automatisch unter den beliebten Videos landen können.

Anfang Februar hatte der Guardian in Zusammenarbeit mit einem ehemaligen YouTube-Angestellten versucht, die Software, die Nutzerinnen und Nutzer der Plattform Video-Empfehlungen zuspielt, zu analysieren. Sie waren unter anderem zu dem Ergebnis gekommen, dass der Youtube-Algorithmus die Verbreitung von Verschwörungstheorie-Videos aktiv befördert.

3 Ergänzungen

  1. Hmmm… gegen welche Richtlinien soll das Video denn verstossen haben, wie youtube behauptet? Zitat-Recht sollte ja wohl noch gelten. Wurde auch der gesamte Nachrichtenbeitrag, in welchem das Video Teil von war, gelöscht? Wenn ja mit welcher Begründung. Da wäre es doch mal wert nachzuhaken.
    Denn heute ist es ein angebliches VT Video und morgen eines gegen die GroKo.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.