YouTube ist weltweit die zweitmeist besuchte Webseite und sein Empfehlungsalgorithmus bestimmt 70 Prozent der Zeit, welche Inhalte Nutzer*innen sehen. Während die Plattform für viele Menschen nicht aus ihrem Alltag wegzudenken ist, hat sie in den vergangenen Jahren vermehrt zur Verbreitung von Falschinformationen, Hass- und Hetzrede beigetragen. Eine nun veröffentlichte Studie von Mozilla zeigt auf, welche verheerenden Auswirkungen der Empfehlungsalgorithmus der Plattform auf seine Nutzer*innen hat. Die Studie ergab: Das Empfehlungssystem verletzt in den meisten Fällen nicht nur die eigenen Richtlinien, sondern spielt „verstörende und hasserfüllte“ Videos besonders häufig an nicht-englischsprachige Nutzer*innen aus.
Insgesamt haben Wissenschaftler*innen zwischen Juli 2020 und Mai 2021 über 3.000 sogenannter „Regret-Videos“ aus 91 Ländern gefunden. Mithilfe der eigens entwickelten Open-Source-Browsererweiterung „RegretsReporter“ hatte die Organisation Freiwillige weltweit aufgerufen, ihre negativen Erfahrungen mit der Plattform zu teilen. Mozilla analysierte die sogenannten „Regrets“ – bedenkliche Videos. Die Untersuchung sei die bisher größte Crowdsourced-Untersuchung des YouTube-Algorithmus. Auch jetzt können YouTube-Nutzer*innen weiter bedenkliche Inhalte melden.
Besonders betroffen: Nicht-englischsprachige Länder
Ein Großteil der „Regrets“ seien Fehlinformationen, gefolgt von gewalttätigen Inhalten und Falschinformationen, die mit der Covid-19-Pandemie in Verbindung stehen. Mozilla räumt ein, dass YouTube für die Inhalte nicht alleinig verantwortlich ist. Dennoch weisen die Ergebnisse daraufhin, dass der Empfehlungsalgorithmus des Unternehmens eine übergroße Rolle spiele. „Der Algorithmus steuert die Menschen zu diesen Inhalten, und wenn diese erst einmal ‚drin‘ sind, bietet er immer extremere Ideen an“, so Mozilla in seinem Bericht.
71 Prozent der als „bedauernswert“ gemeldeten Videos hat der Algorithmus YouTubes dabei selbst empfohlen. Der Widerspruch: Viele dieser Inhalte verletzen die eigenen Community-Richtlinien der Plattform, die unter anderem Spam, gewaltverherrlichende oder gefährliche Inhalte verbieten. Einige Inhalte habe YouTube laut Mozilla mittlerweile entfernt. Was bei den Ergebnissen besonders heraussticht, ist der Anteil unangemessener Video-Empfehlungen in nicht-englischsprachigen Ländern: Dieser war dort um 60 Prozent höher als in den Ländern, wo Englisch als Muttersprache gilt. Insgesamt hat Mozilla die meisten „Regrets“ in Brasilien, Deutschland und Frankreich gefunden.
Die Mozilla-Studie sieht auch darüber hinaus Bedenkliches am Empfehlungsalgorithmus. Viele der Inhalte fielen in die Kategorie „Borderline“-Inhalte , welche die YouTube-Richtlinien „umschiffen“, ohne sie zu verletzen. Mozilla weist darauf hin, dass diese Annahme nicht einfach überprüfbar sei, da YouTube selbst nicht offenlegt, wie sie grenzwertige Inhalte definieren und klassifizieren. Außerdem empfehle der Algorithmus auch nicht explizit bedenkenswerte Inhalte, die durch die Wirkungsweise des Empfehlungssystems jedoch besorgniserregende Folgen haben können. Die Huffington Post hatte vergangenes Jahr berichtet, dass der Algorithmus der Plattform pädophilen Täter*innen helfe, scheinbar harmlose Videos von Kindern zu finden, mit denen sie gewaltvolle Fantasien ausleben könnten.
Neben der allgemein hohen Diskrepanz zwischen den „Regrets“ englischsprachiger und nicht-englischsprachiger Länder fiel Mozilla auf, dass es außerdem in nicht-englischsprachigen Ländern deutlich mehr bedenkliche Videos mit Pandemie-Bezug gäbe. Erst im April kam die EU-Kommissionsvizepräsidentin Věra Jourová in einem inoffiziellen Gespräch mit Vertreter*innen von Facebook, Google, TikTok, Twitter und YouTube zusammen, um Maßnahmen gegen Desinformationen über Coronavirus-Impfstoffe auf den Plattformen zu bekämpfen.
In einem Dokument mit Gesprächsnotizen des Treffens, die auf Anfrage von netzpolitik.org öffentlich wurden, heißt es, EU-Kommissarin Jourová habe explizit die Dringlichkeit hervorgehoben, gegen entsprechende Falschinformationen in allen Mitgliedsstaaten und Sprachen vorzugehen. Auch ging es darum, wie man die Zusammenarbeit zwischen Behörden und Online-Plattformen verbessern könne, um Fehlinformationen besser zu entlarven und Informationen von Gesundheitsbehörden zu fördern.
„Kommerzielle Anreize gegen das Wohlergehen der Menschen“
Die Verantwortung YouTubes, dem Problem entgegenzuwirken, ist nach Ansicht von Mozilla hoch. Algorithmen müssten nicht nur vorhersagen, wie wahrscheinlich ein bestimmtes Video jemanden anspricht, sondern auch, wie wahrscheinlich dieses gegen Community-Richtlinien verstößt. „Das ist eine große Verantwortung, und eine, die kommerzielle Anreize gegen das Wohlergehen der Menschen ausspielen kann“, heißt es in dem Bericht.
Die Organisation betont, es gehe ihnen nicht lediglich um die Aufklärung der Problematik, sondern auch um das Finden möglicher Lösungsansätze. Brandi Geurkink, Managerin von Mozilla, erklärte: „Mozilla hofft, dass diese Erkenntnisse – die nur die Spitze des Eisbergs sind – die Öffentlichkeit und die Gesetzgebenden von der dringenden Notwendigkeit einer besseren Transparenz der KI von YouTube überzeugen werden.“
Kritiker*innen bemängeln schon seit einigen Jahren die Art und Weise wie YouTube Algorithmen einsetzt. Maßnahmen, mit denen YouTube 2019 Fortschritte in der Bekämpfung schädlicher Inhalte gemacht hatte, seien unzureichend. Deshalb schlägt Mozilla auf Basis seiner Studienergebnisse konkrete Empfehlungen vor – sowohl für die Plattform als auch für politische Interessensvertreter*innen und Nutzer*innen.
Ein YouTube Sprecher teilte netzpolitik.org mit, die Plattform habe im vergangenen Jahr über 30 Änderungen eingeführt, um Empfehlungen zu schädlichen Inhalten zu reduzieren. Laut YouTube gäbe es außerdem seit diesem Jahr eine sogenannte „Violative View Rate“ (VVR), die den Prozentsatz der Aufrufe auf YouTube offenlegt, der von Inhalten stammt, die gegen die eigenen Richtlinien verstoßen.
Update vom 9. Juli 2021: Die Aussagen von YouTube wurden nach Veröffentlichung des Artikels hinzugefügt.
Ich bin erstaunt, dass Mozilla nun als Aufgabe sieht YT zu zensieren. Ich habe die Studie kurz angeschaut und frage mich was die „verheerenden“ Auswirlugen denn sein sollen?
In der Studie werden einige Beispiele genannt. Ich habe mir ein Video angeschaut, das als „A volunteer was recommended a video called “Blacks in Power Don’t Empower Blacks” which features offensive and racist language and ideas.“ beschrieben wird.
Das ist ein Video das 3,5Mio betrachtet wurde und einen extrem hohen Anteil positiver Bewertungen hat und von dem (schwarzen) Wallstreet Journal Autor Jason L. Riley ist. Der hat vielleicht eine andere Sichtweise als viele Aktivisten, aber eine rassistische Sprache und Ideen?
Wenn dieses Video Anstoß erregt und als bedenklich deklariert wird, dann ist das eher ein Zeichen einer Vorstellung von Meinungshoheit, die nach unseren bisherigen Verständnis von Meinungsfreiheit nicht vereinabr ist.
Warum diese Studie also einer Netzpolitisch guten Sache dienen soll erschliest sich mir zuminest nicht. Das wirkt eher wie eine Begrüdnung für mehr Einschränkungen.
Volle Zustimmung!
Ein so großes öffentliches Medium wie YT hat nicht das Recht die Meinungsfreiheit mit ihren Nutzungsrichtlinien zu unterdrücken. Für Hassrede, Gewalt und Verfassungsdelikte ist die Polizei bzw. der Verfassungsschutz zuständig und nicht YT.