Die Videoplattform Youtube hat in seinem Blog angekündigt, dass sie Inhalte strikter kontrollieren will. Hierzu hat das zu Google gehörende Unternehmen nach eigener Aussage den Einsatz von künstlicher Intelligenz bei der Moderation der Inhalte schon hochgefahren. Es will die Anzahl der mit Moderation bei Google befassten Personen auf mehr als 10.000 steigern.
Seit Juni hätten menschliche Moderatoren fast zwei Millionen Videos auf der Suche nach „extremistischen Inhalten“ angesehen und dabei die Algorithmen trainiert. In den letzten Wochen habe Youtube dann 150.000 Videos gelöscht sowie Hunderte Accounts und Hunderttausende Kommentare entfernt. Die Unterstützung durch Methoden des Machine Learning ermögliche, dass die Moderatoren fast fünfmal mehr Videos entfernen würden als früher. 98 Prozent aller Videos, die wegen „gewalttätigem Extremismus“ gelöscht würden, hätte der Algorithmus markiert. Dies helfe dem Unternehmen, siebzig Prozent dieser Inhalte innerhalb von acht Stunden nach dem Upload zu löschen, die Hälfte davon schon innerhalb von zwei Stunden. Die eingesetzte künstliche Intelligenz ersetzt nach Aussage von Youtube die Arbeitskraft von 180.000 menschlichen Moderatoren.
Plattformen wie Youtube und Facebook stehen zunehmend im staatlichen Fokus. Die Kritik richtet sich unter anderem gegen die Verbreitung von Fake News, den Umgang mit Hassrede oder maschinell erstellten Videos, welche Kinder verstören könnten. Ein Kernpunkt staatlichen Interesses ist zudem die Bekämpfung von terroristischen Inhalten. So arbeiten die Plattformen in partnerschaftlichen Initiativen wie dem EU Internet Forum oder dem Global Internet Forum mit staatlichen Stellen zusammen. Staatliche Institutionen wie die bei Europol angesiedelte Meldestelle EU IRI nutzen die Community-Richtlinien der Unternehmen, um völlig intransparent Inhalte löschen zu lassen.
In Deutschland sind soziale Netzwerke zudem durch das umstrittene Netzwerkdurchsetzungsgesetz ab Januar verpflichtet, „offensichtlich rechtswidrige Inhalte“ innerhalb von 24 Stunden zu löschen. Die jetzige Initiative von Youtube kann man auch als eine Art vorauseilenden Gehorsam deuten, um eine weitere staatliche Regulierung in anderen Ländern zu vermeiden.
Fehlende Transparenz und fehlbare Algorithmen
In der Ankündigung des Unternehmens heißt es, dass Youtube in Sachen Löschungen und Content-Moderation transparenter werden und einen regelmäßigen Bericht veröffentlichen will. Konkrete Details folgen dem aber nicht. Offen ist insbesondere die Frage, ob die Nutzer darüber informiert werden, dass eine Maschine ihren Inhalt gelöscht hat, und die Frage, wie sich Nutzerinnen und Nutzer gegen die Entscheidungen wehren können. Auch wenn Youtube sagt, dass menschliche Entscheidungen „essenziell“ blieben, bleibt offen, ob es in Zukunft auch alleinige Entscheidungen der Maschinen geben wird. Unklar ist auch, was Youtube genau als „gewalttätigen Extremismus“ und „extremistische Inhalte“ definiert. Amerikanische Bürgerrechtler hatten deswegen schon im vergangenen gefordert, dass die Plattformen verbindliche Standards einhalten, wenn sie löschen. Zu diesen Forderungen zählen Transparenz und Konsistenz der Löschung sowie die Möglichkeit zu einem ordentlichen rechtlichen Verfahren.
Bei der Löschaktion seit Juni waren Tausende Videos verschwunden, die Kriegsverbrechen in Syrien dokumentierten. Darüber berichteten im August mehrere Organisationen, die sich mit der Aufarbeitung von Kriegsverbrechen befassen. Auch wenn Youtube diese Videos nach Protesten wiederherstellte, macht die zunehmende Löschfreudigkeit deutlich, dass es unabhängige Strukturen mit eigenem Hosting braucht, um nicht der Lösch-Willkür der Plattformen zum Opfer zu fallen.
Im Falle der Kriegsverbrechervideos steht mit SyrianArchive.org glücklicherweise ein von Plattformen unabhängiges Archiv zur Verfügung. Ein Sprecher des Projektes bestätigte gegenüber netzpolitik.org, dass man mehr als 300.000 Videos aus etwa 400 Youtube-Kanälen gespeichert habe. Die Videos sind in einer Datenbank abrufbar und werden nach festen Kriterien verifiziert.
Youtube war in den letzten Tagen auch in Deutschland mit umstrittenen Sperrungen und Beschränkungen gegen Inhalte aufgefallen. So sperrte das Unternehmen vorübergehend den Account des Künstlerkollektivs Zentrum für politische Schönheit (ZPS) und beschränkte später ein Video der Gruppe.
Ruf nach Alternativen
Solche Vorkommnisse werfen Fragen auf, wie Entscheidungen bei Youtube getroffen werden. Sie zeigen, dass sich nur diejenigen effektiv wehren können, die eine mediale Öffentlichkeit gegen Löschaktionen des Unternehmens herstellen können. Ein Sprecher des ZPS wundert sich, wie die Löschentscheidungen zustandekommen. Er vermutet, dass „100 Nazis ausreichen, die ein Video melden, damit die privatisierte Zensurmaschine anläuft.“ Gegenüber netzpolitik.org kündigt die Gruppe an, dass sie in Zukunft Videos selbst hosten will. „Dann entscheiden Gerichte nach Gesetzen über unsere Inhalte und nicht irgendwelche Algorithmen und Moderatoren nach intransparenten Regeln, gegen die man sich nicht wehren kann.“
Die Dominanz der Videoplattformen wird nicht leicht zu brechen sein, da Video-Hosting komplex und datenintensiv ist. Sowohl die Speicherung der Videos als auch der Transfer zum Nutzer benötigen viele Ressourcen. Quelloffene Alternativen wie MediaGoblin fristen daher leider noch ein Nischendasein.
Und wieder mal keine wirkliche Kritik von Netzpolitik[sic] an den Zensurmaasnahmen.
Nur oberflächliche Erklärerei mit verständnissvollem Unterton. Schließlich sind es ja noch die Richtigen, die gegen die bösen Falschen Meinungen schießen.
Na wer erinnert sich noch an die Empörung in den hiesigen Medien als China mit Google Facebook & Co. im Clinch lag. Nein was waren die Chinesen damals böse Unmenschen. Heute exakt die gleiche Scheiße hier und niemanden interessierts, ist ja schließlich für die gute Noble Sache und der Zweck heiligt die Mittel.
Was der Regierung nicht genehm ist = extremistisch(Was soll es auch anders sein mit mittigen Parteien in der Endlosregierung?!) und muss gelöscht werden.
Und ja es ist Zensur, weil die privaten Plattformen defacto den relevanten öffentlichen Raum im Netz ausmachen und die Regierung_en diese Firmen drängen bzw. erpressen nach ihrem Gusto zu löschen damit sie weiterhin geschäfte im Land machen dürfen.
Bei Putin und Erdogan hat es damals genau so angefangen. Erst waren es die bösen Terroristen von der PKK und plötzlich war Jeder unabhängige Journalist ein Terrorist. In Russland das gleiche mit Tschetschenen und „Ausländischen NGOs“.
Wenn die Türe zur Zensur ert ein mal offen steht dann wird sie auch genutzt. Heute vielleicht nicht gegen Euch Gutmenschen, noch könnt ihr lachen, aber morgen schon könnte es anders aussehen, dann geht es nicht mehr gegen böse rechte Hasskommentare, (die in in den meisten Fällen in einem Rechtsstaat in einem ordentlichen Gerichtsverfahren wohl kaum zensiert würden) sondern dann seid ihr es.
Wie schnell sowas geht, hat man ja nun schon in den USA oder Brexit gesehen, dann ist die Heulerei wieder groß wenn die ach so guten Maasnahmen gegen die bösen Hassmenschen plötzlich gegen Euch gerichtet werden.
Als Merkels Sozis die Hasskommentatoren holten, habe ich geschwiegen; ich war ja kein Hasskommentator.
Als sie die Reichsbürger einsperrten, habe ich geschwiegen; ich war ja kein Reichsbürger.
Als sie die linksunten dicht machten, habe ich geschwiegen; ich war ja keiner von linksunten.
Als sie mich holten, gab es keinen mehr, der protestieren konnte.
Es ist schon eine Frechheit, wenn nicht gar völlig unverschämt, ein antifaschistisches Zitat von Martin Niemöller so umzudichten, dass es in ein tiefrechtes Weltbild passt, in dem es als Zensur empfunden wird, wenn Hasskommentare gelöscht werden sollen! Und wenn es „morgen schon […] anders aussehen“ könnte, dass „es nicht mehr gegen böse rechte Hasskommentare, (die in in den meisten Fällen in einem Rechtsstaat in einem ordentlichen Gerichtsverfahren wohl kaum zensiert würden)“, was stark zu bezweifeln ist, „sondern dann seid ihr es“, dann ist die von Ihnen unterstützte Partei an der Macht und tut genau das, wogegen Sie sich hier aufregen, nämlich zensieren. Was nicht nur Gott verhüten möge!
@Raphael Lauert: Ich finde den Vorwurf absurd, dass wir hier keine Stellung gegen Zensur beziehen. Netzpolitik berichtet beständig und kritisch zu allen Fragen, welche die Meinungsfreiheit hierzulande und anderswo betreffen. Ein Blick in die Artikel zeigt das: https://netzpolitik.org/tag/zensur/
Was wir aber nicht machen, sind Verallgemeinerung, unzulässige Vergleiche und rechte Panikmache. Die Situation ist nämlich komplexer als in Ihrer „Maasmännchen“-Logik, da es sich bei Youtube um einen privaten Konzern handelt. Nun kann man sich streiten, was man mit marktdominanten privaten Konzernen macht und ob man sie so reguliert, dass sie als „öffentlich“ angesehen werden. Ob man ihnen Transparenzpflichten auferlegt und den Nutzern den Rechtsweg eröffnet. Bis dahin ist die rechtliche Lage so, dass Youtube machen kann, was es will.
Mal ganz abgesehen davon, zeigen Sie mit ihrer „Gutmenschen“-Wortwahl welch Geistes Kind Sie sind. Das macht ihr verhunztes Niemöller-Zitat besonders ungenießbar.
In letzter Zeit hört man ja öfters mal Rufe nach Youtube-Alternativen, weil man sich von der Willkür Googles losreisen möchte. Und das ist auch irgendwie verständlich, vorallem weil man immer mehr den Eindruck bekommt, das Google tatsächlich immer weniger kritische Inhalte erlaubt, oder diese zumindest öfters „demonetarisiert“. Da fallen mir Videos von einem amerikanischen Channel namens „Joe Goes“ ein, der teilweise auf lustige, aber auch umstrittene Art Interviews mit Menschen führt, die er auf der Straße trifft. Dort werden oft auch kontroverse Themen angesprochen. Und ich kann verstehen, dass dies auch auf den Ein- oder Anderen verstörend wirken kann und dass Youtube diese Videos als nicht „familienfreundlich“ (oder so ähnlich ?) einstuft.. Dennoch denke ich, dass die Freiheit kontroverse Themen anzusprechen durchaus im Vordergrund stehen sollte um alternative Sicht- und Denkweisen zu ermöglichen. Das ist wichtig für unsere freie Gesellschaft. Der Schluss daraus wäre womöglich auch, dass Videos politischer Extreme und derer Menschen, die hinter diversen Ereignissen Verschwörungen vermuten, zugelassen werden. Ich denke, dies ist dann halt zu akzeptieren, auch wenn ich solche Videos nicht für gut halte, sollte man diese nicht verbieten.
Lange Rede kurzer Sinn, wäre es sinnvoll eine alternative Platform zu nutzen, oder seine Videos auf seiner eigenen Homepage up-zu-loaden? Schwer zu sagen, ich denke, gut dabei wäre, dass man (relativ frei) selber entscheiden kann, welche Inhalte man zur Verfügung stellt und welche nicht. Dennoch, lässt man Kommentare zu, muss man damit rechnen, dass die Kommentare im Zweifel auch moderiert werden müssen. Ob für die Moderation Kapazitäten da sind, wage ich mal zu bezweifeln. Dazu kommt, dass fast jeder die Youtube-App (oder alternative Youtube-Clients) auf seinem Smartphone hat und somit zentral alle Videos gesammelt und organisiert werden können. Das ist sehr komfortabel, verglichen damit, dass man, sollte jeder seinen Channel auf seiner eigenen Homepage hosten, verschiedene Websites hintereinander ansurfen muss…
Vielleicht wäre eine Open-Source-Lösung nicht schlecht, die Zugriff auf verschiedene Plattformen ermöglicht und man dann beispielsweise Channels von Youtube, privaten Websiten und anderen Quellen zentral verwalten kann. Die App crawlt sich dann immer die neuesten Videos aus den verschiedenen angegebenen Quellen.. So haben die Uploader freie Hand beim Upload ihrer Inhalte und die User müssen keine zig verschiedenen Apps nutzen und sind nicht nur auf Youtube angewiesen.
Das absurdeste bleibt ein Spitzel bzw. Blockwart bzw. V-Mann im eigenen Haus.