Youtube ergreift im Kampf gegen politische Propaganda von Terrorgruppen weitere Maßnahmen. Das Unternehmen kündigte unlängst im firmeneigenen Blog an, dass es von nun an auf bestimmte englischsprachige Suchanfragen reagiert, indem es extra zusammengestellte Wiedergabelisten von bereits vorhandenen Videos anzeigt, die der Rekrutierung des islamischen Staates und anderen terroristischen Gruppen entgegenstehen sollen. Es handelt sich dabei um eine Art automatisierte Gegenrede mit dem Zweck der politischen Beeinflussung.
Schon im vergangenen September hatte das zum Google-Konzern gehörende Unternehmen Jigsaw zusammen mit Partnern die sogenannte Redirect-Methode vorgestellt. Die funktioniert in etwa so:
Um die normalen Nachrichtenkonsumenten von den IS-Sympathisanten zu trennen, wird versucht die Suchbegriffe der Mainstream-Interessierten und die der Sympathisanten zu identifizieren. Stark vereinfacht gesagt: Wer nach dem „Islamischen Staat“ generell sucht, fällt in die Mainstreamgruppe, wer speziell nach dem IS-Medium „Al-Hayat“ sucht, kommt in die Sympathisantengruppe. Den Sympathisanten und damit den potenziellen Rekruten zeigte Google dann in der Versuchsanordnung bestimmte Werbelinks und Videovorschläge auf Youtube. Die vorgeschlagenen Inhalte sind dann zum Beispiel Videos, die den Propagandazielen des IS entgegenliefen.
Nun soll das Projekt wirklich auf Youtube übertragen werden, zuerst mit englischen Suchbegriffen, dann aber auch in anderen Sprachen. Der Erfolg soll daran gemessen werden, wie oft und wie lange die kuratierten Anti-Terrorvideos von der Zielgruppe angesehen werden, sagte das Unternehmen gegenüber The Verge.
Die Gefahr politischer Beeinflussung
Das Konzept der politischen Beeinflussung von Menschen durch das Ausspielen von kuratierten Youtube-Playlists, basierend auf deren Such- und Browsingverhaltens, wirft zahlreiche Fragen auf. Wie das Forschungsprojekt schon vergangenen September zeigte, richtet es sich nicht nur gegen Sympathisanten der überall abgelehnten IS-Terroristen, sondern wurde früh auf andere Zielgruppen ausgeweitet. In der Testphase hatten die Projektpartner angekündigt (Mitschnitt), dass sie die Methode auch gegen gewalttätigen Rechtsextremismus einsetzen wollten.
Machen wir ein Gedankenspiel und drehen ein bisschen an der dystopischen Schraube, um das Problem zu verdeutlichen: Wäre derjenige, der im Vorfeld eines Gipfels nach „Protest G20 Autonome“ sucht, schon ein potenzieller Gewalttäter, der vom Protest abgehalten werden sollte? Und wäre diejenige, die morgens in der U-Bahn nach „Schere zwischen Arm und Reich“ sucht, in der Logik der De-Radikalisierung nicht schon eine potenziell gefährliche „Kapitalismuskritikerin“? Bekommen diese User dann Videos vorgeschlagen, welche Interviews mit geläuterten verurteilten Steinewerfern zeigen oder die Vorteile der freien Marktwirtschaft anpreisen?
Elementare Fragen nicht beantwortet
Wer nach „Schwangerschaftsabbruch durchführen“ sucht, könnte ja in Ländern wie Polen oder Guatemala bald kuratierte Videos bekommen, welche sich gegen eine Abtreibung aussprechen. Und wird, wer in Zukunft nach irgendwelchen Drogen sucht, dann nur noch Präventionsfilme vorgeschlagen bekommen? Und wer nach kalorienhaltigen Torten googelt, erhält die besten Tipps für eine gesunde und fettfreie Ernährung?
Diese Gedanken sind in jede politische und gesellschaftliche Richtung denkbar. Es geht um nichts weniger als die Umkehrung der Suchfunktion zur Bekehrung der Suchenden.
Das führt uns bei diesem von Youtube nun angewandten Konzept der politischen Beeinflussung und Prävention zu elementaren Fragen, die nicht beantwortet sind:
- Was ist eigentlich Extremismus und gegen wen soll „De-Radikalisierung“ eingesetzt werden?
- Wer darf Extremismus und die Zielgruppen definieren?
- Wer kontrolliert eigentlich den Einsatz solcher Techniken?
- Sollten solche Algorithmen offengelegt werden, um Missbrauch zu verhindern?
Der jetzige Vorschlag von Youtube mag gut gemeint sein, das ganze Konzept jedoch ist problematisch. Unternehmen können mit ihrer Werbe- und Meinungsmacht solche algorithmischen Kampagnen politischer Beeinflussung jederzeit starten. Die jetzige Kampagne gegen die Rekrutierung des IS-Terrorismus entsteht offenbar durch den politischen Druck staatlicher Akteure. Denkbar sind aber auch Kampagnen für eigene Unternehmensinteressen. Oder für die Interessen derer, die dafür das meiste Geld bezahlen. Dieses neue Feld ist bislang vor allem eines: intransparent, unreguliert und gefährlich.
Habe Zweifel an der Wirksamkeit. Aber angenommen, das sei kein Problem, läuft die Argumentation des Artikels darauf hinaus, dass eine mögliche CT-Maßnahme abgelehnt wird, weil selbe Maßnahme in anderen Kontexten problematisch ist. Das ist mir zu Entweder/Oder. Mit einer solchen Argumentationsstruktur kann man auch den Verkauf von Teddybären ablehnen.
Das macht Google e.a. schon seit Jahren. Nennt sich Ranking.
Lässt sich auch dahingehend pervertieren, errh… perfektionieren,
dass man „gegenteilige“ Ergebnisse präsentiert.
Die „Suche“, ob bei Google oder YT oder anderen, hat zum „Ergebnis“,
dass wir „nicht finden“, oder ein solches „nicht vorhanden“ ist.
Vertrauen, Verläßlichkeit und alle anderen beziehungsstiftenden Dinge
werden in Zeiten des Neototalitarismus nebenbei zu Grabe getragen.
„Ich mach‘ mir die Welt…“ (Pipi Langstrumpf)
So ist das halt mit der Macht eines Monopols oder auch nur Quasimonopols. Aber Hochmut kommt meistens vor dem Fall. Google wäre nicht der erste große Konzern, der von ganz oben sehr schnell nach ganz unten fällt. Ich jedenfalls misstraue grundsätzlich Unternehmen mit monopolartiger Stellung oder auch nur einer bestimmten Größe.
Ich finde diese Diskussion ermüdend. Immer wieder wird dabei missachtet, dass es sich um private nicht besonders regulierte internationale, gewinnorientierte und der Rendite ihrer Investoren verpflichtete Unternehmen handelt.
Weiterhin handelt es sich um enorme Datenmengen, die nur auschnittsweise und schon gar nicht unbewertet und ungewichtet neutral darstellbar und zugleich zugänglich ist.
Die Annahme es fände im Normalfall keine stark wirkende Einflussnahme auf Präsenz und Darstellung von Inhalten statt ist geht doch völlig irre. Dazu müssen Inhalte noch nicht einmal umgeleitet werden.
Viel wichtiger fände ich zu diskutieren, wenn man mindestens obiges voraussetzt, ist es das, was wir bereit sind zu akzeptieren? Gesetzt den Fall Medienzentren haben einen so tief gehenden Einfluss auf unsere Kommunikationsstrukturen und Erreichbarkeit.
Ich denke, wenn wir zu dem Schluss kommen das sei nicht in Zukunft nicht mehr akzeptabel, dann muss darüber diskutiert werden, wie man Facebook, Google, Youtube, Twitter, usw. unter öffentliche Kontrolle setzen kann.
Und man muss darüber diskutieren ob derartige Strukturen auf der Absicht Gewinn zu erwirtschaften gegründet sein können.
Spannend fände ich darüber zu reden, wie so eine öffentliche Kontrolle gestaltet sein kann, wenn sie nicht in die untauglich gewordenen nationalen Strukturen verfallen will. Wenn man sicher stellen wollen würde, das nicht partikulare Interessen, Lobbyisten oder politische Parteien den Kontrollprozess dominieren würden.
Vielleicht ist das Problem anders als auf eingefahrenen Wegen lösbar.
> …dann muss darüber diskutiert werden, wie man Facebook, Google,
> Youtube, Twitter, usw. unter öffentliche Kontrolle setzen kann.
Gar nicht! Man sieht, welcher Müll in der jüngeren Vergangenheit
aus diesen „Regulierungsbedürfnissen“ heraus an „Gesetzen“
entstanden ist.
Stattdessen gilt: You are in control…!
(oder: Keine Kunden, kein Unternehmen)
Ach nee, nicht das. Sorry aber die Behauptung ”consumer is boss” empfinde ich als arg verkürzt.
Aber wenn meine Einlassung missverständlich war, es ging mir sicher nicht darum Kommunikationsstrukturen in staatliche Hände zu überführen. Ich wollte meinen Ansatz im Sinn einer internationalen, öffentlichen, nicht kommerziellen, lenkenden Kontrolle verstanden wissen.
Das Problem das durch dieses „Feature“ bei der Suche nach Informationen „gelöst“ werden soll geht doch am eigentlichen Problem vobei – und das meilenweit. Natürlich wäre es schön wenn damit Radikalisierung verringert würde, ich glaube aber nicht daran.
Die eigentlich Offenen Fragen sind doch z.B.
– Warum suchen Leute nach solchen Stichworten?
– Warum Radikalisieren sich diese Leute selbst?
– Warum existiert überhaupt solches Material im Netz?
Ich weiß auch nicht alles, aber auf die Letzte Frage wüsste ich eine Mögliche Antwort. Weil es sich niemand leisten will jedes Hoch geladene Material auf seine Rechtliche oder Beinflußungs-Qualität zu kontrollieren. Wenn dem so wäre, dann gäbe es solches Propaganda-Material nicht im Netz und das Problem als solches existierte nicht – und damit auch nicht die scheinbare notwendigkeit auf bestimmte Suchwort-muster „alternativ-faktisch“ zu reagieren. ;-)
Natürlich ist mir auch klar das eine Upload-filterung ÜBERALL auch immer in Richtung Zensur schielt. Aber das ist zum einen eine Frage des Rechtlichen Rahmens und dessen was wir für gut und richtig halten wollen. Ach, wäre dieser Rahmen doch nur halbwegs eindeutig irgendwo festgelegt… So das Maschinen ihn automatisch anwenden könnten. Menschen bringen immer ihre Subjektive Meinung mit ein – was dann wirklich in die Zensur gleitet.
Hat eine Terrororganisation die sich gegen den Rechtsstaat wendet ein Recht werbung für sich zu machen?
Hat der Rechtsstaat das Recht sich gegen Terror mit Anti-Werbung durch zu setzen?
Führt das alles nicht in eine Neue Spirale der Gewalt-Bekämpfung?
> … Menschen bringen immer ihre Subjektive Meinung mit ein –
> was dann wirklich in die Zensur gleitet.
Warum ist das so?
Gedanken und Meinungen „töten“ nicht, es sind die „Taten“.
Mir ist grundsätzlich erst ‚mal wurscht, was jeder denkt.
Solange er anderen damit nicht (oder im schlimmsten Fall
dadurch) „aktiv“(!) auf die Füße tritt.
Aber „frei“ zu denken sei bitte jedem „erlaubt“…