Warum die Uploadfilter der Internetkonzerne eine Gefahr für die Meinungsfreiheit sind

Facebook, Youtube, Twitter und Microsoft bauen eine gemeinsame Datenbank auf, um gegen terroristische Inhalte im Internet vorzugehen. Das soll die Verbreitung von Propaganda erschweren, bedeutet aber privatisierte Rechtsdurchsetzung und intransparente Zensur durch die Unternehmen.

Unerwünschte Bilder werden mittels digitalem Fingerabdruck in einer Datenbank gespeichert. (Symbolbild) Foto: CC-BY-SA 2.0 cwnewserpics

Facebook, Twitter, Microsoft und Youtube werden künftig in einer gemeinsamen Datenbank digitale „Fingerabdrücke“ von gewaltverherrlichenden Terrorbildern sowie terroristischen Rekrutierungsvideos und Bildern speichern und untereinander austauschen. Das teilten die Unternehmen am Montag in einer gemeinsamen Presseerklärung mit. Die Plattformen reagieren damit auf Kritik, zu wenig gegen die Verbreitung von „terroristischen“ und „radikalisierenden“ Inhalten in ihren Netzwerken zu unternehmen.

Die als unerwünscht erkannten Inhalte sollen mit spezifischen digitalen Fingerabdrücken, sogenannten „Hashes“, versehen werden, die jeweils nur den Rückschluss auf ein bestimmtes Foto oder Video zulassen. Durch den Austausch der Daten sollen die betroffenen Bilder und Videos auf anderen Plattformen schneller identifiziert und damit das Löschen von „terroristischer Propaganda“ beschleunigt werden.

Facebook & Co. definieren, was Terrorismus ist

Da sich „Terrorismus“ generell schwer definieren lässt und die Unternehmen unterschiedliche Richtlinien beziehungsweise allgemeine Geschäftsbedingungen nutzen, kommt es nicht zur automatischen Löschung auf allen vier Plattformen. Vielmehr entscheidet jedes Unternehmen selbst, was mit einem entsprechend erkannten Inhalt geschehen soll, sobald der Filter anschlägt.

Gleichwohl kündigten sie an, solche Inhalte in die Zensurdatenbank aufzunehmen, die „höchstwahrscheinlich gegen alle Inhaltsrichtlinien“ der jeweiligen Unternehmen verstoßen. Insbesondere bei „terroristischer Propaganda“ dürfte eine eindeutige Bestimmung der Inhalte damit kaum möglich sein. Gleichzeitig lässt eine so weit gefasste Definition grundsätzlich offen, was denn in Zukunft auf die Zensurliste kommt.

Erfreut über die Ankündigung der Unternehmen dürfte Bundesinnenminister Thomas de Maizière sein. Erst im August hatte er nach einem Besuch bei Facebook Deutschland seine Forderung nach einem Upload-Filter für Plattformen bekräftigt. Die Anbieter dürften nicht nur auf verbotene Inhalte durch nachträgliches Löschen reagieren, sondern bräuchten einen Mechanismus, der die Inhalte bereits beim Upload herausfiltert. Inhaltlich trifft dies bei dem Vorhaben von Youtube, Twitter, Microsoft und Facebook zu. Es dürfte wohl nicht der Upload selbst unterbrochen werden, sondern es werden vermutlich alle Inhalte erst nach dem Hochladen überprüft. Ist ein Inhalt in der Datenbank vorhanden, wird die Veröffentlichung auf der Plattform dann gegebenenfalls unterbunden.

Internetkonzerne als Gesetzgeber, Richter und Henker

Die Installation von Uploadfiltern gegen „terroristische“ und „radikalisierende“ Inhalte stellt ein ernsthaftes Problem für die Meinungsfreiheit dar. „Die Grenze für die Verbreitung von Inhalten zieht das Strafrecht. Deshalb müssen Gerichte und nicht Online-Plattformen über die Löschung von Inhalten entscheiden.“ sagte uns Volker Tripp vom Digitale Gesellschaft e. V. „Mit der proaktiven Filterung der Uploads werden rechtsstaatliche Verfahren faktisch privatisiert und eine gefährliche Zensurinfrastruktur aufgebaut“, kritisierte der Jurist weiter.

Die Existenz der Uploadfilter wird zudem weitere Begehrlichkeiten wecken und lädt zur Ausweitung der zu löschenden Inhalte ein. Was heute noch die Inhalte des Islamischen Staates betrifft, kann morgen Umweltschützer oder Kapitalismuskritiker treffen. Eine Ausweitung auf andere als die ursprünglich anvisierten Inhalte war bislang bei allen Zensurinfrastrukturen zu beobachten. Der jetzt aufgebaute Zensurmechanismus wird zudem noch vollkommen intransparent bleiben, selbst wenn die Unternehmen anderes verlautbaren.

Dürfen staatliche Institutionen die Technik auch bald nutzen?

Diese Intransparenz zeigt sich schon bei unseren konkreten Nachfragen zu der neuen Datenbank bei den jeweiligen Pressestellen. Keines der vier Unternehmen gab eine konkrete Antwort darauf, ob in Zukunft auch staatliche Institutionen die Zensurdatenbank füttern werden. Und das, obwohl es schon im April hieß, dass Europol an so einer Meldestelle Interesse habe und auf EU-Ebene mit dem „EU Internet“-Forum genau an solchen Kooperationen gearbeitet wird. Stattdessen gab es aus den Pressestellen Nicht-Antworten oder Hinweise auf die Allgemeinen Geschäftsbedingungen oder die ohnehin schon online stehende Pressemitteilung. Teilweise garniert mit der Ansage, dass man diese blutleeren Antworten nicht zitieren dürfe, da es sich um „Hintergrund“ handeln würde.

Eine staatliche Kooperation in dieser Infrastruktur würde elementare rechtstaatliche Prinzipien umgehen. Joe McNamee, Executive Director bei der Bürgerrechtsorganisation EDRi, sagte uns: „Es bedeutet einen weiteren Schritt hin zu einer Situation, in der die Internetriesen zum Gesetzgeber, Richter, Geschworenen und Henker über unsere freie Rede werden. Es bedeutet also eine Entwicklung zu einem gänzlich privaten Strafverfolgungsregime.“

Joe McNamee nennt als Beispiel dieser Entwicklung zum Beispiel die geplante EU-Urheberrechtsreform. Mit ihr sollen alle Plattformbetreiber verpflichtet werden, nach dem Vorbild von YouTubes ContentID, jegliche Uploads zu filtern und auf Urheberrechtsverstöße hin zu prüfen.

Ernsthafte Gefahr für Meinungsfreiheit

Gleichzeitig gibt es von Deutschland und Frankreich forcierte Bestrebungen, das Host-Provider-Privileg aufzuweichen. Bislang ist es so, dass Plattformen und Hoster auf illegale Inhalte erst hingewiesen werden müssen – und diese erst dann entfernen müssen. Die Umkehrung würde bedeuten, dass die Plattformen und Hoster direkt haftbar wären für das, was Leute auf ihre Servern geladen haben. Dies wird dazu führen, dass die Betreiber Inhalte schon vor dem Upload prüfen werden. Es ist davon auszugehen, dass die Betreiber ihre Zensurmechanismen im Zweifelsfall härter als nötig einstellen, um eine spätere Haftung zu verhindern. Das ist ein Mix, der das Grundrecht auf Meinungsfreiheit ernsthaft gefährden kann.

Statt dieser Maßnahmen schlägt Volker Tripp vor, dass „die Unternehmen den Gerichten und Ermittlungsbehörden endlich konkrete Verantwortliche in Deutschland zur Verfügung stellen, damit strafbare Inhalte schnell und effektiv gelöscht und verfolgt werden können. Statt sich weiter mit bloßen Lippenbekenntnissen von Facebook & Co. abspeisen zu lassen, sollte die Bundesregierung endlich Nägel mit Köpfen machen und eine entsprechende Pflicht im Telemediengesetz verankern.“

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

38 Ergänzungen

  1. Die als unerwünscht erkannten Inhalte sollen mit spezifischen digitalen Fingerabdrücken, sogenannten „Hashes“, versehen werden, die jeweils nur den Rückschluss auf ein bestimmtes Foto oder Video zulassen.

    Das ist irreührend formuliert, weil technisch falsch. Die Originalquellen bleiben dabei unverändert, es wird nur zu jeder Datei eine separate Prüfsumme (Hash) errechnet (bspw. mit sha 256 o.ä.) und diese Prüfsummen landen in der Datenbank (DB). Jedes Mitglied errechnet nach Abschluss des Uploads die Prüfsumme und gleicht sie mit der DB ab. Deshalb darf man den Upload nicht abbrechen, da die Prüfsumme einer unvollständigen Datei anders ist.

    Diese zentrale DB eignet sich dann tatsächich bestens um blitzschnell auch andere Inhalte zu filtern.

    1. Das ist weder irreführend formuliert noch technisch falsch, nur zusammenfassend und zugleich verständlich dargestellt. Da steht auch nicht, dass die Originaldateien verändert würden. Dass die Hashes in der Datenbank laden, geht aus dem nachfolgenden Satz auch hervor.

      Was ist denn der Punkt?

        1. Worte sind keine Abziehbilder der Wirklichkeit, da hilft auch nicht, stehende Wendungen in der Sprache einzuführen, weil gewisse Leute sich darauf einigen, dass sie genau die Wirklichkeit zeigen würden; das ändert nichts an den Worten selber und an ihrem Verhältnis zur Wirklichkeit.

          Bevor jetzt die rhetorische Keule der Beliebigkeit kommt: Die Bedeutung der Worte sind deren Gebrauch und der Gebrauch ist niemals gebunden an gewisse Leute oder eine Branche und darum immer etwas schwammig und kaum geeignet für ein Nadelstich-Argument.

          Ich kann übrigens auch einen Gegenstand mit einem Aufkleber versehen, was den Gegenstand selber auch nicht verändert. Was natürlich etwas völlig anderes ist, dennoch legitim, und übertragen darstellen kann den beschriebenen Vorgang. Ich wage auch zu vermuten, dass der Artikel hier nicht nur an ein Fachpublikum gerichtet ist, weshalb die Verwendung von Floskeln und technischen Wendungen sicher nicht zielführend ist bei mehr oder weniger fachfremdem Publikum.

      1. Der Punkt, liebe Constanze, ist, dass der Artikel suggeriert, dass mit diesem Hash eine Zensur durch jene Unternehmen stattfinden würde, die wörtlich „Internetkonzerne zu Gesetzgeber, Richter und Henker“ macht. Dabei darf ohnehin jedes dieser Unternehmen gemäß der jeweiligen Allgemeinen Geschäftsbedingungen Inhalte nach eigenem Ermessen löschen. Daran ändert sich eigentlich nichts und wurde auch bislang in dieser Form nicht beanstandet. Bei Facebook werden gelegentlich Fälle bekannt, wo nach Eindruck von vielen Leuten Bilder gelöscht werden, die nicht zu löschen wären und wiederum Bilder akzeptiert werden, die besser gelöscht werden sollten. Da wollte unlängst Justizminister Heiko Maas auf den Konzern einwirken und diesem die Verantwortung übertragen, die er eigentlich inne hat. Das wäre eher zu beanstanden…
        Der Vorteil dieser gemeinsamen Datenbank ist doch, dass tatsächlich zu Recht beanstandete Daten (hauptsächlich Bilder und Videos) effizienter und schneller aus dem Verkehr gezogen werden können. Das sollten allerdings nicht die Konzerne selbst entscheiden und so war es meiner Einschätzung auch nicht gedacht, abgesehen von den bereits ohnehin praktizierten Aktionen.
        Der Nachteil wäre, dass eben auch Kollateralschäden entstehen könnten und noch schlimmer, die Konzerne würden Zensur aus Eigeninteresse durchführen. Letzteres würde aber dem Geschäftsmodell der Konzerne entgegen wirken.

        Sicher wirkt das Konzept noch unausgereift, aber solange niemand etwas besseres zu liefern vermag, ist es immerhin eine Möglichkeit.

        1. Das würde ich im Grunde auch so sehen (allerdings nicht in der Schlussfolgerung), hat aber nichts mit der Anmerkung zu tun, dass die Darstellung im Artikel irreführend wäre.

  2. Die Terroristen werden so klug sein, diese Maßnahmen durch Anbieterwechsel oder Austricksen des Algo zu umgehen.

    Die Unschuldigen, die angeblich nie was zu verbergen haben, wird es nicht interessieren und wie immer werden sie am Meisten davon betroffen sein. Eigentlich wieder ein weiterer Grund für den längst überfälligen Boykott. Wäre da nicht noch die Sucht und das verkümmerte Kommunikationsverhalten der User …

  3. Ich bekomme es immer noch nicht in meinen Kopf. Bei Millionen von Internetseiten (inklusive netzpolitik.org) scheint es absolut ok zu sein, wenn die Seitenbetreiber sehr frei darüber entscheiden dürfen, welche Inhalte auf ihren Seiten gelöscht werden und welche nicht.

    Bei netzpolitik.org ist jeder Redakteur gleichermaßen Gesetzgeber, Richter, Geschworenen und Henker. Bei sämtlichen Blogs, Foren, Nachrichtenseiten usw….immer.

    Wer bitte entscheidet nach welchen Kriterien, ab wann das nicht mehr ok sein soll und das die Website in seinen Lösch-Entscheidungen teilverstaatlicht werden sollte? Nutzerzahlen, gefühlte Reichweite, aktuelle Wetterlage… mir kommt die Einteilung hier sehr willkürlich vor.

    1. Mein Server, mein Hoheitsgebiet. Es gibt keinen rechtlichen Anspruch auf Privateigentum zu posten.

    2. Das ist wie mit den Clubs. Der Türsteher entscheidet wer rein kommt und wer rausfliegt. Aber es gibt immer welche die sagen: mimimi, ich will mit meinem Ranzklamotten rein. Und den IS würde ich immer aus meinem Club rausschmeissen. Er kann ja gerne im IS-Club weiterfeiern.

    3. Hier werden leider wieder mehrere Dinge miteinander vermengt.
      Twitter, FB, usw. haben nichts mit unseren privaten Servern zutun.
      Weiterhin gibt es einen riesigen Unterschied zwischen US Verstaendnis von free speech und der deutschen freien Rede.
      Die genannten (Artikel) Unternehmeb sind US Unternehmen.

      …diese Dienste in 2016 vom US Supreme Court (Verfassungsgericht!) als public square (d.h. geschützt durch 1st amend.) klassifiziert wurden. „Foreclosing access to social media altogether thus pre-
      vents users from engaging in the legitimate exercise of First Amend-
      ment right.“
      https://www.supremecourt.gov/opinions/16pdf/15-1194_08l1.pdf

      Mehr Kontext in einem anderen Kommentar von mir; gesetzt den Fall meine red pills ueberleben die hiesige Exekutive. ??

  4. „Facebook, Youtube, Twitter und Microsoft bauen eine gemeinsame Datenbank auf, um gegen terroristische Inhalte im Internet vorzugehen. Das soll die Verbreitung von Propaganda erschweren, bedeutet aber privatisierte Rechtsdurchsetzung und intransparente Zensur durch die Unternehmen.“
    Ich finde es gut, dass jetzt den Hasspredigern aufgeht, die jahrelang ihren Hass gegen Facebook ausleben, was sie mit ihrem Hass anrichten.
    Wenn Bundesjustizminister Maas in seinem Hass auf Facebook fordert, dass juristische Laien Rechtsprechung bei Facebook privatisieren sollen, den Beschuldigten das rechtliche Gehör genommen werden sollen, Laien statt Richter Strafverfolgung machen sollen, dann ist es genau das, was dabei herauskommt. Die privatisierten Rechtsorgane versuchen dann die Rechtsprechung zu automatisieren. Maas spart sich weiter Service-Level bei seiner Justiz, Strafverfolgung durch das Staat, das blöde Gelaber bei den Beschuldigten beim rechtlichen Gehör. Kurzer Prozess, zurück zur Inquisition. Zack. Spart unheimlich Geld und ist wesentlich billiger als dieser umständliche Rechtsstaat. Mit dem Zynismus des Lügners Maas (Vorratsdatenspeicherung) produziert die GroKo genau diese Abschaffung der Meinungsfreiheit (aber mit dem Grundgesetz steht die Groko eh auf Kriegsfuß, wie man auch bei NSU- und NSA-Ausschüssen lernen durfte).
    Da ist es noch das geringste Problem, wenn Markus Beckedahl hier kund tut, dass er Zensur nicht nur bei Straftaten ausübt, sondern schon, wenn er befürchtet, dass die freie Meinungsäußerung netzpolitikk.org kommerziell schaden könnte.
    Das große Wachwerden nach der Hatespeech gegen Facebook :-) Catch22.

  5. Wen wollen die Konzerne denn da verarschen? Ein einziger geänderter Pixel, und der Hash eines Bildes oder Videos fällt komplett ander aus. Und wenn die konzerne es schaffen dagegen eine technische Lösung zu finden, dann wird eben ein klein bisschen abgeschnitten, das Farbspektrum minimal verschoben u.s.w. Das wird nicht funktionieren. Das gibt ein ständiges Katz und Maus Spiel. Davon Abgesehen hilft es sowieso nicht die Meinungsfreiheit auf den Grossen Portalen einzuschränken. Dann Gründen sie eben alle Ihre eigenen i2p Netze, und haben damit die schönsten Echoblasen. Damit werden eher mehr radikalisiert wie weniger, da es dort niemanden gibt der widerspricht.

    1. Sehr viel wird aber 1:1 weiterverbreitet und erreicht damit exponential grosse Wirkung, eben weil das so einfach ist.

      Ein solcher Filter kann das zumindest schwerer machen. Und je nach Implementierung auch nachtraeglich Daten aus Medien und timelines loeschen.

    2. Probier mal die Google Bildersuche. Da gibt es unterschiedliche Bildergrößen mit dem „selben“ Inhalt.
      Oder bei Youtube: einfach mal UR-content uploaden, ein bisschen schneller die Tonspur u.ä. abspielen.

      Die ML-algos sind nicht mehr so doof. Und die Echoblasen bei ISIS sind kein Problem, sondern gewollt. PR in der Echoblase funktioniert nicht gut, das müssen die Netzaktivisten aber erst lernen.

      1. Es gibt bestimmt digitale Signaturen, die das IS-Logo oder irgendwelche Nasheeds erkennen.

        https://de.wikipedia.org/wiki/Naschid

        Den Dreck würde ich auch nicht auf meiner Plattform haben wollen.

        Gerade ausprobiert: Google erkennt LeoDiCaprio in einem Bild mit Ivanka Trump eigenständig und schlägt mir sogar ganz andere Bilder vor.

        Google Cloud Vision API enables developers to understand the content of an image by encapsulating powerful machine learning models in an easy to use REST API. It quickly classifies images into thousands of categories (e.g., „sailboat“, „lion“, „Eiffel Tower“), detects individual objects and faces within images, and finds and reads printed words contained within images. You can build metadata on your image catalog, moderate offensive content, or enable new marketing scenarios through image sentiment analysis. Analyze images uploaded in the request or integrate with your image storage on Google Cloud Storage.

        https://cloud.google.com/vision/

  6. Natürlich entscheiden bei der Anwendung der beschriebenen Filter die jeweiligen Anbieter darüber, was sie als zensurwürdig einstufen oder nicht. Aber einen privaten Anbieter für was auch immer, kann cih jederzeit wechseln oder gründe ggf. selbst einen. Das ist das Schöne!

    Im Gegensatz dazu bin ich dem Handeln des Staates weitestgehend schutzlos ausgeliefert. Das ist der große und entscheidende Unterschied.

  7. „Statt dieser Maßnahmen schlägt Volker Tripp vor, dass „die Unternehmen den Gerichten und Ermittlungsbehörden endlich konkrete Verantwortliche in Deutschland zur Verfügung stellen, damit strafbare Inhalte schnell und effektiv gelöscht und verfolgt werden können.““

    Es soll also erst dann etwas gelöscht werden, wenn ein Gericht die Strafbarkeit festgestellt hat? Wie viele Gerichte bräuchte man wohl dafür, damit das „schnell und effektiv“ funktioniert?

    1. Soll ein schlecht bezahlter Mensch im Sekundentakt lieber auf Meinungsbildenden Plattformen bestimmen, ob Dein Kommentar z.B. auf Deiner eigenen Seite gelöscht wird oder stehen bleiben darf?

      1. Entweder so, oder es macht ein gewissenhafter gut bezahlter Mensch nach gründlicher Prüfun, oder ein Filter, oder was immer praktikabel ist. Jedenfalls ein Gericht ist m.E. nicht nötig. Ihr braucht ja auch kein Gericht, um zu entscheiden welche Kommentare Ihr löscht. Destruktive Meinungen oder solche die der Kommentarkultur abträglich sind könnt Ihr ohne Weiteres löschen, wie in Eurem FAQ beschrieben, und das ist vollkommen in Ordnung. Ihr seid nicht verpflichtet, die Rede- oder Meinungsfreiheit von jedem Kommentator auf Eurer Plattform zu garantieren. Man kann das als privatisierte Zensur oder privatisierte Rechtsdurchsetzung bezeichnen, aber ich glaube das wird der Sache nicht gerecht.

      2. Like, woow. Du hast ihn komplett eingelullt. Wie viel er geschrieben hat, ohne zu merken, dass du seine Frage nie beantwortet und das Spiel einfach umgedreht hast.
        Meinen Respekt, Herr Beckedahl.

  8. Mit reinen Hashsummen wird man da aber nicht weit kommen. Sowas nutzt Youtube ja schon, um urheberrechtlich geschütztes Material zu erkennen. Die Leute gehen dann aber hin und verändern die Videos. Spiegeln sie oder zoomen rein und raus. Notfalls noch ein Farbfilter drüber. Dadurch verändert sich der Inhalt und so die Prüfsumme. Natürlich ist es so viel mehr Arbeit, unerwünschte Videos zu verbreiten, es ist aber schon noch möglich. Der IS zum Beispiel könnte direkt ein Video in unterschiedlichen Varianten exportieren und immer eine neue Version hochladen, wenn eine vorherige gefiltert wird. Ein Kampf gegen Windmühlen.

    1. Ein Pixel. Ein Pixel reicht, damit der Hash ein anderer ist. Nur ein weiteres Indiz, dass unsere Legislativen keine Ahnung haben, worüber sie da entscheiden.

  9. Werden „Hate speech“ und „Online Radikalisierung“ nicht nur als Probleme vorgeschoben und im Wirklichkeit leidet nicht die Bevölkerung sondern die Bürokratie unter der von ihr als „FAKE NEWS“ bezeichneten neuen demokratischen Gewalt der Neuen Medien, und der wahre Grund für den Druck auf die Unternehmen liegt im zunehmenden Kontrollverlust?

    “The last weeks and months have shown that social media companies need to live up to their important role and take up their share of responsibility when it comes to phenomena like online radicalisation, illegal hate speech or FAKE NEWS,” EU Justice Commissioner Vera Jourová told The Financial Times.

    1. Werden „Hate speech“ und „Online Radikalisierung“ nicht nur als Probleme vorgeschoben und im Wirklichkeit leidet nicht die Bevölkerung sondern die Bürokratie unter der von ihr als „FAKE NEWS“ bezeichneten neuen demokratischen Gewalt der Neuen Medien, und der wahre Grund für den Druck auf die Unternehmen liegt im zunehmenden Kontrollverlust?

      Bin ich nicht von überzeugt. Die Phänomene sind ja real, mögliche Auswirkungen auf eine Demokratie sind ja auch nicht von der Hand zu weisen. Wir brauchen nur eine Debatte über grundrechtsfreundliche Antworten darauf.

  10. Ich halte den Ausdruck „Fake News“ für einen äußerst gefährlichen politischen Kampfbegriff. Thematisch handelt es sich dabei im Grunde genommen genau das selbe wie der Begriff „Lügenpresse“, und kommt nur etwas leiser und von der politisch linken statt der politisch rechten Seite daher. Wir sollten endlich mal wieder realistisch werden und nicht naiv den Irrglauben verfallen, dass linke Politik „das Gute“ verkörpert, und rechte Politik „das Böse“. Beide Seiten haben ihre Extreme, die sie unter Einsatz grundrechtsfeindlicher Mitteln wie Zensur, Propaganda und Medienmanipulation durchsetzen wollen.

  11. Die NATO und sein Kriegstreiber Stoltenberg klopfen sich täglich auf die korrupten Schultern – wie gut das wir den „Bösen Russen“ wieder aus der feudalen Mottenkiste gezerrt haben. Wir erinnern uns, die Gruselstory des „Bösen Russen“ wurde um 1917 ins „Leben“ gerufen, als das morbide Zarenhaus danieder ging. Wer hats erfunden? Das feudal-kapitalistische Europa. 1933 zog man den „Bösen Russen“ wieder aus dem kapitalistischen Konzernzylinder von Hitler und Co. Heute flöten Wendehals Merkel und ihr Kriegsbruder Stoltenberg ins verstaubte Russenhorn. Die völlig verzweifelte Clintongang holt sich den NATO-THINK TANK aus Übersee und melkt die Russenpropaganda bis zum abwinken. Die NATO-EU hilft so gut sie kann. Mit Sanktionen gegen Russland und Syrien und gegen ALLES was der RUSSE anfässt. Der RUSSE ist der Teufel des braven systemtreuen kapitalistischen Pöbels und der US-BILD-LESER. Fassen wir zusammen, der Russe dopt, andere Länder natürlich nicht ;) der Russe bedroht Europa, auch wenn es nachweisbar nur eine NATO-Osterweiterung gibt ;) zum dritten Mal innerhalb von 100 Jahren steht das kadavergehorsame Deutschland an Ruslands Grenzen und fletscht die fauligen Zähne. Wie das bisher ausging wissen wir alle. Der NATO-THINK TANK hat für reale Kapitalistenkritik den Begriff „Postfaktisch“ erfunden, ebenso wie die CIA DIE „Verschwörungstheorien“ erdacht hat, um logisch denkende Menschen mundtot zu machen. Orwells NEUSPRECH wurde nun auch von den kapitalistischen Social Medias im Verbund übernommen. Trotzdem wird sich die reale Wahrheit Bahn brechen und der gesunde Menschenverstand siegen – egal wie viel die Marionettenspieler auch immer zahlen ;)

    1. Also wenn Du Russland und die Russen (die politische Elite dort) so magst dann nehmen die dich bestimmt mit Kusshand. Politpropaganda der markigen Worte beherrschst Du ja scheinbar gut. Auch wenn du vor lauter Substituierung vermutlich vorsätzlich Halbwahrheiten in den Raum stellst.
      Beispiel „…auch wenn es nachweisbar nur eine NATO-Osterweiterung gibt…“ – vergessen wir doch mal eben die Krim und die Ukraine :-) – passt dann besser in dein komisches Weltbild :-)
      Aber wie geschrieben. In Russland würdest du für so einen Text bezahlt…in Rubel :-)

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.