Digitales AstroturfingWie unser Diskurs manipuliert wird

Wenn so viele das sagen, muss ja was dran sein. Oder? Eine der Methoden von digitaler Desinformation ist Astroturfing. Was dahinter steckt und welche Folgen Astroturfing birgt, erklärt dieser Artikel.

Links auf dem Bild befindet sich ein Screenshot pro-russischer YouTube-Kommentare. In der Mitte ist ein ehemaliges Bürogebäude der russischen Trollfabrik "Internet Research Agency" zu sehen.
Die russische „Internet Research Agency“ betreibt schon seit 2009 digitales Astroturfing. – Charles Maynes, Public domain, via Wikimedia Commons, Bildschirmfoto YouTube, Bearbeitung: netzpolitik.org

Am 24. Februar 2022 hat der russische Angriffskrieg auf die Ukraine begonnen. Seitdem sind Lügen und Propaganda von Russlands Präsident Putin fast täglich in den Nachrichten. Allerdings führt Russland schon seit über einem Jahrzehnt einen intensiven Kampf um die Meinungshoheit im Internet. Besonders beliebt dabei: digitales Astroturfing. Eine breit eingesetzte Propagandamethode, die auf die Beeinflussung von Meinungen und demokratischen Entscheidungen abzielt. Damit steht Russland allerdings nicht alleine da: Viele Staaten nutzen Astroturfing für ihre Zwecke.

Digitales Astroturfing ist mit einer Flut vergleichbar – einer Flut aus Meinungen. Allerdings kommen die Meinungen nicht von der Gesellschaft selbst. Sie kommen aus den Büros von PR-Agenturen, aus Trollfabriken oder Propaganda-Organisationen. Durch Astroturfing sollen die Nutzer:innen den Eindruck gewinnen, dass die künstlich verbreiteten Sichtweisen sehr geläufig sind. Wie neue Studienergebnisse nahelegen, kann sich Astroturfing auf diese Weise auf die Meinungsbildung der Menschen auswirken.

Der Begriff Astroturfing ist von der amerikanischen Firma AstroTurf abgeleitet. Diese stellt Kunstrasen her, der täuschend echt aussehen soll. Klassisches Astroturfing will Graswurzelbewegungen vortäuschen, also so tun, als stecke eine soziale Bewegung hinter den Meinungen. Eine Astroturfing-Kampagne will den Eindruck erwecken, dass eine fabrizierte Meinungsströmung tatsächlich von der Basis der Gesellschaft ausgeht.

Graswurzelbewegungen nachahmen

Astroturfing ist an sich keine neue Sache: Es lassen sich falsche Bürgerbewegungen oder Vereine orchestrieren, so wie das bei der Auseinandersetzung um Stuttgart 21 geschah, wo neben der Bewegung gegen den neuen Bahnhof plötzlich falsche Fürsprecher auftauchten. Oder Firmen versenden vermeintliche Leserbriefe an Medien, um den Anschein zu erwecken, als vertrete die Leser:innenschaft eine bestimmte Meinung.

Im Zuge der Digitalisierung hat sich Astroturfing gewandelt. Im Netz lassen sich fabrizierte Inhalte effizient verbreiten. Es braucht keine Briefe oder Vereinsanmeldungen. Informationen lassen sich leichter verteilen. Schon mit kleinen Teams lassen sich Soziale Medien oder Kommentarsektionen von Nachrichtenseiten beeinflussen. 

Die in den letzten Jahren viel diskutierten „Bot“-Accounts spielen dabei allerdings nicht die Rolle, die ihnen oftmals zugeschrieben wurde. So eignen sich automatisierte Accounts meist nur für das künstliche Erhöhen von „Gefällt-mir“-Angaben oder Retweets; authentisches, menschliches Verhalten ahmen sie allerdings scheinbar kaum nach. Dem aktuellem Forschungsstand zufolge scheinen ausreichend ausgereifte Programme schlicht nicht zu existieren.

Selbst wenn es möglich wäre, einzelne Accounts authentisch wirken zu lassen, wiese ein ganzes Netzwerk falscher Accounts wohl weiterhin verräterische Muster auf. Aus diesem Grund scheinen Astroturfing-Organisationen bislang vielmehr auf echte Mitarbeiter:innen gesetzt zu haben, die beispielsweise eine Vielzahl von Accounts in sozialen Medien bedienen. Sie koordinieren die Accounts und deren Aktionen durch interne Kommunikationskanäle.

Ein globales Phänomen

In einer Studie schreiben Wissenschaftler:innen:

„Astroturfing ist eine der wirkungsvollsten Bedrohungen des heutigen Internets. Es beschreibt den Prozess der Verschleierung und Verbreitung einer manipulierten Botschaft unter der Gesamtbevölkerung, wobei der Eindruck entsteht, sie komme von ihrer Basis selbst.“

Digitales Astroturfing ist ein weltweites Phänomen. Alleine Twitter hat bis Dezember 2021 weltweit über 200 Millionen künstlich verbreitete Tweets verzeichnet. Auf der Karte sind die Länder verzeichnet, in denen laut Twitter Kampagnen aufgedeckt wurden, die von staatlicher Seite oder von mit dem Staat verbundenen Akteuren stammen sollen. Astroturfing-Tweets von anderen Akteur:innen wie Oppositionsgruppen oder von Konzernen veröffentlicht Twitter nicht.

Hier klicken, um den Inhalt von datawrapper.dwcdn.net anzuzeigen

Wie die Twitter-Daten zeigen, gab es auf Twitter bereits eine Menge an digitalen Astroturfing-Kampagnen durch staatliche Akteur:innen. Einige Staaten beschränken sich dabei auf die eigene Bevölkerung. Häufig beinhalten die Kampagnen negative Sichtweisen über die Opposition. Zudem versuchen die Regierungen, ihre eigene Politik und Vorhaben zu legitimieren und positiv darzustellen.

Einige Kampagnen zielen auch auf das Ausland ab und verbreiten polarisierende Inhalte über politische Auseinandersetzungen in anderen Staaten. Des Weiteren versuchen einige Regierungen, eigene Narrative und Sichtweisen auch im Ausland populär zu machen.

Mithilfe von digitalem Astroturfing wird zudem versucht, Demonstrationen und soziale Bewegungen zu schwächen und zu unterdrücken. Beispielsweise hatte China zu Zeit der Protestbewegung in Hongkong eine Astroturfing-Kampagne eingeleitet, um die Demonstrant:innen gesellschaftlich zu diskreditieren und so die Wahrnehmung über die Proteste zu verschlechtern. China versuchte offenbar auch, das eigene Narrativ über die Masseninternierung der uigurischen Minderheit durch eine Kampagne zu verbreiten. Twitter entfernte Ende 2021 entsprechende Accounts und veröffentlichte Informationen zu ihnen.

Auch die Vereinigten Arabischen Emiraten, Ägypten und Saudi Arabien setzten auf umfangreiche Astroturfing-Kampagnen. Dabei nahmen die Staaten offenbar gemeinsam andere Länder ins Visier. Die auf Twitter verbreiteten Narrative richteten sich primär gegen den Iran, Katar sowie auch die Türkei. Astroturfing-Kampagnen des Irans zielten auf die USA sowie Israel. Aus der Türkei gab es Kampagnen zu innenpolitischen Themen, aber auch englischsprachige Tweets, die die türkische Militäroffensive in Syrien in ein positives Licht rücken sollten.

Die schwierige Analyse von Astroturfing

Die Forschung zu Astroturfing ist schwierig. Normalerweise gewähren Soziale Netzwerke Wissenschaftler:innen und Journalist:innen nur ungenügend Zugang zu ihren Programmierschnittstellen oder gehen sogar rechtlich gegen Forschende vor. Darüber hinaus sind die Zugänge oftmals sehr teuer.

Auch in sozialen Netzwerken erfolgen Archivierungen über das Internet Archive oder anderen Archivierungsprojekten eher lückenhaft. Beispielsweise sind Inhalte aus geschlossenen Nutzergruppen von sozialen Medien nicht einfach zugänglich. Hinzu kommt die gängige Praxis sozialer Netzwerke wie Facebook, Astroturfing-Inhalte schlicht zu löschen. Dies dämmt die Kampagnen zwar ein, erschwert aber ihre Erforschung. Twitter veröffentlicht immerhin die Tweets staatlicher Astroturfing- und Desinformationsaktivitäten – allerdings oft mit langer Verzögerung.

Auch die initiale Erkennung von Astroturfing-Kampagnen ist oft eine große Hürde. Beispielsweise flog eine Astroturfing-Kampagne in Südkorea nur auf, da Ermittler:innen beteiligte Account-Namen auf dem Computer einer Geheimdienst-Agentin sicherstellten. Viele wissenschaftliche Untersuchungen basieren meist auf zuvor enthüllten Kampagnen, zu denen bereits Informationen verfügbar sind.

Propaganda ja, aber doch nicht am Wochenende

Im Rahmen einer kürzlich erschienenen Studie entwickelten Wissenschaftler:innen eine Analyse-Möglichkeit, um Astroturfing-Kampagnen ohne solche vorherigen Erkenntnisse zu identifizieren. Dabei hoben sie hervor, dass Accounts nicht individuell, sondern als Netzwerk betrachtet werden sollten. An dem Verhalten des Account-Clusters lasse sich dann ermitteln, ob es sich um eine echte Bewegung oder eine Astroturfing-Kampagne handelt.


Zusehen sind Grafen, die die üblichen Aktivitätszeiten von echten Accounts mit jenen von Astroturfing-Accounts vergleichen. Astroturfing-Accounts weichen ab, da sie eher zu regulären Arbeitszeiten unter der Woche aktiv sind, als am Wochenende.
Astroturfing-Accounts waren häufiger unter der Woche zu üblichen Arbeitszeiten aktiv. - CC-BY 4.0

Ausgehend von früheren Kampagnen konnten sie dazu typische Verhaltensweisen von Netzwerken an Astroturfing-Accounts ermitteln. Wie auf der Grafik zusehen ist, verbreiteten Mitarbeiter:innen von Astroturfing-Organisationen ihre Inhalte häufig zu üblichen Arbeitszeiten unter der Woche. Auch kam es vor, dass die Astroturfing-Accounts ihr Verhalten zeitgleich ändern – mutmaßlich auf Anweisung der Organisatoren.

Wie die Forscher:innen außerdem erklären, stehen die Mitarbeiter:innen einer Astroturfing-Organisation häufig nicht ganz hinter den Narrativen der Kampagne. Daher würden sie meist bloß versuchen, die Mindestanzahl an beispielsweise Kommentaren zu verfassen. Damit würden sie keinen Grund haben, ihre Accounts über die gesetzten Anforderungen hinaus zu individualisieren. Dies ergebe Account-Cluster mit großen Ähnlichkeiten im Verhalten und Auftreten. Aus diesen Indizien konnten die Wissenschaftler:innen eine Methode basteln, um Hinweise auf Astroturfing-Kampagnen zu finden.

Die Internet Research Agency

Mein erstes Gefühl war, dass ich einer Art Fabrik gelandet war. Eine Fabrik in der Lügen und Unwahrheiten in industrielle Fließbandarbeit gewandelt wurden.

Mit diesen Worten beschrieb ein ehemaliger Angestellter der russischen Astroturfing-Organisation „Internet Research Agency“ seinen Arbeitsplatz. Die Agentur begann ihre Aktivitäten auf Twitter bereits 2009 und ist in Deutschland unter dem Namen „Trollfabrik“ bekannt. Seit 2013 verbreitet sie vermehrt in verschiedenen Ecken des Internets pro-russische Narrative. Von ihren aufgedeckten Aktivitäten ließ sich bislang nur ein kleiner Teil wissenschaftlich aufarbeiten.

Twitter veröffentlichte Daten mit 3.841 Twitter-Accounts, die der Konzern der Trollfabrik zuordnete und die zur US-Wahl 2016 genutzt wurden. Ebenso wie auf Twitter trat die Agentur auch bei Google und Facebook in Erscheinung. Anwälte von Google, Facebook und Twitter geben an, dass rund um die US-Wahl 2016 wahrscheinlich über 150 Millionen Menschen der russischen Propaganda ausgesetzt waren.

Schon 2014 berichtete die Süddeutsche Zeitung unter Berufung auf geleakte Dokumente, dass die Internet Reseach Agency in dieser frühen Phase bis zu 600 Mitarbeitende hatte. Ihr monatliches Budget habe damals bei einer Millionen US-Dollar gelegen.

Die Accounts hatten in ihrer Qualität und Authentizität große Unterschiede. So waren einige Accounts nur dazu da, massenhaft Kommentare zu hinterlassen. Daher verwendete die Agentur nur wenig Ressourcen, um jene glaubhaft erscheinen zu lassen. Andere Accounts bauten ihre Mitarbeiter:innen über längere Zeit auf, um ihnen größere Authentizität verleihen zu können. Der Twitter-Account der vermeintlichen rechten Influencerin „Jenna Abrams“ war so einer:


Zusehen ist das Twitter Account von Jenna Abrams. Ihr Profil-Banner zeigt einen Mittelfinger, der auf das weiße Haus gerichtet ist.
Jenna Abrams war auch auf Telegram, Gab und WordPress aktiv. - Yiping Xia et al.

Mit ihren über 70.000 Follower:innen hatte die Kunstpersona der Agentur eine größere Reichweite als der heutige Redaktionsaccount von netzpolitik.org. Aktiv seit 2014, soll Abrams zu Beginn allerdings vorwiegend unterhaltsame Inhalte verbreitet haben – wohl um ihre Follower:innenschaft aufzubauen. All­mäh­lich änderte sich ihr Verhalten allerdings: Sie verbreite zunehemend polarisierende, rechtskonservative Inhalte.

Wissenschaftler:innen haben den Account untersucht. Mit diesem soll die Internet Research Agency versucht haben, eine direkte Beziehung mit den Nutzer:innen aufzubauen. Diese habe sie mit großem Aufwand gepflegt. Nach den ausgewerteten Tweets streute „Jenna“ dabei neben vielen belanglosen Inhalten kontinuierlich politische Botschaften ein, die auf den Weltbildern konservativer US-Amerikaner aufbauten. Übersetzte Beispiele für solche Tweets sind:

Einen schönen Dienstag meine Freunde und denkt dran, es sind nur noch 416 Tage, bis Obama sein Amt verliert.

Dieser seltsame Moment, wenn man einen Trump-Befürworter nicht als misogynistischen, weißen Rechtsextemen bezeichnen kann.

Hallo, ich bin Ahmed! Ich kann dich oder deine Schwester vergewaltigen und komme damit durch, weil #refugeeswelcome

Es sind fast 8 Jahre Obama und die Leute wissen nicht, welche Toilette sie benutzen sollen.

Heuchler-Starterpaket: 1. Kandidiere gegen die Korruption der Wall Street 2. Unterstütze Hillary Clinton

Die Agentur betrieb zudem noch deutlich extremere Accounts. So betreute sie unter anderem @Jihadist2ndWife, einen islamophoben Parodie-Account, oder @PeeOnHillary, welcher Nutzer:innen dazu motivierte, ein Video hochzuladen, wie sie auf ein Foto von Hillary Clinton urinieren. 

Digitales Astroturfing in Perfektion

Die zitierten Tweets stehen exemplarisch dafür, was die Internet Research Agency – und damit letztlich der Kreml – unter anderem erreichen möchte: die westliche Gesellschaft spalten. Dazu stachelte die Agentur allerdings nicht nur die konservative Seite an – sie sprang auch auf linksorientierte Strömungen auf.

So fanden Wissenschaftler:innen in einer quantitativen Analyse aller Tweets ihrer zur US-Wahl 2016 betriebenen Accounts, dass sie sowohl populäre Hashtags wie #MAGA oder #IslamKills aus dem rechten als auch #PoliceBrutality oder #BlackLivesMatter aus dem linken Spektrum verbreitete. Insgesamt fanden die Wissenschaftler:innen ein Ungleichgewicht: Konservative Stimmen verstärkte die Trollfabrik stärker. Zudem kam es vor, dass die vermeintlich linken Accounts der Agentur von ihrem linken Kurs abwichen. Beispielsweise waren knapp die Hälfte der Tweets „linker Accounts“  über die demokratische Präsidentschaftskandidatin Hillary Clinton, die 2013 noch die beliebteste Politikerin der USA gewesen war, negativer Natur.

Aufgrund Twitters zugehöriger Veröffentlichungen ließ sich die Astroturfing-Kampagne der Organisation auf Twitter aufarbeiten. Ihre Aktivitäten ließen sich aber in allen möglichen Ecken des Internets wie Facebook, Twitter, Instagram, Stitcher, YouTube, Reddit, LinkedIn und verschiedenen anderen Webseiten nachweisen.

Krönung der Spaltungsversuche

2017 kam heraus, dass die Internet Research Agency gleichzeitig eine islamophobe Demonstration und eine Gegendemonstration im Netz beworben haben soll. So kündigte die Agentur über die von ihr kontrollierte rechtsorientierte Facebook-Gruppe „Heart of Texas“ mit 250.000 Follower:innen eine Demonstration an, um „die Islamisierung von Texas zu stoppen“. Gleichzeitig bewarb sie auch die Gegendemonstration “Islamisches Wissen retten” über ihre Facebook-Gruppe „United Muslims of America“.

Die Agentur übte ihre Propagandaaktivitäten auch in Deutschland aus. Die auf Twitter bis 2018 verzeichnete Astroturfing-Kampagne war allerdings relativ klein. Es handelte sich um 102.657 Tweets durch 111 Accounts. Inhaltlich soll die Kampagne ähnlich wie jene in den USA zum Ziel gehabt haben, die gesellschaftliche Spaltung voranzutreiben.

Auch die Ukraine war schon lange Zielregion der Kreml-Propaganda. So ergab eine Untersuchung ihrer Aktivitäten, dass die Agentur unter anderem Falschinformationen über vermeintliche Kriegsverbrechen und Atomreaktorunfälle in der Ukraine verbreitet hatte. Übereinstimmendes haben Whistleblower bereits 2015 der New York Times berichtet. Auch ein Forbes-Artikel klärte schon 2014 über die russische Astroturfing-Kampagne zum Ukraine-Konflikt auf. Zur selben Zeit meldete der Guardian, im Falle von Artikeln über die Ukraine täglich Tausende pro-russische Kommentare zu erhalten.

Für Schmerzmittel und Braunkohle

Astroturfing lässt sich auch im kommerziellen Bereich anwenden. Ein bekanntes Beispiel für einen solchen Einsatz stellt die Lobby-Arbeit des Pharmakonzerns Purdue dar. Der Konzern orchestrierte zusammen mit anderen Firmen eine Astroturfing-Kampagne, um für das Opioid OxyContin zu werben. Purdue wird vorgeworfen, maßgeblich zur amerikanischen „Opioid-Epidemie“ beigetragen zu haben.

In Deutschland enthüllte LobbyControl schon 2009, dass die Deutsche Bahn für verdeckte Werbung bezahlte. So wurden etwa in den Kommentarsektionen von Medien wie dem Spiegel massenhaft Kommentare hinterlassen, die eine Privatisierung zu befürworten. Die Braunkohlelobby hatte laut Recherchen von Lobbycontrol enge Verbindungen zur „Bürger“-Initiative „Unser Revier“, die ähnliche Positionen wie Braunkohleverbände vertrat, so die Transparenzorganisation.

Eine aktuelle Astroturfing-Kampagne kommt von einem Konzern, der selbst gegen digitales Astroturfing vorgeht – von Facebook. Der Konzern soll die Agentur Targeted Victory dafür bezahlt haben, durch Astroturfing seinen Konkurrenten TikTok zu schwächen. Dazu soll die Agentur unter anderem Leserbriefe von „besorgten Eltern“ an die Zeitung Denver Post geschickt haben. Ähnliche Briefe ließen sich auch bei anderen Medien finden. Des Weiteren soll die Agentur ihre Mitarbeiter:innen dazu aufgefordert haben, Geschichten über angeblich gefährliche TikTok-Trends an lokale Medien zu schicken, um sie auf diese Weise zur entsprechenden Berichterstattung zu bewegen.

Kann Astroturfing tatsächlich wirken?

Die Wirkung von Astroturfing-Kampagnen ist bisher noch nicht umfassend erforscht. Nichtsdestotrotz gibt es neue Erkentnisse aus dem deutschen Sprachraum. Wissenschaftler:innen haben dazu in zwei Experimenten die Wirkung russischer Propaganda durch Astroturfing-Kommentare untersucht.

Als Gesamtergebnis stellten die Forscher:innen heraus, dass manipulative Kommentare Wirkung zeigen können. „Zwei Astroturfing-Kommentare mit Zweifel über die russische Verantwortlichkeit bezüglich den negativen Ereignissen reichten aus, um die Wahrnehmung der Leser hinsichtlich der öffentlichen Meinung zu verzerren“, erklären die Wissenschaftler in der neueren der beiden Studien.

Dies geht mit früheren Erkentnissen aus der Psychologie einher: Denken Menschen, dass es einen sozialen Konsens für eine bestimmte Haltung gibt, kann dies Auswirkungen auf ihre Meinung haben. So weisen Studien darauf hin, dass Menschen ihre Meinung eher festhalten, wenn sie einen sozialen Konsens für jene wahrnehmen.

Sprung in die Medien

Eine gut umgesetzte Astroturfing-Kampagne kann auch die Medienwelt beeinflussen – mit erheblichen Folgen. Berichten Medien über Inhalte, die eigentlich aus den Büros einer Astroturfing-Organisation stammen, ist eine wichtige Schwelle überschritten. Nun erreicht die Kampagne auch Menschen, die beispielsweise über das Internet nur schwer erreichbar waren. Beispielsweise hatten einige etablierte Medien, wie CNN, BBC, die Washington Post oder die New York Times Aussagen des von der Internet Research Agency angeleiteten Astroturfing-Accounts Jenna Abrams zitiert. Auf diese Weise erhöhte sich ihre Reichweite stark.

Wissenschaftler:innen haben dieses Phänomen unter die Lupe genommen: Ihre Untersuchung ergab, dass 71 der 117 der untersuchten Nachrichtenanbietern zwischen 2015 und 2017 mindestens einen Tweet der Internet Research Agency zitiert hatten – in insgesamt 314 Nachrichtenmeldungen fanden sie Verweise auf Tweets der russischen Propaganda-Agentur.

Astroturfing als Angriff

Letztlich zeigt sich, dass digitale Astroturfing-Kampagnen keineswegs unterschätzt werden sollten – weder in ihrem Umfang, noch in ihrer Wirkung. Mit Astroturfing lassen sich demokratische Prozesse, Werte und Systeme stören, manipulieren und angreifen. Auf Dauer könnte das schwere Folgen haben, schreibt Corneliu Bjola, Professor für Diplomatiestudien an der Universität Oxford, zu digitaler Propaganda:

Ob durch das Aufhetzen politischer Unruhe, die Beeinflussung von Wahlausgängen oder die Schwächung des Staatswesens – digitale Propaganda hat inzwischen einen Punkt erreicht, an dem ihre langfristigen Folgen für das Staatsgeschehen wohl genauso groß sein können wie ein klassischer militärischer Angriff.

Dass militärische Kriege und Informationskriege zusammengehen, zeigt sich nun auch im russischen Angriffskrieg auf die Ukraine. Die Raketen und Bomben werden von einem Kampf um die Hoheit über die Informationen begleitet. Russland nutzt dabei das ganze Arsenal von Zensur bis Astoturfing. Die ukrainische Seite setzt auf die Potenziale von Emotionen und Memes. Es gibt pro-ukrainische und pro-russische Desinformation, die auch von ganz normalen Nutzer:innen verbreitet wird.

Letztlich bleibt den Nutzer:innen von sozialen Netzwerken in allen Fällen nichts anderes übrig, als vorsichtig zu sein – besonders, wenn plötzlich alle einer Meinung zu sein scheinen.

15 Ergänzungen

    1. Da scheint die Seite aktuell nicht zu funktionieren. Ich habe den Artikel nun durch eine sekundäre Quelle ersetzt. Danke!

  1. Um Astroturfing mache ich mir weniger Sorgen. Die Personalisierung und dauerhafte Beobachtung von Verhalten, Mimik, Stimmung und daraus resultierende Vorhersage-Modellen bei dem Anzeigen/Betrachten bestimmter Inhalte, ist da viel bedenklicher.

    Nur weil die großen Anbieter darüber nicht Schreiben und sprechen, sieht man es leider sehr gut in Echtzeit. Wenn Inhalte eben immer komplett anders erscheinen oder vollständig andere Ergebnisse Kommentare und so weiter heran ziehen.

    Die Verbreitung der Inhalte moderner Medien und vor allem der Konsum über Smartphones, führt leider dazu das an der Stelle die Anwender:innen immer genau vermessen werden. Dieser Effekt ist viel, viel, vieeel Schlimmer als Astroturfing. Da die Auswahl der Inhalte halt vorab schon Erfolgte. Reichweite bestimmen da immer noch diese Unternehmen, wie in klassischen Medien damals auch. China verhinderte die Reichweite indem die Ladezeiten für die Anzeige dieser Inhalte manipuliert wurden oder natürlich indem versucht wird die Wirklichkeit in einer Informationsflut zu vergraben. Aber dies hat Tiktok gar nicht nötig. Natürlich filtern sie Inhalte, Schlagwörter und so weiter. Aber 99,999999% des Internets bekommen die meisten Menschen doch nicht mit und selbst in Summe ist es weniger. Da liegt es nahe, das im „Internet nur das Läuft und Reichweite“ bekommt was gerade Angesagt sein soll. Da darf man sich keiner Illusion hin geben.
    Ist ein wenig wie damals, mit den vielen Büchern in den Regalen, suchen muss man selber. Indirekte Reichweite bestimmten damals noch klassische Werbung und Freund:innen oder Gelehrte usw. Leider ist jetzt ein Großteil dieser Zeit digitalisiert und leider bestimmt das Telefon wann das Smartphone klingelt und in welcher Reihenfolge die Nachrichten angezeigt werden, sondern zunehmend auch wann und wie viel Zeit sich die Empfänger:innen zum Lesen nimmt und in welcher Stimmung sie da gerade sind.
    Selber kann man sich dagegen wehren, Lesezeichen setzen, Inhalte selbst auswählen oder den Akkuzustand selbe bestimmen. Leider wird dies sehr selten beobachtet.

    1. Hallo Chris,

      ich verstehe noch nicht so ganz, was das von dir beschriebene Problem mit Astroturfing zu tun hat, bzw. inwieweit das Sammeln von Nutzerdaten ein Problem in von dir beschriebenen Ausmaß darstellen soll.
      Zum einen, sind Astroturfing und das Sammeln und Auswerten von Nutzerdaten doch zwei verschiedene Probleme, deren Lösungen vollkommen unabhängig voneinander zu bewerten sind. Dass eine substanzielle Gefahr von Astroturfing ausgehen kann wird doch im Artikel ausreichend erläutert.
      Zum anderen, selbst wenn man sich auf personalisierte Empfehlungen fokussiert, wo genau entsteht ein umfangreicher Schaden welcher die Vorteile dieser Praxis aushebelt?
      Sollte dein Vorschlag die Abschaffung entsprechender Algorithmen zur Personalisierung mit einbeziehen, wäre mein Vorschlag, einfach mal auf YouTube, Twitter o.ä. Netzwerken einzig über die Suchfunktion an dich interessierende Inhalte zu gelangen um sämtliche Personalisierungen zu umgehen. Du wirst sehr schnell merken, dass das Sammeln von benutzerbezogenen Daten und damit einhergehend das Erstellen von Inhaltsempfehlungen dir nicht nur enorm Zeit spart sondern dich auch an Inhalte heranführt, wessen Existenz dir vorher gar nicht bewusst gewesen ist.
      Das heißt natürlich nicht, dass bestehende Algorithmen nicht verbessert werden könnten und z.B. in Richtung Datenschutz Verbesserungsbedarf besteht. Aber das pauschale Ablehnen solcher Prozesse erscheint mir nicht sinnvoll.

      Viele Grüße!

      1. Hi Tim,

        du hast natürlich einen wichtigen Punkt angesprochen, mit dem sich eben eine Vorauswahl umgehen lässt und letztlich läuft es halt darauf hinaus ob die Mehrheit intelligente Verfahren nutzt um mit höherem Aufwand an die interessanten Informationen zu gelangen oder ob sich einfach auf einen allgemeinen Gesellschaftlichen Diskurs verlassen wird, welcher wichtige Inhalte hervorheben sollte.

        Obwohl beides durchaus möglich ist und ein wichtiges Korrektiv darstellt. Bin ich mir halt nicht sicher ob es letztlich eine freie Entscheidung war oder sich gerade nur die bessere Werbung oder Lobby durch gesetzt hat. Es ist eine typische philosophische Frage und im Alltag leider genau so schlecht zu beantworten wie in der Theorie, oder nach Studien.

        Wahrscheinlich sollte ich in Zukunft an die selbst reinigenden Kräfte der Gesellschaft glauben und da anderes heran gehen, besonders über längere Zeiträume betrachtet. Spam-Sortieren hat ja auch funktioniert und die ersten Menschen schützen schon ihre Privatsphäre und leben bessere Muster zum Selbstschutz.

        Die Annahme, eine AI, oder Algorithmen besitzt mehr Informationen über uns, so das wir uns dem nicht mehr entziehen können – hat etwas von einem God-Status oder einer Super-Intelligenz. Das ist natürlich Sexy und ich sollte daher diese Allmachtsphantasien eher mit Vorsicht genießen.

        Auf der anderen Seite, basieren diese Aussagen eben auf der Verletztlichkeit der Informationen über Menschen. Daher ist es wichtig „und das Sammeln und Auswerten von Nutzerdaten“ kritisch zu beobachten. Wenn dich die Maschine, besser kennt als du dich selbst, ist das Nudging wesentlich einfacher. Bei einer Masse an Menschen, ist es dadurch noch einfacher bestimmte Verhaltensmuster abzuspielen um einzelne darin mit einer bestimmten Prägung/Erfahrung zu versehen.

        Astroturfing ist wie beschrieben eben wie Spam. Menschen erkennen es und sortieren es aus, es ist dann nur ein Störfaktor, die meisten leben hoffentlich Offline und unterhalten sich mit Menschen über wichtige Themen und dann gibt es das auch im echten Leben, aber bestimmte Dinge sind halt Internet-Mythen.

        So was wie Astroturfing, ist moderne Kriegsführung. Die geht über Ländergrenzen hinweg, ist aber indirekt noch an die Personalisierung der Algorithmen gebunden und wird von den meisten Menschen halt als Spam bemerkt, oder als unnatürlich empfunden.

        Problematisch sind andere Dinge, die eben zu Verhaltensänderung in der echten Welt führen. Da schätze ich ein tägliches Framing der modernen IT um 1000-Fach wirksamer ein als Astroturfing. Denn die Inhalte von Astroturfing sind lediglich Beiträge im Milli-Bereich die dann mal eben eine Erwähnung auf den offiziellen Kanälen finden wenn sie gebraucht werden. Stichwort Relevanz.

        Ach eins noch:
        „Du wirst sehr schnell merken, dass das Sammeln von benutzerbezogenen Daten und damit einhergehend das Erstellen von Inhaltsempfehlungen dir nicht nur enorm Zeit spart sondern dich auch an Inhalte heranführt, wessen Existenz dir vorher gar nicht bewusst gewesen ist.“
        Ich bin da komplett bei dir, wenn du diese Regionalisierung selbst programmiert hast und die Filterregeln selbst gewählt hast. Aktuelle Personalisierung ist für die meisten Menschen eben NICHT sichtbar. Die wissen noch nicht mal wer die 5% anderer Menschen auf der Welt sind und wie die so leben, die eben genau so ticken wie du. Mit vor und Nachteilen. Nur wenn wir selber bewusst entscheiden können und in einer Gemeinschaft darüber entscheiden warum wir das so wollen ist es wichtig. Denn wenn dies im Dunkeln ohne deine Teilhabe statt findet, kann es auch den Schattigen Weg gehen und du landest in einer Drogensucht (negatives Beispiel).

        Im besten Fall wirst du Gelehrter und schreibst wichtige neue kreative Zeugnisse. Aber wie dabei schon genannt, so eine Zukunfts-Bestimmung gibt halt an in welche Richtung deine Intelligenz wächst und ob du überhaupt welche benötigst. Wie Richard Dawkings beschrieb, gibt es aber auch ein Selfish Gene, was nicht unbedingt deine Interessen folgt und im schlechtesten Fall bis du einfach nur ein schneller Stoff-Umwandler und stellst für andere Energie-Nahrung dar.

        Klar unter Gott-Gesichtspunkten … ist das wünschenswert. Aber nicht unter einer Gesellschaft wie der unsrigen. Für mich ist so ein Verhalten leider sehr sehr nah bei dem was die Nazis damals machten. Größenwahnsinn und wollten die Entwicklung bestimmen…. als hätte jemand einen Revolver und alle anderen nicht. Wir sollten an einer transparenten Demokratie arbeiten, wo möglichst alle eine fast gleichwertige Chance auf Bildung haben.

        Mir ist schon klar das es nicht möglich ist, und besonders nicht wenn Computer die Wahrnehmung der Menschen untereinander bestimmen ….

        Astroturfing ist leider nur eine Wahl der Waffen sich dagegen zu wehren. Zumindest behauptet dies meine aktuelle Beobachtung der Russen, die halt einfach keine Lust haben auf die Waffen der Amerikaner und Chinesen, in Bezug auf die aktuelle Weltanschauung und tägliche Wahrnehmung der Realität.*

        Grüße

        Chris

        *Hab das nur genannt weil Propaganda und der Ukraine Krieg auch genannt wurde.

        1. Hi Chris,

          zunächst einmal danke für deine Antwort. Ich kann nun etwas besser verstehen, worauf du dich beim ersten Artikel bezogen hast, halte deine Forderungen aber immer noch für schwierig / kaum umsetzbar.
          Du hast angesprochen, dass die Macht darüber, wie die Algorithmen funktionieren bei den entsprechenden Firmen liegen und dass damit die Gefahr einhergeht, dass die Algorithmen darüber entscheiden können, welche Inhalte du konsumierst und welche nicht. Zunächst stimmt das zwar, jedoch bin ich bei den Schlussfolgerungen nicht ganz bei dir.
          1., die Entscheidung darüber, welche Inhalte wir konsumieren, lag noch nie wirklich vollständig bei den Konsumenten. Vor 50 Jahren, als Informationen noch hauptsächlich über Zeitung, Fernsehen und Radio zugänglich gemacht wurden, haben auch jene Medienhäuser darüber entschieden, welche Informationen wichtig sind und welche nicht. Ich würde sogar argumentieren, dass das Aufkommen des Internets und fortgeschrittener Algorithmen von Meta, Alphabet oder Twitter erst dafür gesorgt haben, dass Themen wie z.B. der Klimawandel erst richtig Fahrt aufgenommen haben. Ich würde daher so weit gehen und sagen, noch nie waren die Konsumenten mündiger in der Auswahl ihrer Inhalte als heutzutage, auch wenn es natürlich nach wie vor Probleme gibt.
          2. Eine „Demokratisierung“, so denke ich könnte man diesen Prozess nennen, der Entscheidung über Inhalte setzt ja die Annahme voraus, dass Menschen im Vorfeld schon wissen, wonach sie suchen, was ja, wie ich schon erklärt hatte, nicht unbedingt der Fall ist.
          3. Angenommen, letztgenannter Punkt wäre eine gute Idee, die gesammelten Daten und Algorithmen sind oft nahezu das vollständige Kapital dieser Unternehmen, wenn wir ihnen die Macht darüber nehmen würden, würden wir ihnen gleichzeitig die Existenzgrundlage nehmen, was bedeutet, dass es keinen mehr geben würde der diese Prozesse weiter entwickelt, da es sich schlicht wirtschaftlich nicht mehr lohnt.

          Insgesamt sehe ich noch die größte Gefahr dabei, dass die Algorithmen dazu führen, dass jemand, der z.B. Propaganda von russischer Seite zum Opfer fällt, immer tiefer in dieses Netz versinkt und die Algorithmen dafür sorgen, dass der Nutzer immer mehr dieser Inhalte zu Gesicht bekommt.
          Hier ein gutes Video von Ultralativ, der dieses Phänomen gut beschreibt:
          https://www.youtube.com/watch?v=jXb-zSPjhPI

          Die logische Konsequenz wäre da jedoch mMn nicht die Algorithmen abzuschaffen oder vollständig transparent zu machen, sondern entsprechende Richtlinien anzulegen, die die Konzerne zwingt, Gegenmaßnahmen in solchen Fällen einzuleiten. Ich bin kein Informatiker, aber ich könnte mir vorstellen, dass es durchaus mittels KI möglich ist, entsprechende Muster aufzubrechen.
          Das vom Autor angesprochene Astroturfing amplifiziert den oben genannten Effekt natürlich, da diese „Flut von Meinungen“ die in diesem Propagandanetz gefangenen Nutzer ja nur noch mehr bestärkt da sie das Gefühl bekommen, dies wäre eine weit verbreitete Meinung.

          Viele Grüße!
          Tim

          1. Hi Tim,

            ich muss gestehen, von dem Winkel habe ich es noch nie betrachtet. Ich werde drüber nach denken.

            Bei der Flut von Meinung und Astroturfing… das trifft halt nur auf Menschen ohne enges soziales Gefüge zu, letztlich eine Randgruppe. Die individuelle Beeinflussung und Zukunftsprognose von Verhalten baut sich ja auf die Interaktion von einem Menschen und seinen Mitmenschen auf, in dem Mitteillungen über Verhalten der anderen, eine Stimmung beschreiben, die den einzelnen Menschen selber in seinem Verhalten ändert. Denn es ist einfacher die Zukunft von einem Menschen zu bestimmen und hochwirksam vorher zu sagen, wenn diese Zukunft dann auch ein trifft. Gerade für Gruppen ist es um so wichtiger, das System skaliert dann.

            Bei TickTock führt es zum Beispiel dazu, das viele Menschen genau die Inhalte kreieren, aus freien Stücken die hier noch per Astroturfing… erstellt wurden. Nur ist es bei TickTock dann eine Chellange oder ein Video mit News über Flatearth. Doch genau so läuft es auch bei Twitter und Co. Bemerkt ein Mensch das viele Inhalte mit Hashtag X viele Follower generieren verstärken sie die Verbreitung, schreiben darüber und so weiter. Aber letztlich hängt dies auch daran ob der Begriff gerade ein Trend ist. Danke für das Video, mir hat Z. T. Buch Twitter and Tear Gas, sehr gut gefallen. Das Video ist ok, aber durchdringt leider nicht den Kern.

            Die Menschen haben noch nicht verstanden das, wenn sie ein Video über YT schauen, von ihrem Smartphone aus über die normale Internetseite und einem Googlebrowser, die Information abfließt wie sich die Augen und die Gesichtsmuskeln zu jeder einzelnen Millisekunde verhalten haben, beim Betrachten des Videos. Und wie die Stimmung zuvor, und danach war.

            Um mal einen kleinen Baustein zu nennen. Die Theorie mit den Empfehlungen und den nächsten Videos und so weiter. Blendet halt einfach aus, über welche Informationen der Konzern insgesamt Verfügt, wenn er jede mögliche Information des durch das Smartphone verarbeitete Betriebssystem als „Kohorte“, ignoriert.

            https://www.3sat.de/wissen/scobel/the-social-dilemma-wie-google-und-co-uns-verkaufen-102.html

            Ach so zu deinem 50 Jahre und es war schon immer so Argument: Das berücksichtigt nicht wie stark die Informations-Verarbeitung sich verstärkte, also mehr Speicher, schnellere Computer, größere Festplatten und die Kosten dafür. Dazu gab es vor 2010 noch keine Smartphones in den Hosentaschen. Zuvor nutzen Menschen eher Computer, heute sind es Smartphones bei deren Nutzung viel mehr Daten anfallen als bei einem „guten“ Desktop-System, mit Anti-Tracking, ohne Kamera, ohne Neigungssensor und ohne Positionsbestimmungen.

            Ich denke noch mal über deine Worte nach, vielen Dank!

            Chris

          2. Naja, wenn wir nicht ohne Farbe draufgucken, ist schon sehr konkret denkbar, dem Nutzer Mittel an die Hand zu geben, Empfehlungen auf Basis einer wiederum durch den Nutzer kontrollierten Auswahl mit durch den Nutzer kontrollierten Parametern bzw. Randbedingungen zu ermitteln?

            Natürlich „geht“ das.

  2. Die Mutter aller Mainpulationversuche ist die Werbung.
    Und in einer Werbung kann immer auch eine Desinformation stecken.
    Werbung für … alles mögliche, wenn wir genau darüber nachdenken, von der Braut bis zum Krieg.
    Das hat es also schon immer gegeben und wird es auch immer wieder geben.
    Einzig die Methoden sind verfeinert und bedienen sich natürlich jetzt auch der neuen Medien.
    Was wir anscheindend noch immer nicht können ist, zu erkennen, wo die Manipulation anfängt.
    Es fängt mit dem Sprachgebrauch an (Stimmlagen), über die Schreibweise eines Satzes (Fragestellung, Behauptung, ..), neuerdings das „Framing“ (Demokratie, Autokratie), bis zu den Bildern/Filmen (Investigativ/Malipulativ) und Bots (programmierten „Robotern“).

    Eine Desinformation ist immer „allgegenwärtig“, durchaus auch unbeabsichtigt.
    Es gibt Unterlassungen, Wort-/Bedeutungsumkehrungen, Bilder, um Nachrichten in einem anderen Licht erscheinen zu lassen.
    Ein Verbot von „Desinformationen“ halte ich für kontraproduktiv.
    Das würde im Umkehrschluss bedeuten, in der dann noch zu erhaltenden Information wäre keine Desinformation.

    Es wird oft von der „Medienkompetenz“ gesprochen.
    Diese zu lehren wäre Aufgabe der Schulen.
    Bereits so „banale“ Dinge wie :
    Verweildauer, Aufmerksamkeitssignale, Werbung je Wischvorgang, Schriftzeichen, Bilder, Farbintensität, Werbung verschwimmt mit der „realen Nachricht“ ….

    Wir müssen lernen,
    nicht, wie ICH den Computer (Handy) BENUTZEN soll,
    sondern die METHODEN , wie ANDERE MICH mit dem Computer (Handy) MANIPULIEREN wollen.

  3. Ich möchte kurz noch mal zu meinem letzten Beitrag etwas schreiben.

    Da hab ich die Ukraine angesprochen und den Krieg. Doch das gehört eigentlich nicht hier her. Informationen besitzen immer eine Macht und aktuell beschäftigen mich diese Frage und die Reaktionen meiner Mitmenschen zu dem Thema. Wenn man davon ausgeht, wahrscheinlich sollte man der Technik dann auch nicht zu viel Macht einräumen, in etwa wie den Götter-Fantasien.

    Ist es nicht hilfreich, die Technik unter solchen Extremzuständen zu beobachten und ohne Gefühle zu vermessen und Einzuordnen. Ja die Gefühle spielen bei uns eine Rolle, aber sie sind selten ein guter Ratgeber weil diese eine eigene Agenda verfolgen. Fast wie Algorithmen die nicht selber bewusst gewählt wurden.

    @FairBert
    Ich denke ein gesundes Maß an Misstrauen ist wichtig. Aber im Grunde betrifft es jeden Sensor der deine Leistungen vermisst. Es ist dann verständlich warum sich Menschen in Gruppen anderer anders Verhalten als privat. Die meisten haben noch nicht verstanden warum ein Smartphone oder eine Automobil, welches Daten erfasst, indirekt eine Öffentlichkeit darstellen. Es hilft darüber zu wissen, aber man darf sich auch nicht verrückt machen lassen indem man sein verhalten spielt oder unnatürlich ändert. Kinder sind auch immer Unschuldig weil sich diese nicht beobachtet fühlen. Als Erwachsene wissen wir aber das genau das Gegenteil der Fall ist.
    (Im guten wie im Schlechten).

  4. Wow – ein toller Artikel. Danke!
    Schade, dass so viele große Zeitungen *nichts* gegen Astroturfing unternehmen. Die Kommentarspalten z.B. von WELT Online dürften voll davon sein. Das liegt daran, dass die dahinterstehende Technik des firmeneigenen Content Management Systems den „Turfern“ in die Hände spielt:
    1. Den Benutzernamen kann man uneingeschränkt ändern und er hat keinerlei Wiedererkennungswert.

    2. Jeder kann Beiträge melden. Nach einer bestimmten Anzahl von Meldungen wird ein Beitrag sofort gelöscht. Man „darf“ sich zwar per Mail an die Redaktion wenden, aber es dauert nach meinen Erfahrungen oft mehrere Tage, bis ein Kommentar wieder freigeschaltet wird. Dann spielt ein Kommentar ohnehin keine Rolle mehr und wird auch nicht mehr gelesen oder geliked.

    3. Gelöschte Beiträge werden nicht nur deaktiviert – sie werden für den Autoren SPURLOS aus dem System entfernt. Als Autor kann ich nicht sehen, welche meiner Beiträge gelöscht wurden und ich erhalte über die Löschung keinerlei Nachricht. Wenn ich mir vorher die Gesamtanzahl meiner Beiträge nicht gemerkt habe, kann ich nicht einmal feststellen, dass mir ein Beitrag fehlt. Nach einiger Zeit der Verwunderung begann ich, meine eigenen Beiträge in einem Word-Dokument mitzuprotokollieren. Und siehe da: Ich verstieß bei weitem nicht jedes Mal gegen die Netiquette… :-)

    4. Nr. 2 und 3 öffnen Tür und Tor für ein von außen gesteuertes System, in dem missliebige Beiträge von Dritten nach Belieben entfernt werden können (zumindest zeitlich begrenzt). Mich wundert, dass WELT Online das mit sich machen lässt. Angeprangert habe ich es per Mail in der Redaktion – eine sinnvolle Antwort erhielt ich nicht.

    5. Alles in allem führt das dazu, dass kaum noch linke oder demokratische Grundhaltungen in den Kommentaren vertreten sind. Selbst Artikel wie „Spuren von Wasser auf dem Mars gefunden?“ beinhalten nach kurzer Zeit Hetze über demokratische Parteien oder Politiker (sinngemäß: „Ja, für die Marsforschung ist Geld da – für den kleinen Mann in Deutschland fehlt es, weil unsere sauberen Damen und Herren Politiker sich die Taschen vollstopfen!“).

    Ich will hier nicht wild herumspekulieren, aber eine so große Zeitung, die – bewusst? – ein so dummes, fehlerhaftes und rückständiges Content Management System einsetzt – da passt etwas nicht zusammen. Hier wäre ich für professionelle Recherche dankbar!

    Immerhin hat WELT Online seine Kommentarspalte seit einiger Zeit für Menschen geschlossen, die kein Abonnement haben. Zu diesen gehöre ich nun auch…

  5. Moin.
    Seit 1984 in der IT, haben ich nur bis Anfang der 90er, einige Aktionen ohne Gewinnabsicht gesehen. Mitte der 90er ging es ja dann schon richtig los. Schwierig wird es dem aktuellen User mittleren Alters zu erklären, dass es mal besser war. Das ist scheinbar ein Problem der Generationen.
    Als Netzwerk Admin usw., sieht man doch etwas mehr, welches man gar nicht sehen will.
    Ich denke, die Informationen stimmen meist nicht. Es werden Worte wie wollen, könnte, vielleicht, aus anderer Quelle, nicht geprüfte Information, ect, ect, pp, verwendet, um wirklich jeden Kram als Sensation darzustellen. Angst war schon immer das Mittel. Siehe Corona. Alle wissen eigentlich nichts. Das ist immer noch so. Genauso verhält es sich mit Krieg, Börse, Cryptos, Dubai, usw. Wer jetzt etwas anderes meint, ist das gewünschte Opfer. Diese Massen sind immer in der Überzahl. Meinungen der sozialen Medien sind die Bestätigung.

    1. „Alle wissen eigentlich nichts. Das ist immer noch so.“

      Nein, dies ist falsch. Sowohl die Inhaber von Facebook oder Tik Tok, wissen genau was sie tun. In der Regel haben große Konzerne wie Alphabet oder Meta, mehr Informationen über die Menschen als sich diese bewusst sind, darunter fallen halt auch nicht öffentliche Sensor-Daten oder Auswertungen eines neuronalen Netzes, welches energiesparend auf dem Smartphone läuft als Bild oder Text-Erkennung.

      Jede Reihenfolge von Push-Nachrichten oder Mitteilungen aus dem eigenen sozialen Netz, werden halt Netzwerke-Übergreifend (Stichwort Administrator) ausgewertet und entsprechend individuell Angestoßen um ein Verhalten, oder auch nur eine Sichtweise (wie finde ich Person X?) betreffend personalisiert. Beispielsweise sehe ich positive Nachrichten zu Kontakt 23, und Nachrichten mit Inhalten die ich eher negativ bewerten würde werden von Kontakt 23 ausgeblendet. Dann ist es natürlich das ich diesen Kontakt interessanter finde und … es ist dann schon nicht mehr meine Entscheidung ob ich mit dem Kontakt mehr Zeit verbringe, sondern das entscheidet der Algorithmus meines Gerätes und dann WIRD der Kontakt auch interessanter. Weil sich die anderen ja nicht melden.

      Skinner hatte recht, wenn er behauptet hat wir sind nur Impulsgetrieben. Leider bestimmen wir die Impulsreihenfolge nicht mehr bei der IT, sondern nur noch in der physischen Welt, wenn wir diese physikalisch, statt digital erleben.

      AC ACE, lasse dich nicht vernebeln. Wir alle haben viele Beispiele für die unterschiedlichen Erfahrungen. Corona, hab ich selber verifizieren dürfen. Wenn du dir unsicher bist, studiere den physischen Code, mache eine PCR selber und vergleiche diesen mit Online verfügbare Informationen über den Molekülaufbau. Gerne auch mit diversen mRNA Impfstoffen.

      Die Informationsebene betrifft andere Dinge.. aber ja besser immer prüfen und verifizieren, weil sich der Fehler gerne einschleicht.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.