Das Internet ist kein egalitärer Raum: Ingrid Brodnig über Hate Speech und Wut im Internet

Das Thema Hate Speech und Wut im Internet beschäftigt in Deutschland mittlerweile auch das Justizministerium. Montag diese Woche begrüßte Gerd Billen, Staatssekretär im Justizministerium, im Rahmen einer Diskussionsveranstaltung „die von Facebook in Berlin vorgestellte ‚Initiative für Zivilcourage Online'“. Dem wachsenden Druck auf Plattformbetreiber etwas gegen Hate Speech zu unternehmen stehen Sorgen um zunehmend private Rechtsdurchsetzung gegenüber. In diesem Beitrag geht es um die Frage, wie sich die Aggression auf die öffentliche Debatte und unsere Demokratie auswirkt und wie darauf reagiert werden kann.

Ingrid Brodnig auf der re:publica 2015

Ingrid Brodnig auf der re:publica 2015

Der folgende Gastbeitrag wurde verfasst von Ingrid Brodnig, Autorin („Der unsichtbare Mensch„) und Redakteurin des österreichischen Nachrichtenmagazins profil, dort für die Berichterstattung über digitale Themen zuständig. Der Beitrag ist die schriftliche Fassung ihres Vortrags im Rahmen des 2. Netzpolitischen Abends AT in Wien (siehe auch Videoaufzeichnung). Wir veröffentlichen den Beitrag mit ihrer freundlichen Genehmigung.

Ich möchte mit einem Satz aus einer Studie anfangen. Wissenschaftliche Studien sind meist nicht sonderlich knackig oder leicht verständlich formuliert. In diesem Fall ist das aber anders: Es handelt sich um eine brandneue Studie. Italienische und amerikanische Forscher haben sich angesehen, wie Informationen online genutzt und geteilt werden. Sie haben 32 Seiten auf Facebook analysiert, die sich mit Verschwörungstheorien beschäftigen, und sich alle ihre Posts in den vergangenen fünf Jahren angesehen. Ebenso haben sie 35 Facebook-Seiten ausgewertet, die sich mit Naturwissenschaft beschäftigen. Ich lese eine Grunderkenntnis aus dieser Studie vor:

„User tendieren dazu, sich in Communitys mit dem selben Interesse zu aggregieren, was zu einer Verstärkung des ‚Confirmation Bias‚ führt, zur Abgrenzung und zur Polarisierung. Dies schadet der Informationsqualität und führt zu einer starken Vermehrung von voreingenommenen Sichtweisen geschürt durch unbelegte Gerüchte, Misstrauen und Paranoia.

Es ist also messbar, dass wir ein Problem im Internet haben. Wir können bereits eine Polarisierung und Zersplitterung der Öffentlichkeit wahrnehmen. Die Forscher sprechen von „homogenen und polarisierten Clustern“. Diese Cluster, also Menschenansammlungen auf verschiedenen Seiten, haben eine sehr unterschiedliche Wahrnehmung der Welt. Wie sehr diese Wahrnehmung auseinandergehen kann, erleben wir derzeit auch in der Flüchtlingsdebatte.

Die Forscher beschreiben eine Diskussionskultur, bei der sich User hauptsächlich unter Gleichdenkenden austauschen – zumindest ist das auf Facebook so, wie die Studie nahelegt. Die Erkenntnisse bestätigen die These von der „Echokammer“, also digitalen Räumen, in denen wir hauptsächlich jene Information teilen und konsumieren, die unserer Weltsicht entspricht.

Jetzt werden sicher manche sagen: Na und, war das nicht immer schon so? Haben Menschen nicht immer schon jene Nachrichten gelesen, die ihre Meinung bestärken (früher zum Beispiel in der Parteizeitung)? Ist da denn etwas Neues dran? Die Antwort lautet Ja.

Die Struktur des Internets verstärkt die Möglichkeiten, Gleichdenkende zu finden. Sicher konnte ich früher auch schon Informationen über Verschwörungstheorien erahmten, wenn ich zum Beispiel eine Abonnentin des Ufo-Verlags war. Der Ufo-Verlag heißt heute Kopp-Verlag. Und ich konnte auch bei manchen Veranstaltungen Gleichdenkende treffen: Nur es war deutlich schwieriger.

Oft ist diese Fragmentarisierung, die möglich wurde, bequem: Ich mag es, wenn mir Netflix Serien vorschlägt, die mir gefallen könnten. Oft ist das angenehm. Doch mitunter wird das problematisch. Generell halte ich es bereits für bedenklich, wenn wir in einer Demokratie wenig Kontakt mit Andersdenkenden haben und uns abschotten. Mit Sicherheit ist das aber bei Verschwörungstheorien ein Problem, wenn sich gewisse unbelegbare Erzählungen verfestigen: Etwa dass Impfen Autismus fördert. Oder die Erzählung, dass die Erde in Wahrheit viel größer ist, es mehr Kontinente gibt als bekannt – und die Dinosaurier auch noch leben (eine meiner Lieblingsthesen). Eine derartige Abschottung führt dazu, dass Menschen für uns nicht mehr erreichbar sind – also für uns „andere“, die mit wissenschaftlichen Thesen versuchen, die Welt zu verstehen. Diese User sitzen in ihrer Echokammer und man hört aus der Ferne die Rufe: Lügenpresse, Lügenpresse!

Diese Abschottung erklärt in meinen Augen auch Phänomene wie Pegida. Ich bezweifle, dass das Internet hauptverantwortlich ist für die Gräben in der Gesellschaft oder das allgemeine Misstrauen gegen Politik und Medien. Wohl aber ist es wie ein Katalysator, der gesellschaftliche Entwicklung schneller vorantreibt.

Einige gesellschaftliche Entwicklungen haben wir vielleicht zu lange nicht gesehen – auch im Internet. In der Frühzeit des Web gab es die Hoffnung, dass die pure Existenz der digitalen Kommunikation zu einer aufgeklärten Debatte führt. Der Sozialwissenschaftler Howard Rheingold schrieb im Jahr 1992 folgendes:

Da wir einander nicht sehen können, können wir auch keine Vorurteile über andere bilden, bevor wir gelesen haben, was sie mitteilen wollen: Rassenzugehörigkeit, Geschlecht, Alter, nationale Abstammung und die äussere Erscheinung werden nur bekannt, wenn jemand diese Merkmale angeben will.

Diese Passage spiegelt wider, was lange geglaubt wurde: Dass im Internet alle gleichberechtigt sein würden, weil ihre äußerlichen Merkmale nicht sichtbar sind. Und dass Menschen endlich auf Augenhöhe miteinander diskutieren. Das war eine sehr schöne Vorstellung, dass online das bessere Argument siegt. Doch diese Vorstellung ist großteils nicht Realität geworden.

Im Gegenteil: Online werden häufig jene belohnt, die aggressiv sind. Dazu eine weitere Studie, die das aufzeigt. Sie wurde von den Wissenschaftlern Daegon Cho und Alessandro Acquisti von der Carnegie Mellon University erstellt.

Die beiden Forscher analysierten 75.000 Postings von südkoreanischen Medienseiten. Sie sahen sich unter anderem an, welche Postings die meisten Likes erhielten. Zur Erklärung: In vielen Zeitungsforen kann man Uferkommentare bewerten. Man kann auf Plus oder Minus klicken, auf „Rot“ oder „Grün“ oder auf „gefällt mir“ und man signalisiert damit, ob einem ein Beitrag gefallen hat. Die Forscher werteten das aus und sahen:Postings mit Beschimpfungen erhielten mehr Likes.

Das muss man sich einmal durch den Kopf gehen lassen: Ist ein Kommentar untergriffig oder mit Beleidigungen gefüllt, kriegt er wahrscheinlich mehr Likes. Das ist ein menschlicher Faktor, der dazu führt, dass die Schreihälse oft mehr wahrgenommen werden. Hinzu kommen technische Faktoren: In einer von Algorithmen sortierten Medienrealität wird derjenige, der viele Likes erhalten hat, noch mehr Menschen eingeblendet. Das heißt, eine Kombination aus menschlichen und technischen Faktoren hilft jenen, die besonders ruppig formulieren. Dies erklärt vielleicht auch, warum Heinz-Christian Strache der sichtbarste österreichische Politiker auf Facebook ist.

Das Internet ist meines Erachtens sehr wohl eine Erfindung, die eine fairere Debatte möglich machen könnte. Nur das passiert nicht automatisch. Zu lange gab es diesen Glauben, dass alle im Netz die selben Chancen haben. Aber stimmt das? Haben Zurückhaltende die gleichen Chancen wie Aufdringliche? Haben Frauen die gleichen Chancen wie Männer? Haben spröde Politiker die gleichen Chancen wie Populisten?

Einer der größten Mythen rund um das Internet ist, dass es automatisch ein egalitärer Raum ist. Es fehlen Sicherheitsmechanismen, zum Beispiel eine strikte Moderation, die eine egalitäre Debatte in vielen Räumen erst ermöglicht.

Ich gebe dafür oft folgendes Beispiel: Seit den Neunzigerjahren haben sich Foren nicht maßgeblich verändert. Jeder weiß, wie ein Internetforum aussieht. Der neueste Kommentar ist in der Regel ganz oben. In den Anfangstagen des Internets ergab das Sinn – da gab es oft auch nicht so viele Wortmeldungen. Da war man schon froh, wenn man sieben Wortmeldungen im „Gästebuch“ vorzuweisen hatte. Das ist heute anders: Heutzutage können unter einem Artikel im Standard 1000 Postings erscheinen. In einer solchen Situation werden chronologisch gereihte Kommentare problematisch, denn sie nützen den Rüpeln.

Wenn jemand heute ein Zeitungsforum aufsucht und hundert Mal seine Meinung postet, ist er hundert Mal an erster Stelle prominent sichtbar. Bin ich aber weniger aufdringlich, lese den Artikel und denke mir, “diesen einen Aspekt sollte man noch ergänzen”. Dann ist die Wahrscheinlichkeit hoch, dass ich das nur einmal poste und dementsprechend nur einmal ganz oben sichtbar bin. Aber ist die Meinung von jemandem, der nur einmal postet, wirklich hundert Mal weniger relevant als die Meinung desjegen, der einfach alle anderen niedertextet?

Ich glaube nicht. Wohl aber können wir genau dieses Verhalten auf vielen Webseiten beobachten – und häufig kommt auch noch eine aggressive Tonalität einzelner User hinzu, die andere verstummen lässt. Diese ziehen sich aus der Diskussion zurück.

Nun ist die Wikipedia 15 Jahre alt geworden, ich las neulich eine interessante Zahl dazu: Eine interne Umfrage aus dem Jahr 2011 fand heraus, dass nur einer von zehn Helfern der Wikipedia eine Frau ist. Nur jeder zehnte Wikipedianer ist eine Frau. Erst vor wenigen Wochen brächte der Atlantic einen interessanten Artikel über den Umgang mit Frauen auf Wikipedia. Die Autorin schrieb über das Verhalten mancher Userinnen:

Um zu verhindern, dass sie Ziel von Belästigungen werden, nutzen manche Wikipedianerinnen geschlechtsneutrale Pseudonyme und vermeiden es, bei ihrem Usernamen irgendeine persönliche Information anzuführen.

Das ist doch erschütternd, dass Frauen verheimlichen, dass sie eine Frau sind – damit ihnen gegenüber niemand unangenehm wird. Das ist der Zustand des Internets im Jahr 2016, mehr als ein Vierteljahrhundert, nachdem das World Wide Web erfunden wurde. Ich wurde eingeladen, um über Hate Speech und Wut im Netz zu sprechen. In meinen Augen sind zwei der größten Probleme die bereits genannten: Erstens die Polarisierung, dass sich Menschen abspalten von den anderen – von der „Lügenpresse“ oder den lügenden Wissenschaftlern – und sich mit obskuren Quellen radikalisieren. Und zweitens, dass aggressive Postings extrem sichtbar sind, während nuancierte Wortmeldungen oft gar nicht so sichtbar aufscheinen.

Wie gesagt: Das Internet ist zum jetzigen Zeitpunkt kein egalitärer Raum. Das Skurrile daran – das war nie böse gemeint. Die Gründe dafür sind sogar wohlmeinend. In vielen digitalen Debatten gibt es seit Anbeginn des Internets das Bestreben, bloß keine Meinung zu sanktionieren, also eine möglichst sanktionsfreie Rede zuzulassen. An sich ein edles Bestreben!

Nur ist offensichtlich, dass das diese Strategie nicht immer funktioniert. Wenn ich jede Meinung egalitär behandle, setzen sich jene durch, die sich groß fühlen, wenn sie andere klein machen. Wenn ich jede Art der Aussage egalitär behandle, gebe ich einer Lüge gleich viel Gewicht wie einer belegbaren Aussage.

Ich will ein Beispiel geben für die Niederträchtigkeiten, die in die öffentliche Debatte eingekehrt sind. Es ist wahrscheinlich einigen bekannt:

Dieses Zitat ist erfunden (Quelle: Screenshot Grüne Österreich)

Dieses Zitat ist erfunden (Quelle: Screenshot Grüne Österreich)

Auf Facebook kursierte vergangenen Herbst ein Foto von Eva Glawischnig, der Chefin der österreichischen Grünen. Daneben das angebliche Zitat von ihr: „Schutzsuchende müssen das Recht haben auf Mädchen loszugehen! Alles andere wäre rassistisch Flüchtlingen gegenüber!“ Es wird also behauptet, Eva Glawischnig fände die Vergewaltigung von österreichischen Mädchen in Ordnung. Das Bild verbreitete sich wie ein Lauffeuer im Internet. Es wurde tausende Male geteilt und die Grünen gehen davon aus, dass derartige Sujets von mehr als hunderttausend Österreichern gesehen wurde.

Natürlich ist dieses Zitat ein Fake. Nichtsdestotrotz glauben viele User, dass die Aussage echt ist. Sie posteten in Rage sehr verletzende Dinge. Sie forderten zum Teil sogar, dass Eva Glawischnig vergewaltigt wird, schrieben Kommentare wie: „dann nehmt euch gleich diese Tante vor als glänzendes Beispiel“. Oder: „stell dich hin, dann können die ja auf dich losgehen!“

Die Grünen gehen nun juristisch gegen diese Sujets vor. Ich finde das gut, wenn es zunehmend ein Bewusstsein unter Politikern und Richtern gibt, welche Formen von Hate Speech kursieren. Es ist auch deswegen richtig, gegen derartige Fälschungen vorzugehen, weil sonst User glauben: Das hat die betroffene Person wirklich gesagt.

Es ist eben ein Irrtum, das im Internet jede Stimme und jeder User gleich schützenswert ist:

  • Eine Diskussionskultur, bei der Frauen konstant als „Schlampe“ oder als „naive Göre“ abgestempelt werden, ist nicht schützenswert.
  • Eine Diskussionskultur, in der Verschwörungstheorien gleichrangig mit wissenschaftliche Fakten behandelt werden, ist nicht schützenswert.
  • Eine Diskussionskultur, wo – wenn man all dies anspricht – der Aggressor dem Opfer sagt, „lass dir hat eine dickere Haut wachsen“, die ist nicht schützenswert.

Die Debatte darüber ist schon stärker geworden. Meines Erachtens müssen wir diese Probleme aber so lange ansprechen, bis wir richtig gute Antworten darauf haben. Bisher haben wir zumindest ein paar Ideen.

Was könnte man tun?

Die letztgültige, stets funktionierende Lösung gibt es bisher nicht, wohl aber ein paar Ansätze. Ich glaube, müssen wir das Diskussionsniveau heben und eine klare rote Linie ziehen. Das bedeutet, dass Webseitenbetreiber und Onlinemedien mehr Verantwortung für die Tonalität übernehmen müssen – und möglichst schimpfwortfreie Räume schaffen.

Diese schimpfwortfreien Räume sind nicht nur eine Frage des Geschmacks. Es geht hier nicht darum, ob man eine dünne Haut hat. Schimpfworte haben eine Wirkung. Das legte eine Untersuchung der University of Wisconsin nahe.

Diese Forscher haben einen Blogeintrag zur Nanotechnologie verfasst, der wirklich sehr ausgewogen war. Darin wurden die positiven Seiten und negativen Seiten der Nanotechnologie beschrieben – und darunter fand man auch Postings. 1100 Amerikaner haben diesen Beitrag gelesen und darunter auch die Kommentare gelesen. Nur die eine Hälfte las Postings, in denen zwar lebhaft diskutiert wurde – aber ohne Schimpfworte. Und die andere Hälfte las die selben Postings, nur waren da noch Schimpfworte eingeflochten. Dort stand dann in die Richtung: „Und wer das nicht versteht, ist ein Idiot.“

Die Forscher verglichen, wie diese zwei Gruppen über Nanotechnologie dachten. Und sie nennen ihre eigenen Ergebnisse „verstörend“. Die Gruppe, die die Schimpfworte gelesen hatten, lehnten plötzlich das Thema Nanotechnologie wesentlich stärker ab. Die waren dem deutlich negativer gegenüber eingestellt als die Gruppe, die keine Schimpfworte gelesen hatte.

Das legt den Schluss nahe: Ich kann rein mit Aggression, nicht mit Argumenten eine Debatte kaputtmachen. Natürlich hat das weitreichende Konsequenzen: Wenn ich rein mit Schimpfworten eine Debatte kaputtmachen kann, dann schauen wir uns nur an, was mit dem Feminismus passiert. Unter den Zeitungsartikeln, die den Feminismus behandeln, hagelt es regelrecht Schimpfworte. Sollten dort ähnliche Effekte wie beim Text zur Nanotechnologie eintreten, dann haben wir ein Problem.

Auch aus solchen Überlegungen gibt es Medien wie das Bloggingimperium „Gawker“, das das Kommentarsystem schon stark verändert hat. Dort werden nicht mehr die neuesten Beiträge angezeigt, sondern Beiträge auf die der Autor des Textes irgendwie reagiert hat, damit interagiert hat. Vielleicht hat der Autor dies für andere empfohlen oder darauf geantwortet. Das ist ein Versuch, jene Beiträge hervorzuheben, die für die anderen User am interessantesten sind – und nicht immer die lautesten User.

Zum einen sollten wir auf einen respektvollen Ton achten – allein schon, um es denen nicht ganz so einfach zu machen, die schlichtweg mit Schimpfworten daherkommen. Zweitens glaube ich auch, dass wir dies stärker kommunizieren müssen, dass nicht jede Wortmeldung inhaltlich gleich viel Gewicht hat.

Gerade rechte Verschwörungsblogs sind recht unterhaltsam, weil sie gerne vom Begriff der „Wahrheit“ sprechen. Ein bisschen Wahrheitsfindungskultur täte dem Internet tatsächlich gut – also einfach nachzurecherchieren, was stimmt und was nicht und wie lässt sich das belegen? Was hat mich zum Ergebnis meiner Recherche geführt? Auch traditionelle Medien können hier noch wesentlich transparenter offenlegen, woher sie eine Information haben. Das passiert oft nicht. Es ist aber auch sehr gut, dass Blogs diese Funktion zunehmend miterfüllen. Zum Beispiel das Blog Kobuk, das Medien kontrolliert. Oder auch der Verein Mimikama, der die Facebook-Seite „Zuerst denken – dann klicken“ betreibt: Die zeigen oft auf, dass Beiträge gefälscht sind, dass kürzlich nicht eine 75-jährige Schwedin brutalsten von Flüchtlingen vergewaltigt wurde und ein Bild dies anschaulich zeigt – sondern dass dieses Bild schon älter ist und aus Südafrika stammt.

Sehr oft sind diese Fälschungen überprüfbar: Wir brauchen eine Diskussionskultur, bei der die Grundsätze des logischen Denkens und des fairen Diskutierens wieder mehr geachtet werden. Eine, wo Verschwörungstheorien nicht auf die gleiche Ebene wie belegbare Ergebnisse gestellt werden.

Dazu ein Beispiel. Wenn zwei Diskutanten auf einer Bühne stehen und der eine sagt: „Die Evolution hat es nie gegeben, Gott hat die Erde geschaffen.“ Und die andere Person sagt: „Doch! Die Evolution hat es gegeben, denn diese und jene wissenschaftlichen Überlegungen und Messungen haben uns zu dieser Erkenntnis geführt.“ Dann ist die Antwort nicht, wie es manchmal heißt, „irgendwo dazwischen“. Die richtige Antwort ist nicht automatisch der Mittelpunkt zwischen zwei entgegengesetzten Meinungen. Doch eine derartige Sichtweise erlebt man mitunter in den sozialen Medien – da heißt es mitunter in den Kommentaren: „Von diesen argen Geschichten liest man so oft. Da wird schon was dran sein.“

So etwas nennt man übrigens „false balance„, es ist ein Irrglaube, dass es ausgewogen ist, dass der Mittelpunkt zwischen zwei Standpunkten automatisch die Wahrheit widerspiegelt. Es ist nicht ausgewogen, eine wissenschaftlich belegbare Aussage und eine wissenschaftliche nicht belegbare Aussage auf die gleiche Ebene hebe.

Dass sich manche User in verschwörungsaffine Räume zurückziehen, das wird wohl nur schwer zu verhindern sein. Wahrscheinlich ist es nicht verhandelbar. Aber zumindest können wir schauen, dass wir die seriöseren Räume, die Räume, wo eben nicht nur die verschwörungstheorieaffinen User unterwegs sind, wieder etwas mehr mit Fakten und weniger mit Emotion füllen.

Die öffentliche Debatte wird derzeit zu sehr von rhetorischen Nebelgranaten abgelenkt – das ist sowohl offline als auch online der Fall. Doch gerade im Netz hätten wir eine große Chance: Hier können wir verlinken, hier können wir Aussagen häufig doch recht leicht überprüfen oder gar – wenn man transparent vorgeht – sogar aufzeigen, wo man eine Information her hat. Wenn wir das in Zukunft stärker tun, lassen wir uns vielleicht nicht mehr so leicht ablenken. Ich glaube jedenfalls, eine andere digitale Diskussionskultur muss möglich sein.

84 Kommentare
  1. Steinhart Stehter 19. Jan 2016 @ 11:45
    • Frl. Unverständnis 20. Jan 2016 @ 10:07
    • Andreas K. 21. Jan 2016 @ 7:59
    • dot tilde dot 22. Jan 2016 @ 8:39
    • Andreas K. 21. Jan 2016 @ 8:04
    • Andreas K. 21. Jan 2016 @ 8:18
  2. Medienkompetenz, Bildung und Sozialarbeit helfen besser als Zensur 20. Jan 2016 @ 11:52
    • letzter teil mal verständlich zusammen gefasst 20. Jan 2016 @ 12:02
  3. Anders Bengtsson 20. Jan 2016 @ 12:12
    • Medienkompetenz, Bildung und Sozialarbeit helfen besser als Zensur 20. Jan 2016 @ 12:38
    • Philip Engstrand 20. Jan 2016 @ 16:51
    • Andreas K. 21. Jan 2016 @ 8:15
  4. Es ist also messbar, dass wir ein Problem im Internet haben. 20. Jan 2016 @ 14:31
  5. Robert aus Wien 20. Jan 2016 @ 15:45
  6. Albert Walzer 20. Jan 2016 @ 19:28
    • Oh jeh, die Kommentare. 20. Jan 2016 @ 20:55
Unterstütze unsere Recherchen und Berichterstattung für Grundrechte und ein freies Internet durch eine Spende. Spenden