Kommentar: Die öffentliche Meinungsbildung wird für Facebook zum Experimentierfeld

Die Zuckerberg’sche Plattform fordert uns per Algorithmus zu mehr „bedeutsamem“ Austausch auf und macht uns zu Richtern über die Qualität unserer Nachrichtenquellen. Damit sollen Fake News und Hassbotschaften der Kampf angesagt werden. Das Grundproblem mangelnder Transparenz bleibt allerdings. Das Spiel mit der digitalen Öffentlichkeit, Akt 2.

Neue Tricks im Spiel um die digitale Öffentlichkeit (Symbolbild). CC-BY-NC-ND 2.0 Barry Chignell

Kaum dass sich die ersten Wogen im Kontext des Netzwerkdurchsetzungsgesetzes (NetzDG) geglättet haben, sorgt Facebook mal wieder für Furore: Es geht um die gleiche Thematik: Fake News, Filterblasen und Hate Speech – Themen, zwischen denen ein Zusammenhang vermutet werden muss. Dieser konnte allerdings bisher nicht belegt werden, denn das soziale Netzwerk verschließt sich bislang jeder Form von Transparenz und Kontrolle.

Nutzerinteraktion stärken, Wahrheit ranken

Nun liegen neue Vorschläge auf dem Tisch, die dem digitalen Babel ein Ende bereiten sollen: Einerseits sollen fortan diejenigen Inhalte im Vordergrund des Newsfeed stehen, die „bedeutsame Interaktion“ zwischen den Nutzerinnen und Nutzern hervorrufen. Ziel sei es, das Wohlbefinden der Konsumenten zu stärken. Andererseits soll die Qualität der Nachrichten in Sachen Glaubwürdigkeit, Informationsgehalt und lokaler Bedeutsamkeit gesteigert werden – durch ein Ranking seitens der Nutzerinnen und Nutzer. Es gehe darum, Quellen zu identifizieren, die nicht nur von einer kleinen Minderheit, sondern von einem Gros der Gesellschaft akzeptiert würden. Das entspräche in etwa der Idee der Verortung von Nachrichten auf einer Art Meinungsmatrix, wie sie Zuckerberg bereits vor einem Jahr äußerte. Sie erlaubte, diejenigen Quellen im Newsfeed zu bevorzugen, die mehrheitlich geteilt werden. Dem Ranking sollen folgende Fragen zugrunde liegen:

1) Kennst Du die folgende Quelle (Webseite) – Ja/ Nein,
2) Inwiefern vertraust Du dieser Domain – Vollkommen/ Sehr/ Manchmal/ Kaum/ Nein

In der Folge streitet nun die ganze Welt, inwiefern man den Nutzerinnen und Nutzern die Verantwortung für das Ranking übergeben kann. Autoren bezweifeln etwa die Repräsentativität solcher Umfragen und sehen die Gefahr der Manipulation. Auch die Bevorzugung von Inhalten, die die Interaktion von Nutzerinnen und Nutzern stärkt, könnte die Verbreitung von Fake News unterstützen. Denn gerade sie sind es, die gemeinhin auf Emotionen setzen und entsprechend viele und heftige Reaktionen hervorrufen. Auch sorgt sich mancher Autor um die generelle Herabstufung politischer Diskurse: Studien aus sechs Ländern, in denen alle professionellen journalistischen Beiträge in einem separaten Feed („Explore“) untergebracht wurden, zeigten Chilling-Effekte: Menschen guckten mehr Cat Content, weniger News. Fake News wurden kaum eingedämmt. Wie sich das Ganze mit dem noch im Sommer von Facebook geplanten Abo-Modell für etablierte Medien verträgt, ist wohl gerade völlig unklar. Aber das Thema ist in der Fülle von Neuerungen auch schnell vergessen.

Poker (Symbolbild) - CC-BY-NC-ND 4.0 Ale Ale

Die weitere Disruption der Medienregulierung, legitimiert durch Nutzer

Bereits vor einem Jahr stellte Zuckerberg nicht nur die automatisierte Bekämpfung von Fake News mittels einer Art Meinungsmatrix und anderen missliebigen Inhalten in Aussicht, sondern gleichfalls neue Formen der politischen Willensbildung auf der Plattform. Ziel war die Entwicklung eines Systems, in dem Nutzer dazu beitragen können, Community-Standards zu setzen. Damals ging es noch um die normative Frage, welche Inhalte legitim sind oder nicht. Da ihm ein globaler Wertekanon nicht erstrebenswert oder möglich erschien, schlug Zuckerberg vor: Jede Person soll so wenig verstörende Inhalte wie möglich sehen und durch entsprechende Einstellungen selbst entscheiden können, wo die individuelle Grenzlinie etwa gegenüber Nacktheit oder Gewalt liegt. Personen, die keine Einstellungen treffen, sollten der Mehrheit der Einstellungen in ihrer Region unterliegen. Einstellungen könnten jederzeit verändert werden.

Das schien aus zwei Gründen bedenkenswert: Zum einen verschoben die Visionen den Diskurs von legalen und strafbaren Inhalten zu von der Masse legitimierten Inhalten. Zum anderen schien es die Rückkehr zur Abstimmung mit Füßen – eine rudimentäre Form der Volksabstimmung, die liberalen Errungenschaften wie dem Minderheitenschutz zuwiderläuft.

Um diese Idee der Normgebung durch Facebook war es still geworden in der Zwischenzeit. Doch das vorgeschlagene Ranking von Nachrichtenquellen durch Nutzer geht genau in diese Richtung. Nur: Es geht dabei nicht um die Normen selbst, sondern um diejenigen Quellen, die Einfluss auf die Normbildung haben können. Indirekt betrifft das natürlich Normen und Werte. Denn den Kontext bildet die strategische Etablierung rechts-orientierter Medienlandschaften, die durch stark politisierende Inhalte versuchen, Gegenöffentlichkeiten zum medialen Mainstream herzustellen. Die Frage ist, welche Quellen Deutungshoheit im Diskurs besitzen. Da hat das Ranking von Quellen entscheidende Bedeutung. Das Resultat wäre die Kollektivierung der Nachrichtenselektion, wie sie früher durch etablierte Medien vorgenommen wurde. Damit stünde das Experten-System, in dem die deutsche Medienregulierung bestimmte und eine ausgewogene Berichterstattung sicherte, vor dem Aus.

Disruption in der politischen Meinungsbildung

Man könnte jetzt streiten über die Neutralität etablierter Medien und ihrer „Wahrheit“. Doch das lenkt ab. Viel wesentlicher scheinen folgende institutionelle Veränderungen:

Die oben beschriebenen Vorschläge legitimierten zunächst die intransparente Nachrichtenselektion: Die vorhandene Nachrichtenselektion wird ergänzt. Bislang steuerte Facebook unsere Wahrnehmung durch eine Personalisierung informationeller Umgebungen, auf Basis individueller Präferenzen und Interaktionen sowie Algorithmen. Anzunehmen ist, dass die dadurch beförderten Echokammern einen erheblichen Anteil an der Verbreitung von Hate Speech und Fake News, an der Radikalisierung der Gesellschaft trugen. Zwar ist unklar, in welchem Maß Algorithmen den Newsfeed bestimmen – im Vergleich mit persönlichen Likes und Präferenzen. Doch genau das soll jetzt, unabhängig von allen offenen Fragen, verstärkt werden – unter Einbeziehung eines Nutzer-Rankings, das ebenfalls intransparent bleibt. Das bedeutet letztlich die Fortsetzung des Bekannten – die Nutzerpräferenzen beeinflussten ja sowieso die Stellung und Bedeutung von Quellen. Der Unterschied besteht in der eindeutigen Beantwortung von Fragen anstelle der indirekten Messung von Likes, Klicks und Verweildauer auf einzelnen Seiten. Aber das Nutzer-Ranking selbst kann natürlich als Legitimation für alle Resultate herangezogen werden. Denn die Nutzer haben ja „gewählt“.

Das Ranking von Quellen ist nicht generell abzulehnen. Bereits am Höhepunkt des Fake-News-Diskurses im vergangenen Jahr gab es Vorschläge aus dem Umfeld von Mozilla zur konstruktiven Moderation von Online-Plattformen. Diese wären allerdings einerseits durch Transparenz gekennzeichnet, andererseits durch ein qualitatives Nutzer-Ranking – auf Basis vorab durchgeführter, veröffentlichter und öffentlich debattierter Studien.

Zudem bedeutete das Nutzer-Ranking die Egalisierung etablierter Medien und Intermediäre. Neben ihrer Bedeutung durch Follower und Friends träte ein Ranking durch die Nutzer, das ebenso über Relevanz bestimmt wie die dadurch beförderte Wahrheit – Inhalte, die als wahr und legitim akzeptiert sind. Damit würde ein auf Ausgewogenheit und Vielfalt ausgerichtetes, nationales System ausgehebelt durch die Selektionsmechanismen eines multinationalen Konzerns, auf der Basis von Masse und Intransparenz.

Was jedoch den stärksten Eindruck schindet, ist der Test von Instrumenten der politischen Willensbildung: Das Ranking kann als indirekte Erhebung politischer Einstellungen gewertet werden. Nutzerinnen und Nutzer gäben preis, was sie lesen und was sie davon halten. In der Gesamtheit ließe sich ein Bild der öffentlichen Meinung skizzieren, wie repräsentativ auch immer das sein mag. Amerikanische Autoren befürchten, dass diese Daten für Werbezwecke verkauft werden. Das ist wahrscheinlich und fügte wohl der aktuellen Debatte um potentielle Wählermanipulation eine Dimension hinzu.

Aber was ist, wenn die „Volksabstimmung“ funktioniert – wenn sie nicht nur schneller und genauer Mehrheitsverhältnisse sichtbar macht, sondern auch akzeptiert wird von den Nutzern? Hätte man dann ein Instrument, was Medien, Parteien und das Parlament ersetzt?

Demokratie braucht Transparenz und Kontrolle

Die Innovationen von Facebook wären mit Sicherheit interessant. Natürlich können digitale Tools demokratische Kommunikation und Organisation unterstützen. Wer sich noch an die Piratenpartei erinnert, kennt ähnliche Tools unter dem Stichwort Liquid Democracy.

Was allerdings Anlass zu größter Sorge geben sollte, ist die Tatsache, dass Methoden der Nachrichtenselektion und Abstimmung ohne jegliche Transparenz und Mitbestimmung entwickelt und eingeführt werden. Trotz größter Manipulationsrisiken und -problemen verweigert Facebook der Öffentlichkeit sowie Forschern und Experten den Zugang zu relevanten Daten. Auch die eigenständige, legale Beschaffung relevanten Materials unterliegt schweren rechtlichen Restriktionen.

Damit gewinnt das Spiel um die digitale Öffentlichkeit an weiterer Komplexität. Experimente zur Mediennutzung und zur politischen Willensbildung werden verkauft als Förderung von Freiheit und Demokratie. In Wirklichkeit mangelt es ihnen grundsätzlich an demokratischen Errungenschaften: Gewaltenteilung, Kontrolle von „Staats“gewalt und Mitbestimmung. Was plötzlich zur Debatte steht, ist nicht mehr nur der einzelne Post von Nutzerinnen oder Nutzern, sondern die Sprachfähigkeit und Relevanz aller etablierten Akteure. Das NetzDG war ein ungenügender Anfang, Facebook unter Kontrolle zu bringen. Facebook schlägt zurück.

2 Ergänzungen

  1. Liebe Julia,

    meinste denn, daß es überhaupt möglich ist in einer Art zu „regulieren“, die ein besseres Ergebnis bringen kann, als AK und ND?

    „die „bedeutsame Interaktion“ zwischen den Nutzerinnen und Nutzern hervorrufen. Ziel sei es, das Wohlbefinden der Konsumenten zu stärken.“
    Darf man das auch „Kundenbindung zum Zwecke der Gewinnmaximierung“ nennen?

    „Auch sorgt sich mancher Autor um die generelle Herabstufung politischer Diskurse: Studien aus sechs Ländern, in denen alle professionellen journalistischen Beiträge in einem separaten Feed („Explore“) untergebracht wurden, zeigten Chilling-Effekte“
    Wie siehst Du das im Kontext mit der hiesigen Löschpolitik?

  2. Facebook ist keine Öffentlichkeit, noch weniger wie es Tagespresse sind oder waren.

    Alle Medienerzeugnisse sind Parteigänger im weitesten Sinne ihrer jeweiligen Besitzer und Aktionäre. Einzig deren politisch-sozialem Duktus verpflichtet und den für Kapitalunternehmen verpflichtenden Gesetzmäßigkeiten unterworfen.

    Besonders große Medien-Konzerne sind Machtzentren ihrer Inhaber, Meinungsführer und Diskursdiktatoren.

    Nutzer dieser Scheinwirklichkeiten, Echokammern bzw. Höhlengleichniss-Zentralen. Auch „virtuellen Viehweiden“ der Nutzer.

    Wirklichkeit konstruiert sich nicht aus dem Labern und Tröten, Wirklichkeit schöpft sich aus der Tat weil nur dies Tat-Sachen schafft.

    Die Cloud – oder Deutsch: Klaut – bedeutet: Jemand hat deine Daten geklaut und auf seinen Rechner gespeichert.

    Facebook, Sozial-Media und Google bedeutet: Jemand hat DIR das Internet geklaut mitsamt seinen Möglichkeiten und DICH auf seinem Rechner gespeichert.

    Lasst euch nicht für Dumm verkaufen! Finger weg von anderer Leuts „Internet-Cloud-System“!

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.