Hatespeech, Fake News, Skandalisierung und Verschwörungsmythen: Es gibt viele Symptome, die darauf hinweisen, dass es um den Zustand der digitalen Öffentlichkeit nicht allzu gut bestellt ist. Ein internationales Forscherteam hat am Montag im Fachmagazin Nature Human Behaviour Lösungsvorschläge vorgestellt, wie einige der Probleme geheilt und Soziale Medien als Diskursplattformen verbessert werden könnten.
Im Wesentlichen geht es den Autoren Philipp Lorenz-Spreen (Deutschland), Stephan Lewandowsky (Australien), Cass Sunstein (USA) und Ralph Hertwig (Deutschland) darum, Nutzer:innen bessere Informationen und mehr Entscheidungsmöglichkeiten zur Verfügung zu stellen. Beispielsweise sei die Angabe, dass ein Artikel über 4.000 Likes bekommen habe, allein wenig wert. Erst mit der Information, dass der Text mehr als eineinhalb Millionen Mal angeklickt worden sei, könne die Zahl mündigen Nutzer:innen wirklich Orientierung bieten.
Als Ursache für die vielen Probleme der Sozialen Netzwerke haben die Autoren die informationelle Entmündigung der Nutzer:innen durch die Plattformbetreiber:innen ausgemacht: „Für demokratische Gesellschaften ist es eine bedenkliche Entwicklung, wenn intransparente Algorithmen einiger weniger Konzerne entscheiden, was wir im Internet zu sehen bekommen“, heißt es in der zugehörigen Pressemitteilung des Max-Planck-Instituts für Bildungsforschung.
Nudging für die gute Sache
Soziale Medien sind heute wichtige Foren der politischen Öffentlichkeit, alle bedeutenden gesellschaftlichen Diskurse haben inzwischen auch eine Online-Komponente. Das Geschäftsmodell dieser sozial-digitalen Infrastruktur führt jedoch zu einem grundlegenden Widerspruch: Statt möglichst gesunde Debatten zu ermöglichen, werden die Plattformen in erster Linie darauf optimiert, die Aufmerksamkeit der Nutzer:innen möglichst lange zu halten und sie auf bezahlte Inhalte zu lenken. Bevorzugt werden deshalb solche Inhalte, die möglichst viele Reaktionen hervorrufen.
Viele Forscher:innen führen für Facebook, Youtube und Co. permanent verhaltenspsychologische Experimente durch, um den bestmöglichen Effekt zu erzielen: Wie muss die Plattformen gestaltet sein? Welche Informationen müssen Nutzer:innen wie präsentiert bekommen und welche Auswahlmöglichkeiten sollte es geben? Für diese Form der Beeinflussung hat Co-Autor Cass Sunstein Ende der 2000er Jahre den inzwischen weit verbreiteten Begriff des „Nudging“ mitgeprägt, was auf Deutsch so viel wie „Anstupsen“ bedeutet. Wenn gezielt designte Online-Umgebungen Nutzer:innen in eine bestimme Richtung lenken, spricht man inzwischen häufig auch von „Dark Patterns“: verborgene Muster, die die Entscheidungen der Nutzer:innen vorprägen und sie auf den gewünschten Weg führen – etwa zum unüberlegten Impulskauf im Online-Shop oder zu den schwächsten Datenschutzeinstellungen.
Die Autoren schlagen nun vor, die gleichen Mittel anzuwenden, um die Sozialen Medien besser zu gestalten: Mit Ideen aus der Verhaltensökonomie wollen sie die Transparenz der Plattformen und die Autonomie der Nutzer:innen verbessern. Nudging ziele schließlich darauf ab, „das Verhalten von Menschen ohne explizite Regeln oder Verbote in eine bestimmte Richtung zu lenken, indem auf wichtige Informationen hingewiesen wird.“ Durch bestimmte Gestaltungsentscheidungen könnte zudem die Entscheidungskompetenz der Nutzer:innen erhöht werden, sogenanntes „Boosting“. Technisch verfügbar seien diese Lösungen schon heute, sie würden nur nicht umgesetzt.
Autonomie über den eigenen Newsfeed
Viele der „Interventionen zugunsten eines demokratischeren Internets“, die die Autoren vorschlagen, setzen bei der Informiertheit der Nutzer:innen an. Menschen könnten die Qualität von verlinkten Artikeln beispielsweise deutlich besser einschätzen, wenn sie wüssten, wie oft der Text angeklickt wurde. Wie viele Likes ein Post bekommen hat, könnte dann ins Verhältnis gesetzt und besser eingeschätzt werden. Hilfreich wären auch öffentliche Angaben über die Verweildauer und darüber, wie viele der Leser:innen den Text auch wirklich bis zum Ende gelesen haben, meinen die Autoren.
Nutzer:innen sollten zudem Informationen darüber erhalten, wer bestimmte Inhalte erstmalig gepostet hat und wie sie sich verbreiteten. Artikel, die verschiedene Quellen beinhalten und diese auch verlinken, könnten in der Darstellung in Sozialen Netzwerken zudem bevorzugt werden. Andersherum könnten Nutzer:innen, die einen Artikel ohne ausreichend Quellen teilen wollen, mit einem Pop-Up-Fenster gewarnt werden. Außerdem könnte es Nutzer:innen helfen, wenn unterschiedliche Inhaltsarten – also beispielsweise Posts von Freund:innen, Posts von Organisationen, journalistische Inhalte und Werbung – in Nachrichtenfeeds klar als solche gekennzeichnet würden. Bisher trifft das meist nur auf Werbung zu – und auch diesen Hinweis muss man suchen.
Information alleine reicht den Autoren zufolge jedoch nicht aus, um die digitale Öffentlichkeit zu reparieren. Als womöglich weitreichendsten Schritt schlagen sie vor, den Nutzer:innen tatsächliche Autonomie über ihre Newsfeeds (wieder) zu geben: Sie sollen selbst anpassen können, nach welchen Kriterien Soziale Netzwerke ihnen Inhalte anzeigen.
Ich glaube, diese Forscher wissen sehr wenig über die Erwartungen, Anforderungen und Motivationen der Nutzer.
Warum sind Dienste wie Facebook oder Instagram erfolgreich? Weil sie einfach sind. Warum liken Menschen Beiträge? Wie sie ihren Erwartungen entsprechen und/oder unterhaltsam sind. Weitere statistische Angaben werden daran nichts ändern und die Dienste höchstens weniger attraktiv für ihre Nutzer machen. „Mehr Autonomie für den Newsfeed“ mag ein schöner Gedanke für eine kleine Elite sein, aber sicher nicht für die breite Masse der Nutzer.
Lösungsvorschläge für Probleme sozialer Medien ohne Berücksichtigung des zugrunde liegenden Geschäftsmodells der dominierenden kommerziellen sozialen Medien sind naiv.
Aber für freie soziale Netzwerke macht es durchaus Sinn, darüber nachzudenken, ob und wie man in den Newsfeed des einzelnen Nutzers eingreifen darf.
Soziale Netzwerke laufen wg. der Eigenheiten der menschlichen Psyche prinzipiell Gefahr, Inhalte, die Angst, Hass und Gewalt enthalten, überproportional zu verstärken.
Man könnte also die Frage aufwerfen, ob und durch welche Eigenschaften z.B. Mastodon besser gegen die Verstärkung von Angst-, Hass- und Gewaltinhalten geschützt ist als Twitter.
Eine naheliegende Antwort wäre das Maß der Kontrolle über den eigenen Newsfeed.
Bei Twitter entscheidet eine KI, welche Inhalten bei jedem Einzelnen „trenden“.
Bei Mastodon bekommt man ungefiltert ausschließlich alles, was die Leute Posten oder Liken, denen man folgt. Zumindest bis vor Kurzem. Neuerdings ist mir auf mastodon.social eine automatisch generierte Trends-Rubrik aufgefallen und es dauerte auch nicht lange, bis dort die selben problematischen Themen trendeten wie auf Twitter. https://netzpolitik.org/2020/hunderttausende-tweets-ueber-ein-ereignis-das-es-nicht-gab/
„Menschen könnten die Qualität von verlinkten Artikeln beispielsweise deutlich besser einschätzen, wenn sie wüssten, wie oft der Text angeklickt wurde. Wie viele Likes ein Post bekommen hat, könnte dann ins Verhältnis gesetzt und besser eingeschätzt werden. Hilfreich wären auch öffentliche Angaben über die Verweildauer und darüber, wie viele der Leser:innen den Text auch wirklich bis zum Ende gelesen haben, meinen die Autoren.“
Keines dieser Merkmale ist auch nur ein Indiz für Qualität! Wie tumb muss man sein, wenn man derartige Qualitätsmerkmale anwendet?
Es hilft nichts, man muss schon selber denken:
– Gibt es Quellenangaben, wie sind sie zu bewerten?
– Ist der Artikel in sich schlüssig oder gibt es Widersprüche, Fehler?
– Sind die Begrifflichkeiten angemessen oder verwendet der Autor eingeschliffene Narrative oder Schlagworte einer bestimmten Meinungsgruppe/Partei ?
– Wie steht dieser Artikel zu anderen Meinungen von Menschen, deren Reputation ich anerkenne?
– Gibt es eigene Erkenntnisse aus der Lebenswirklichkeit, an denen die Aussagen im Artikel gemessen werden können?
– Welche Erfahrung habe ich mit dem Autor in der Vergangenheit gemacht? Wie glaubwürdig ist er?
– Welches Ziel beabsichtigt ein Artikel? Will er mich etwa zu einem bestimmten Handeln lenken (Nudging) ? Dann wird er Zweifel und andere Sichtweisen eher unterdrücken.
Die genannten Forscher sollen den Bürger nicht manipulieren (z.B. Nudging). Sie sollen ihnen Methoden an die Hand geben, Text zu analysieren und ihren eigenen Wahrnehmungen zu trauen!
Nudging ist Manipulation. Heiligt der Zweck die Mittel, wenn man vorgibt, zum Guten zu manipulieren?
Wenn Manipulation bzw. Nudging erkannt wird, wird Reaktanz aktiviert. Das kann dazu führen, dass ein Generalverdacht internalisiert wird, man werde doch überall und immer manipuliert.
Nudging kann Aufklärung, Bildung und Einsicht nicht nachhaltig ersetzen. Wird Nudging als Methode situativ erkannt, kann das zu Boykott, Umgehung und bis zu aktiver Gegenwehr führen.
Bitte generell beachten, dass das Sammeln von Daten einen Rechtfertigungsgrund benötigt. Wo es um soziales und/oder psychologisches Messen von Nutzerparameter geht braucht man Argumente, wie Nudging. Ein „guter Zweck“ rechtfertigt dann Beobachtung und Messung von psychologischen Parametern.
Manipulation bleibt idiotisch. Manipulationsfreier (möglichst) Zugang zu Information ist imperativ, könnte Einbeziehen verschiedener Perspektiven zwangsweise beinhalten.