Facebook-Studie: Das Internet ist doch keine „Echo Chamber“

In einer letzte Woche vorgestellten Studie von Eytan Bakshy ergibt sich ein überraschendes Resultat: Die Nutzung des Internets, speziell sozialer Netzwerke wie Facebook, führe nicht wie zuvor behauptet zu einseitiger Information aus den immer gleichen Quellen. Im Gegenteil bekämen Nutzer ein breiteres Spektrum an Nachrichten zu Gesicht.

In den letzten Jahren erfreuten sich die Theorien der „Echo Chamber“ und der „Filter Bubble“ von Eli Pariser großer Beliebtheit. Sie besagen, dass Internetnutzer sich immer mit Informationen aus den gleichen Quellen versorgen und andere Sichtweisen nicht zulassen würden. „Intelligente“ Algorithmen in Suchmaschinen und sozialen Netzen wie Googles PageRank oder Facebooks EdgeRank, die dem Nutzer nur die Informationen anzeigen, die für ihn von Interesse sind, würden diesen Prozess unterstützen. Auf lange Sicht führe dies zu einer Aufspaltung der (digitalen) Gesellschaft in kleine, abgeschottete Interessengruppen.

Die neue Studie wirft ein neues Licht auf die Rolle der sozialen Medien bei der Nachrichtenrezeption: Durch die Manipulation der Facebook-Newsstreams von 125 Millionen Usern war es möglich, eine „Blindstudie“ durchzuführen. Dazu wurde die Facebook-Gemeinde in zwei Gruppen aufgespalten: In der Kontrollgruppe wurde nichts verändert, während in der Timeline von Usern der eigentlichen Testgruppe etwas seltener Nachrichten von Personen angezeigt wurden, die weniger oft in Kontakt zur jeweiligen Testperson standen. So wurde beobachtet, wie sich Nachrichten aus externen Quellen (also Weblinks) durch das Facebook-Netz verbreiten.

Es stellte sich heraus, dass in der Regel die meisten Nachrichten, die ein User liked oder kommentiert, diejenigen sind, die aus dem engeren Freundeskreis stammen. Das ist an sich nicht überraschend. Es stellte sich aber heraus, dass Facebook-Nutzer fast genauso gerne Links von weiter entfernten Freunden weitergeben. Da aber die meisten Facebook-Nutzer weniger „enge Freunde“ als „entfernte Bekannte“ haben, verbreiten sich neue Sachverhalte über Facebook schneller und effizienter als zuvor angenommen.

Die Studie wurde mit Einverständnis und in Zusammenarbeit mit Facebook durchgeführt. Vor allem die schiere Größe der Testgruppen macht dieses Experiment einzigartig: 250 Millionen Menschen nahmen über sieben Wochen lang daran Teil – und merkten es nicht einmal. Beobachtet wurde die Verbreitung von über 75 Millionen externen Links. Das wirft auch ein neues Licht auf die Manipulierbarkeit sozialer Netzwerke – wer garantiert, dass die Bewertungsalgorithmen immer neutral oder zum Besten des Users agieren?

Mal schauen, was die nächste Studie zum Thema sagt. Die kommt dann vielleicht wieder zum gegensätzlichen Ergebnis.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

10 Ergänzungen

  1. „Das wirft auch ein neues Licht auf die Manipulierbarkeit sozialer Netzwerke – wer garantiert, dass die Bewertungsalgorithmen immer neutral oder zum Besten des Users agieren?“
    Diesen Verdacht gibt es beim russischen Vkontakte und natürlich in chinesischen sozialen Netzwerken schon länger. Es erzeugt deutlich weniger Widerstand, wenn man Dinge versteckt, statt offen zu zensieren.

  2. die Dosis macht das Gift trift auch im Netz zu.man sollte auch mal andere Quellen benutzen.ich bin schon sehr alt und habe gelernt auch mal ein buch zu lesen.schön wenn man viele info quellen hat man muss sie auch benutzen kommen,da fehlt bei den meisten die medienkompetenz.sehe da ziemlich schwarz für die zukunft.

  3. „Die Studie wurde mit Einverständnis und in Zusammenarbeit mit Facebook durchgeführt. Vor allem die schiere Größe der Testgruppen macht dieses Experiment einzigartig: 250 Millionen Menschen nahmen über sieben Wochen lang daran Teil – und merkten es nicht einmal. Beobachtet wurde die Verbreitung von über 75 Millionen externen Links.“

    Die Überschrift müsste also lauten: „Facebook ist keine Echo Chamber“.
    Wenn ich mir das Klientel von z.B. PI ansehe, so ist das Weltbild ganz klein und unzugänglich für alles, was nicht reinpasst.

    1. Wir alle suchen immerzu nach Bestätigung unseres Weltbildes. Das ist nicht neu. Die Echo Chamber an Deinem Stammtisch oder in der Lieblingswehrsportgruppe dürfte um einiges intensiver sein, als die im Internet.

      Wer tatsächlich glaubt, die Radikalisierung durch Gruppendenken wäre heute extremer als, sagen wir, vor 100 Jahren, sollte sein Geschichtsverständnis überprüfen.

  4. Witzig, ich hatte die letzten Wochen genau so ein Gefühl. Vielleicht war ich ja in der Gruppe. Dann hat mich mein Gefühl ja vielleicht doch nicht getrübt.

  5. Darf ich mal zusammenfassen: Facebook manipuliert die Nachrichtenzuführung an seine Nutzer für eine Studie, die am Ende den Vorwurf entkräftet, die Nachrichtenzuführung innerhalb von Facebook sei einseitig verzerrt.

  6. Okay, ein wenig ernster. Steht eigentlich in den Allgemeinen Geschäftsbedingungen von Facebook drin, dass man solche Experimente über sich ergehen lassen muss? Und haben die einen eigenen Ethikrat, der soetwas absegnet? Was sind die Standards?

    Insgesamt erscheinen die riesigen potentiellen Probandenzahlen erstmal attraktiv, aber man hat umso mehr Variablen, die man nicht kontrollieren kann und bei denen man hoffen muss, dass sich die Effekte aufgrund der Samplegröße rausmitteln. Ist also alles nicht so einfach.

  7. Ich denke es bleibt abzuwarten wie sich das Internet weiter entwickelt. Retargeting ist das Stichwort für Netzwerkübergreifende Werbung. Wenn Nachrichten und News ähnlich wie in der Werbung Netzwerkübergreifend zugeteilt werden, dann muss man schon von manipulation und Meinungsbildung sprechen.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.