Kontroverse Studie: Facebook spielt mit unseren Gefühlen

facebook_bitesEine kürzlich veröffentlichte Studie hat für großes Aufsehen gesorgt: ein bei Facebook angestellter Forscher hat gemeinsam mit zwei weiteren Wissenschaftlern eine experimentelle Studie verfasst. Darin wurden die Newsfeeds von 689.000 Facebook-Nutzern manipuliert um herauszufinden ob sich die Stimmung eines Nutzers auf andere überträgt. Dazu wurden verschiedenen Nutzergruppen gezielt mehr „positive“ bzw. „negative“ Beiträge angezeigt. Im Vergleich zu Testgruppen, deren Newsfeed-Algorithmus unverändert blieb, wurde dann untersucht ob sich die manipulierten Nutzer anders verhalten. Das wurde daran gemessen, was sie selbst auf Facebook posteten. Das Ergebnis der Forscher: Emotionen sind auf Facebook tatsächlich „ansteckend“. Wer mehr positive Beiträge sieht postet auch selbst mehr Positives. Markus hat das Experiment auch in seiner N24-Kolumne erklärt. Die wissenschafltiche Methodik der Studie wurde durchaus auch kritisiert. Uns interessieren aber vor allem die grundlegenden Fragen, ob solche Experimente überhaupt vertretbar sind und welche Konsequenzen sie haben.

Die Kontroverse: Dürfen die das?

Die aufgrund der Studie entbrannte Diskussion dreht sich um die Kernfrage, ob eine solche Studie ethisch vertretbar ist oder nicht. Zwischen wissenschaftlichen und unternehmerischen Ethikstandards klafft eine große Lücke. Wissenschaftliche Regeln sind aufgrund von Fällen schrecklichen Missbrauchs in der Vergangenheit wesentlich strikter, wie Ed Felten, Professor an der Princeton University, in seinem Artikel erklärt. Ein Unternehmen wie Facebook ist durch solche Regeln nicht gebunden.

Dürfen einfach Experimente mit Menschen gemacht werden, ohne sie vorab darüber aufzuklären, dass sie an einem Experiment teilnehmen? Hätten die Nutzerinnen und Nutzer nicht wenigstens vor den potentiellen Risiken des Experiments, z.B. für ihre psychische Gesundheit, gewarnt werden müssen?

Und für die Wissenschaft?

Ein Kritikpunkt an der Studie ist: die Forscher haben selbstständig darüber entschieden, wie und mit wem das Experiment durchgeführt wird. Das Einverständnis der Facebook-Nutzer wurde natürlich nicht abgefragt, bzw. einfach vorausgesetzt.

Viele wissenschaftliche Studien basieren jedoch auf Manipulation, die Probanden werden oftmals nur darüber aufgeklärt, dass es sich um eine Studie handelt. Es gibt aber auch Experimente, schreibt die Medienwissenschaftlerin Danah Boyd, bei denen absichtlich nicht vorab darüber informiert wird, dass es sich um ein Experiment handelt, weil das die Ergebnisse verfälschen könnte. Wo zieht man die Grenze? Ab wann kann man von einer Zustimmung ausgehen? Einfach Fragen scheint es darauf nicht zu geben.

600px-Facebook_manFacebook hat für die Studie nichts anderes gemacht als auch sonst in seinem „Tagesgeschäft“, wie Boyd in ihrem Artikel anmerkt: Facebook manipuliert ständig den Newsfeed aller Nutzer und damit ihre Gefühle. Die Algorithmen zeigen stets nur eine Auswahl an Beiträgen, von denen man ausgeht, dass der Nutzer sie sehen will. Die Entscheidung was man im Newsfeed zu sehen bekommt und was nicht, basiert allerdings nicht auf transparenten Kriterien. Facebook ist für gewöhnlich eine Blackbox und mit der Studie ist nun ein winziger Teil dessen öffentlich geworden.

Warum betreibt und finanziert ein Unternehmen wie Facebook solche Forschung? Boyd meint: Sie wollen, dass wir glücklich sind. Denn wer mit einem guten Gefühl Facebook verlässt kommt gerne wieder. Die Manipulation gehört zum Geschäftsmodell.

Besser veröffentlichen als verheimlichen

Sollte Facebook keine wissenschaftlichen Studien mehr veröffentlichen? Das dürfte die generelle Problematik kaum lösen, meint Zeynep Tufekci, Professorin an der University of North Carolina, Chapel Hill:

“The only real impact will be the disappointed researchers Facebook employs who have access to proprietary and valuable databases and would like to publish in Nature, Science and PNAS while still working for Facebook. Facebook itself will continue to conduct such experiments daily and hourly, in fact that was why the associated Institutional Review Board (IRB) which oversees ethical considerations of research approved the research: Facebook does this every day.”

Facebook kann seine Experimente auch im Verborgenen weiterführen, dann erfahren wir eben nur noch weniger darüber. Die Wissenschaft hat sicherlich ein Interesse sich einen Zugang zu Facebooks Daten und Programmen zu erhalten. Die Studie war eine Forschungskooperation, die vom sogenannten Institutional Review Board (IRB), eine Institution die Forschungsvorhaben ethisch bewertet, genehmigt wurde. Dort schien man also kein Problem mit der Studie und der Art ihrer Durchführung gehabt zu haben.

Eine Machtfrage

Das die Studie nun eine Debatte darüber angestoßen hat, wie mit dieser Macht von Unternehmen wie Facebook umgegangen werden soll, war dringend notwendig. Wenn Facebook unsere Gefühle beeinflussen kann, dann wahrscheinlich auch unser Wahl- und Kaufverhalten. Doch was können wir tun? Facebook besser nicht verwenden, klar. Aber die Problematik liegt tiefer und ist natürlich nicht auf Facebook beschränkt. Jede große Internetplattform, genauso wie Regierungen, spielen das Spiel mit und investieren in die Erforschung und Steuerung des Nutzerverhaltens, wie Tufekci betont:

“And of course it’s not just Facebook, every major Internet platform, along with governments, are in this game and they are spending a lot of money and effort because this is so important.”

Im Grunde geht es also in der aktuellen Debatte um die Facebook-Studie nicht um die Studie sondern vielmehr um die wachsende Kritik am Geschäftsmodell von Firmen wie Facebook, das auf der Sammlung und Nutzung von Daten beruht. Der berühmte Satz auf der Facebook-Startseite, der Dienst sei kostenlos und werde es auch immer bleiben, stimmt eben nicht. Zeynep Tufekci und Tal Yarkoni diskutieren diesen Punkt sehr engagiert in einem CNN Interview (auf Englisch). Wozu Facebook und andere Dienste in der Lage sind, könne man nicht mit klassischer Marktforschung vergleichen, denn der Einfluss und die Reichweite seien deutlich umfassender und tiefgreifender, als bei „konventionellen“ Marketingmethoden. Denn Facebook arbeite unsichtbar und wisse viel mehr über seine Nutzer als klassische Werbefachleute. Andere Studien zeigen zum Beispiel, dass Facebook auch das Wahlverhalten beeinflussen kann.

Es gehe in der Debatte also nicht in erster Linie um Forschung, sondern um Macht. Die Macht zu bestimmen wie mit Nutzerdaten umgegangen werden soll.

Wie reagieren?

Danah Boyd schlägt die Einrichtung von “Ethik-Beiräten” vor, die nicht nur von den Unternehmen selbst, sondern auch mit Nutzern und Wissenschaftlern besetzt werden sollen. Sicherlich eine diskussionswürdige Idee. Aber der Druck für solche Initiativen muss von unten, von den Kunden kommen. Wer gibt schon freiwillig seine Macht ab? Nur wenn die großen Anbieter sich ernsthaft durch den Vertrauensverlust der Nutzerinnen und Nutzer bedroht sehen, werden sie bereit sein zu handeln. Die Diskussion um die Studie ist ein plakatives Beispiel, doch die grundlegende Frage darf darüber nicht vergessen werden, ganz egal ob es als „Forschung“ oder „Marketing“ bezeichnet wird.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

6 Ergänzungen

    1. DA kannst du auch als Europäer unruhig werden. Die US Außenpolitik ist ja bekannt dafür politische Entwicklungen in fremden Ländern nach ihrem Gusto zu beeinflussen…

  1. Google kann doch genauso die User manipulieren, denn wer weiß schon genau, welche Daten über die User gesammelt werden und wie die Suchergebnisse im Detail zustande kommen?
    So schwarzmalerisch: Massig Daten Sammeln sowie die Menschen ein Stück weit „lenken“ halte ich für gängige Praxis von Unternehmen und staatlichen Organisationen.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.