Wie Facebook Betroffene über den Datenfluss an Cambridge Analytica (nicht) informiert

Seit einigen Tagen können Facebook-Nutzer*innen prüfen, ob auch ihre Daten an die Anbieter eines Persönlichkeitstests gingen, die sie an Cambridge Analytica weitergaben. Statt vorbehaltlos zu informieren, flüchtet sich der Datenkonzern dabei jedoch wieder in schwammige Formulierungen. Echte Aufklärung sieht anders aus.

Microtargeting: Gezielte Beeinflussung von Klein- und Kleinstgruppen – CC0 Geralt

Von dem Datenskandal um Facebook und Cambridge Analytica sind nach Facebook-Angaben in Deutschland rund 300.000 Menschen betroffen. Seit dieser Woche können eingeloggte Nutzer*innen auf einer dafür eingerichteten Facebook-Seite checken, ob auch ihre Daten an die Betreiber des Facebook-Persönlichkeitstests „This Is Your Digital Life“ geflossen sind.

Die Anwendung sammelte nicht nur Informationen über die etwa 270.000 Menschen, die sie bewusst genutzt haben, sondern auch über deren Facebook-Kontakte. Die Firma hinter der App, Global Science Research (GSR), gab die Daten an die britische Big-Data-Firma Cambridge Analytica weiter und wurde von ihren Gründern Aleksandr Kogan und Joseph Chancellor 2014 genau zu diesem einen Zweck geschaffen. Insgesamt sollen bis zu 87 Millionen Menschen betroffen sein, der Großteil davon US-Bürger. Kogan war damals Assistenzprofessor am Lehrstuhl für Psychologie der Universität Cambridge und gab vor, die Daten für wissenschaftliche Zwecke zu nutzen.

[Alle weiteren Informationen und Hintergründe gibt es in unserem FAQ]

Um diese Daten geht es

Seit kurzem kursieren in den Sozialen Medien erste Screenshots von Benachrichtigungen, die Betroffene auf der Prüfseite erhalten. Scheinbar nimmt es Facebook mit der vorbehaltlosen Aufklärung seiner Nutzer*innen dabei trotz aller Beteuerungen wieder nicht so ernst. So heißt es in einer auf Twitter geteilten Mitteilung an eine betroffene Person lediglich vage:

Unsere Nachforschungen haben ergeben, dass du dich vermutlich nicht über Facebook bei „This Is Your Digital Life“ angemeldet hast, bevor diese 2015 gesperrt wurde. Allerdings hat sich ein Freund oder eine Freundin von dir dort angemeldet. Daher wurden wahrscheinlich die folgenden Informationen mit „This Is Your Digital Life“ geteilt: Öffentliches Profil, „Gefällt mir“-Angaben für die Seite, Geburtstag, aktueller Wohnort.

Einige wenige bei „This Is Your Digital Life“ angemeldete Nutzer haben auch ihren eigenen News Feed, ihre Chronik, Beiträge und Nachrichten geteilt. Es kann sein, dass darin Beiträge und Nachrichten von dir enthalten waren und deine Heimatstadt weitergegeben wurde.

Der Verweis auf das „öffentliche Profil“ ist ein geschickter Versuch, nicht einzeln aufzuschlüsseln, was neben Likes und Soziodemographischen Daten noch zum Datenpaket gehörte, das Facebook für Cambridge Analytica schnürte. Wir haben deshalb bei der Presseabteilung des Unternehmens nachgehakt, um Klarheit zu bekommen. Demzufolge gehören zum „öffentlichen Profil“ auch der Name, das Geschlecht, der Username, die User-ID, das Profilbild, das Titelbild und das Kontaktnetzwerk. Je nachdem, wann die Kogan-App genutzt wurde, hat Facebook neben den in der Mitteilung erwähnten Daten auch E-Mailadressen weitergegeben, sagte eine Facebook-Sprecherin.

Neu ist zudem die Info, dass auch private Nachrichten an die App-Betreiber und Cambridge Analytica geflossen sein könnten. Auch hier bleibt Facebook vage. Auf Nachfrage heißt es von einer Sprecherin dazu, dass Facebooks Plattformregeln es App-Anbietern bis 2015 ermöglicht haben, auch das Postfach von Nutzer*innen auszulesen – aber nur, wenn Betroffene eine explizite Zustimmung gegeben hätten. Dies sei bei etwa 1500 Nutzer*innen der Kogan-App der Fall gewesen. Was Facebook nicht sagt: Auch hier sind natürlich ebenfalls die Menschen betroffen, die mit den 1500 Leichtsinnigen Nachrichten geschrieben haben, sodass die tatsächliche Zahl deutlich höher ausfällt.

Aus Daten werden Persönlichkeitsprofile

Die Big-Data-Firma Cambridge Analytica hat diese Daten genutzt, um Persönlichkeitsprofile von Wählern zu erstellen, die dann unter anderem von Donald Trumps Kampagne im US-Präsidentschaftswahlkampf genutzt wurden. In Kombination mit dem Fragebogen zur Analyse von Persönlichkeitseigenschaften nach dem sogenannten OCEAN-Modell, den die eigentlichen Nutzer*innen der App ausgefüllt haben, ergab sich hierfür eine umfangreiche Datenbasis. Schließlich wurden auch die zig Millionen Menschen, die den Fragebogen in der App gar nicht ausgefüllt hatten, in dessen Kategorien eingeteilt: Auf Basis ihrer Facebook-Daten wurden sie genauso kategorisiert wie die Menschen, denen sie statistisch ähneln.

Aus einer Mail von Kogan an Cambridge Analytica, die die New York Times veröffentlicht hat, geht wiederum hervor, welche Informationen er auf diese Weise über die 87 Millionen Facebook-Nutzer*innen hergeleitet hat: Neben der Verortung in dem OCEAN-Modell mit Kategorien wie „Offenheit“ und „Neurotizismus“ hatte Kogan auch Analysen zur politischen Einstellung, zur Intelligenz und zur Lebenszufriedenheit im Angebot. Hinzu kamen auch Prognosen zur sexuellen Orientierung und religiösen Einstellung sowie zum Interesse an bestimmten Themen.

Zuckerberg: Zehntausende Apps müssen geprüft werden

Der Skandal geht inzwischen weit über die Daten hinaus, die an Cambridge Analytica geflossen sind. So musste Facebook zugeben, dass Drittfirmen jahrelange bestimmte Informationen, die zum „öffentlichen Profil“ von Facebook-Nutzer*innen gehören, im großen Stil ausgelesen haben. Dazu zählen Daten wie Telefonnummern, E-Mail-Adressen und Namen, die von Datenhändlern unter anderem dafür genutzt werden, um Informationen über Individuen aus unterschiedlichen Quellen in einem einzigen Profil zusammenzuführen. Zuckerberg musste eingestehen, dass möglicherweise alle zwei Milliarden Facebook-Nutzer*innen betroffen sind. Facebook wurde schon vor Jahren auf das Problem hingewiesen, reagierte aber erst jetzt und schaltete die dafür genutzte Suchfunktion ab.

Leider bezieht sich die aktuelle Information nur auf Menschen, deren Daten an GSR und Cambridge Analytica geflossen sind – und nicht auch auf die unzähligen anderen Facebook-Apps, über die andere Facebook-Partner Daten abgezogen haben könnten. Erst in dieser Woche musste Facebook eine weitere Quiz-Anwendungen sperren, weil sie mit einer ähnlichen Methode wie Cambridge Analytica Daten für vermeintlich wissenschaftliche Zwecke gesammelt haben soll.

Wie Mark Zuckerberg in der Anhörung vor dem US-Kongress in dieser Woche zugab, kann Facebook derzeit nicht sagen, um wie viele weitere Anwendungen es sich noch handelt. Das Unternehmen habe eine umfangreiche Prüfung eingeleitet. Doch wer mehr wissen will, muss Geduld haben: Es gehe um zehntausende Anwendungen, der Prozess werde Monate dauern, so Zuckerberg.

[Bist Du oder Freund*innen von dir betroffen? Wir freuen uns, wenn ihr euch bei uns meldet!]

7 Ergänzungen

  1. Ich finde es schade dass Ihr jetzt auch damit angefangen habt Eure Texte mit dem sicherlich gut gemeinten, aus der Sicht vieler allerdings völlig unsinnigen, Gender-Star zu dekorieren. Ich finde die Themen, die ihr behandelt, äußerst wichtig, unterstütze Euch monatlich und wünsche Euch die größtmögliche Reichweite für Eure Beiträge. Es wäre schön, wenn diese auch außerhalb linker Filterblasen gelesen würden.

    1. Bei uns entscheiden die Autoren selbst, wie sie gendern, wir haben keine generelle Regel dafür.

    2. @Alexander Steinhoff
      Nach Ihrer Kritik zu urteilen,präferieren Sie die leicht rechts angehauchten Filterblasen und hätten keine Einwände ,wenn Herr und Fräuleinstrukturen herrschen würden. Bitte klären Sie uns doch auf ,wenn sie schon gerne Gruppierungen das Recht auf Selbstbestimmung entziehen würden ,mit welcher Begründung ihre Wertehierarchie gelten soll.
      Auf,Auf nur zu.
      Heute ist Ihr Tag.
      Carpe Diem!

      1. Exakt das ist das Problem. Dass aus der Haltung zum Gendersternchen sofort auf das gesamte Weltbild geschlossen wird und man abhängig davon den Inhalt eines Beitrags bewertet. Wem entziehe ich das Recht auf Selbstbestimmung und warum bevorzuge ich rechte Filterblasen? Der Stern polarisiert einfach extrem und ich glaube nicht, dass er sich langfristig in der Breite durchsetzt. Das ist alles. Man kann ja experimentieren. Insofern finde ich es gut, dass Autoren das machen können wie sie wollen. Nichtsdestotrotz kann ich ja im Einzelfall darauf hinweisen, dass ich denke, dass man der eigenen Sache mit bestimmten Formen des Genderns keinen Gefallen tut.

        1. >Dass aus der Haltung zum Gendersternchen sofort auf das gesamte Weltbild geschlossen wird
          Oder aus der Verwendung von Begrifflichkeiten wie „linker Filterblasen“.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.