FallstudieWie Facebook Trauma und Angst verstärkt

Der Konzern Facebook sammelt Daten, um seinen Nutzer:innen gezielte Werbung anzuzeigen. Eine Fallstudie zeigt, wie schädlich das für die mentale Gesundheit sein kann.

Facebook kann auf das Gemüt schlagen. (Symbolbild) Gemeinfrei-ähnlich freigegeben durch unsplash.com Uday Mittal

Personalisierte Werbeanzeigen auf Online-Plattformen sind allgegenwärtig. Doch hinter den algorithmisch ausgelieferten Werbeanzeigen von Facebook steckt ein dunkles Geheimnis: Sie können Angststörungen und Traumata für Werbezwecke ausnutzen.

Das zeigt eine aktuelle Fallstudie der Panoptykon Foundation in Zusammenarbeit mit dem Wissenschaftler Piotr Sapieżyński der Northeastern Universität. Das Ergebnis zeigt zudem eindrücklich, dass Facebook-Nutzer:innen unzureichenden Einfluss auf die angezeigten Werbeanzeigen haben.

Ein ganz bestimmtes Muster 

Für ihr Experiment haben die polnische Nichtregierungsorganisation und Sapieżyński über 2.000 Werbeanzeigen einer jungen Frau untersucht, die diese innerhalb zweier Monate auf ihrem Facebook-Feed erhalten hatte. Die Frau ist Mutter eines Kleinkinds und trägt in dem Bericht den geänderten Namen „Joanna“.

Joanna ist aufgefallen, dass ihre Facebook-Anzeigen einem ganz bestimmten Muster folgen: Sie konzentrieren sich auf das Thema Gesundheit, insbesondere auf Krebs und genetische Krankheiten. Außerdem liegt ein starker Fokus der Anzeigen auf der Gesundheit, oder eben Krankheit, von Kindern. Insgesamt soll sich jede fünfte Anzeige auf Gesundheit bezogen haben, so das Ergebnis der Untersuchung.

Dabei möchte Joanna genau diesem Thema nicht noch mehr Platz in ihrem Leben geben. Gesundheit ist ein angst- und sorgenvoller Bereich in Joannas Leben, nachdem ein Elternteil von ihr an Krebs verstorben ist. Seit sie Mutter ist, fürchtet sie nun auch um die Gesundheit ihres Kindes. Die entsprechenden Anzeigen von Facebook rufen bei ihr ein Trauma wach und verletzen ihre mentale Gesundheit.

Persönliche Interessen sind nicht immer Hobbies

Doch warum erhält Joanna immer weiter Anzeigen, die sie gar nicht sehen möchte? Die junge Frau hatte Facebook gebeten, die über sie gesammelten persönlichen Daten zu erhalten. Allerdings bekam sie noch keine zufriedenstellende Antwort. Es liegt aber nahe, dass Facebooks spezifische Gesundheitsanzeigen auf Joannas Online-Aktivitäten auf Facebook und anderswo im Netz zurückzuführen sind. Wer um seine Gesundheit besorgt ist, recherchiert dazu eben auch online. Das bedeutet aber noch lange nicht, dass Facebook-Nutzer:innen möchten, dass der Konzern ihnen dazu immer mehr Inhalte vorzeigt.

Facebook ordnet Menschen bestimmte „Tags“ (Werbepräferenz) zu, die ihre Interessen repräsentieren sollen. Diese Tags helfen den Werbekunden des Konzerns, gezielte und persönliche Anzeigen zu schalten. So gibt es beispielsweise den Tag „Haustiere“ oder „Kindererziehung“. In Joannas Fall sind laut Bericht 21 gesundheitsbezogene Werbepräferenzen aktiviert, etwa „genetic disorder“ (genetische Krankheit) und „cancer awareness“ (Krebsaufklärung). Der Algorithmus nutzt damit Merkmale von Menschen aus, die eben auch hochsensibel und belastend sein können, so die Panoptykon Foundation.

Wenn deaktivieren nicht hilft

Zwar können die Nutzer:innen sensible Inhalte in den Anzeigeneinstellungen für Werbetreibende deaktivieren, offenbar hat das aber nur einen geringfügigen Einfluss auf die eingeblendeten Anzeigen. Das ist vor dem Hintergrund solcher traumatischer Werbeanzeigen besonders problematisch.

Joanna hat die entsprechenden Tags aus ihren Einstellungen entfernt. Daraufhin gingen bestimmte Inhalte zurück – doch nach nur zwei Monaten waren diese wieder auf dem ursprünglichen Level. Die Panoptykon Foundation hat diese Entwicklung mit einer Grafik dargestellt. Das gelbe Kurvendiagramm zeigt, dass Anzeigen, die auf die Gesundheit bezogen sind, zunächst weniger und dann wieder mehr werden, nachdem Joanna sie deaktiviert hatte. Die dick gestrichelte Linie zeigt den Deaktivierungsmoment.

Die Panoptykon Foundation möchte mit der Fallstudie darauf hinweisen, dass „datenhungrige Algorithmen“ die psychische Gesundheit von Menschen bedrohen.

Facebook hingegen begründet seine personalisierten Werbeanzeigen mit dem Argument, dass sie kleinen Unternehmen helfen würden, ihre Ideen zu vermarkten, und dass Menschen so Angebote entdecken, die sie sonst nie entdeckt hätten – etwa „den Ziegen-Yoga-Kurs, von dem sie nicht wussten, dass sie ihn brauchen“.

Der Digital Service Act – eine Lösung?

Die Panoptykon Foundation sieht im kommenden Digital Service Act (DSA, auf Deutsch „Gesetz über digitale Dienste“) eine „einmalige Gelegenheit, um diese Probleme zu lösen“. Der DSA ist ein Gesetzentwurf der Europäischen Kommission, die digitale Dienste stärker regulieren will.

In den kommenden Monaten sollen die Verhandlungen um den endgültigen Text der Verordnung starten. Dass es neue Auflagen für Facebook, Google & Co. geben wird, scheint gesetzt zu sein, manche EU-Abgeordnete fordern sogar ein generelles Verbot personalisierter Werbung.

Im September haben sich 50 Nichtregierungsorganisationen, darunter die Panoptykon Foundation, mit einem offenen Brief an die EU gewandt. Darin fordern sie beispielsweise, dass die Online-Plattformen bekannt geben, wie ihre Algorithmen funktionieren, und dass die Nutzer:innen eine stärke Kontrolle über solche Empfehlungssysteme erhalten. Sie weisen auch darauf hin, dass Algorithmen von Werbetreibenden (mitunter unbeabsichtigt) diskriminierend sein können.

Es ist nicht das erste Mal, dass zivilgesellschaftliche Bündnisse Nachbesserungen am DSA-Entwurf fordern. Der aktuelle Bericht der Panoptykon Foundation ist ein weiteres Gewicht in der Diskussion um Werbeanzeigen auf Online-Plattformen.

7 Ergänzungen

  1. Es fehlen wesentlicher Informationen, um die Studie richtig einordnen zu können. Offenbar wurde Joanna ja durch Web- und ggf. Facebook-Nutzungsverhalten auf die Themen Krankheit & Krebs geprimet. Nur auf diese Themen? Es ist sehr unwahrscheinlich, dass Facebook sich nur auf diese Themen stürzt, wenn die Nutzerin sich im Netz auch für andere Themen wie Reisen oder Ähnliches interessiert.

    Und wenn diese Nutzerin aber nur auf Krankheit geprimet wurde: Ist es dann wirklich so schlimm, dass FB ihr vor allem Krankheitsinformationen anzeigt? Die Nutzerin hat dann doch offenbar schon vor ihrer FB-Nutzung offenbar ein Traum gehabt.

    Der Artikel kommt mir unausgewogen und sehr unkritisch vor. Weil es gegen Facebook geht, ist sowas O.K.?

    1. Hallo Tim, in dem Artikel steht, dass ein Fünftel aller Anzeigen auf Krankheit gerichtet ist. Ich habe sowohl Kritiker:innen als auch Facebook selbst zu Wort kommen lassen.

  2. werbung heutzutage ist eine bürde der menschheit
    die funkion der bekanntmachung eines produkts wird im vermeintlichen konkurrenzdruck der globalisierung heutzutage dermaßen überzogen, dass selbst die leute, die diese alghorithmen entwickeln, um die leute länger auf seiten und in apps zu behalten, damit sie noch mehr werbung sehen, diesen nicht mehr widerstehen können
    da wird mit psychologischen tricks gearbeitet nach neuesten erkenntnissen aus dem bereich und KI-gestützt umgesetzt, ohne dass man sich der folgen überhaupt bewusst ist, alles was zählt ist der umsatz, der daraus generiert wird
    da fragt man sich, ob die werbeleute, die sowas entscheiden überhaupt abends in den spiegel schauen können

    1. Das „Suchtprinzip“ vielleicht. Das System ist darauf ausgerichtet die Menschen online zu halten.

      Am effizientesten wäre es wohl, daten- und werbegetriebene Geschäftsmodelle prinzipiell zu verbieten. Oder noch abstrakter: alles wo die Nutzer nicht die Kunden sind: weg. (Mit etwas Spielraum.)

    2. Oder möglicherweise sind bestimmte Kontaktmöglichkeiten oder Interessengruppen außerhalb von Facebook nicht in der gleichen Form vorhanden oder noch nicht gefunden worden.

  3. Ein gutes Argument einen AdBlock by default zu nutzen und nur zu deaktivieren wenn man den content unterstützen will (das regelt der Markt) und danach wieder zu aktivieren.

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.