Targeted Advertising

Facebook und Instagram streichen die Racial-Profiling-Option für zielgerichtete Werbung

Lange Zeit konnten US-Werbetreibende gezielt Menschen von Anzeigen ausschließen, denen Facebook die Merkmale „African American“ oder „Hispanic“ zuschrieb. Nach Protesten, Gerichtsverfahren und etlichen Besserungsversprechen hat der Konzern die Funktion jetzt endlich eingestampft.

Social Sorting
Facebooks Geschäftsmodell: Daten erfassen, Merkmale zuschreiben, Gruppen bilden, Menschen (aus-) sortieren. Gemeinfrei-ähnlich freigegeben durch unsplash.com Markus Spiske

Facebook hat still und heimlich eine umstrittene Funktion für zielgerichtete Werbung abgestellt. US-Werbetreibende können Zielgruppen auf den Plattform des Konzerns nun nicht mehr anhand ihrer Zugehörigkeit zu Gruppen wie „African Amerian“, „Hispanic“ oder „Asian American“ aussortieren. Diese von Facebook als „multikulturelles Marketing“ bezeichnete Funktion wurde offenbar Anfang August ohne größere Ankündigung eingestampft.

Darüber berichtet diese Woche Julia Angwin, die Chefredakteurin des Investigativmagazins The Markup. Die von ihr als „Racial Ad Profiling“ bezeichnete Funktion sei im Rahmen eines Updates für den Anzeigenmanager der Plattformen deaktiviert worden. Angwin hatte gemeinsam mit anderen Reporter:innen seit 2016 immer wieder gezeigt, dass diese Funktion für rassistische Diskriminierung genutzt werden kann.

Insbesondere konnte sie mit ihrem Team nachweisen, dass Menschen auf Basis der von Facebook zugeschriebenen „ethnischen Affinität“ (2017 umbenannt in „multikulturelle Affinität“), von Anzeigen für Jobs und Wohnungen ausgeschlossen wurden. Diese Praxis ist nach dem Fair Housing Act in den USA verboten.

Facebook bekam das Problem nicht in den Griff

Das Gesetz von 1968 verbietet explizit Werbung im Wohnungsbereich, die bestimmte Menschen aufgrund von „Rasse, Hautfarbe, Religion, Geschlecht, Behinderung, Familienstatus oder nationaler Herkunft“ bevorzugt oder diskriminiert. Der Datenkonzern hatte sich lange Zeit auf den Standpunkt gestellt, dass es Sache der Werbetreibenden sei, sich an die Regeln zu halten. Mehrere Bürgerrechtsorganisationen um die American Civil Liberties Union (ACLU) hatten das Thema aufgegriffen und gegen Facebook geklagt.

In einem gerichtlichen Vergleich hatte Facebook versprochen, dass das „multikulturelle Marketing“ in besonders geschützten Werbekategorien für Jobs, Wohnen und Finanzen nicht mehr verwendet werden kann. The Markup konnte jedoch nachweisen, dass es immer noch möglich war, diskriminierende Anzeigen in diesen Bereichen zu schalten.

Die auf Facebook und Instagram geschalteten Anzeigen werden in einer Mischung aus automatisierten Verfahren und menschlicher Überprüfung kontrolliert. Julia Angwin deutet die Abschaffung des Werbetools als Eingeständnis, dass Facebook die durch seine datenbasierten Werbewerkzeuge ermöglichte Diskriminierung nicht in den Griff bekommt.

Die Entscheidung könnte unterdessen auch Auswirkungen auf den Online-Werbung im Präsidentschaftswahlkampf der USA haben. Mehrere US-Medien berichteten 2016 davon, dass die Kampagne von Donald Trump damals gezielt People of Colour mit negativer Wahlwerbung auf Facebook adressiert hatte, die dem Ruf seiner Konkurrentin in dieser Wählergruppe schaden sollte. Das Ziel dieses Negative Campaigning war die gezielte Demobilisierung potenzieller Clinton-Wähler:innen. Anders als Twitter und Google/Youtube hat Facebook die Nutzung von Targeting in Wahlwerbung in diesem Wahlkampf nicht eingeschränkt.

Diskriminierung ist nicht auszuschließen

Facebook verfügt über umfassende Informationen über seine Nutzer:innen und setzt diese unter anderem für die Prognose von Charaktereigenschaften, Interessengebieten und Vorlieben ein. Likes, Klicks und andere Verhaltensweisen werden so zu „Merkmalen“, die Facebook seinen Nutzer:innen zuschreibt, auch in sensiblen Bereichen wie Gesundheit, sexuelle Orientierung, religiöse, kulturelle oder politische Einstellung. Werbetreibenden bietet Facebook die Möglichkeit, Menschen anhand dieser Merkmale gezielt anzusprechen oder aus Zielgruppen auszuschließen: Targeted Advertising.

Die Nachrichtenseite Ars Technica macht in einem Beispiel deutlich, wie die Möglichkeiten des „multikulturellen Marketings“ auch dort rassistische Stereotype verstärken können, wo sie nicht illegal sind: Die Universal Studios produzierten zur Werbung für das Biopic „Straight Outta Compton“ über die US-amerikanische Hip-Hop-Crew N.W.A. unterschiedliche Trailer. Eine sozialkritische Variante bekamen Facebook-Nutzerinnen und -Nutzer zu sehen, die als „African American“ kategorisiert waren. Alle anderen Nutzer sahen Werbung für einen scheinbar gewöhnlichen Gangsterfilm mit den üblichen Bildern Gewalt, Waffen und Stress zwischen Schwarzen Musikern und der Polizei.

Für zielgerichtete Werbung mit deutschsprachigen Anzeigen bot Facebook keine Sortierung der Nutzer:innen nach „multikultureller Affinität“ an. Wie der Wiener Privacy-Forscher und Netzaktivist Wolfie Christl in unserer Berichterstattung zum Thema betonte, ist dies für die Diskriminierung bestimmter Gruppen auch gar nicht notwendig:

Facebook stellt Werbetreibenden tausende Kategorien zur Verfügung, um NutzerInnen bei Werbeanzeigen gezielt ein- oder auszuschließen. Wenn man eine bestimmte Kategorie wie „ethnische Herkunft“ nicht direkt nutzen kann, kann man immer noch stellvertretend sogenannte „Proxies“ verwenden. So was wird schon lange gemacht, etwa wenn Menschen aus bestimmten Wohnbezirken automatisch eine schlechtere Bonität zugeschrieben wird. Wenn man bei Facebook-Werbeanzeigen z.B. Geflüchtete aus dem arabischen Raum ausschließen will, könnte man einfach die Kategorien „Arabische Sprache“, „Islam“ und „Koran“ verwenden, in Kombination mit der Kategorie „Expats – Nicht in ihrem Heimatland lebende Personen“.

Du möchtest mehr kritische Berichterstattung?

Unsere Arbeit bei netzpolitik.org wird fast ausschließlich durch freiwillige Spenden unserer Leserinnen und Leser finanziert. Das ermöglicht uns mit einer Redaktion von derzeit 15 Menschen viele wichtige Themen und Debatten einer digitalen Gesellschaft journalistisch zu bearbeiten. Mit Deiner Unterstützung können wir noch mehr aufklären, viel öfter investigativ recherchieren, mehr Hintergründe liefern - und noch stärker digitale Grundrechte verteidigen!

 

Unterstütze auch Du unsere Arbeit jetzt mit deiner Spende.

Eine Ergänzung
  1. Zitat: „Facebook stellt Werbetreibenden tausende Kategorien zur Verfügung, um NutzerInnen bei Werbeanzeigen gezielt ein- oder auszuschließen.“

    Tausende Kategorien! Wo kann man diese Kategorien Liste einsehen? Es würde den Menschen gut tun, diese „Schubladen“ mal vor die Nase gehalten zu bekommen, aus dem PDF befreit.

    Wenn nun die Schublade „Racial Profiling“ nicht mehr direkt zur Verfügung steht, so bleiben doch Tausende Bits minus ein Bits übrig genau dieses „Profiling“ weiterhin zu betreiben.

    Was Facebook mit diesem Schritt getan hat, ist sich formal juristisch weniger angreifbar zu machen, und gleichzeitig seine ramponierte Außendarstellung zu beschönigen.

    Der Schritt, „Racial Profiling“ sozusagen aus dem Angebot zu nehmen, erscheint begrüßenswert und richtig. Doch dass dies klammheimlich geschieht ist bezeichnend. Der Konzern möchte es sich ersparen, eigene Schuld öffentlich aufzuarbeiten, die Personen der Konzernführung mit der Dienstleistung „Racial Profiling“ bisher auf sich geladen hat.

    „Racial Profiling“ findet nicht nur bei Facebook statt. Auch Behörden wollen es. Und Banken, Versicherungen und Werbewirtschaft benutzen es zur Profitmaximierung.

    Doch wie verschwinden diese Schubladen aus den Hirnen der Menschen? Fangen wir doch mal an, unser eigenes Hirn zu entrümpeln. Und wie ehrlich sind wir dabei?

    Vergessen wir nicht, dass es noch tausende andere Kategorien gibt, die ein menschliches Hirn kaum auseinanderhalten kann. Aber dafür gibt es ja intransparente Algorithmen, deren rassistische Ergebnisse gerne als sogenannte „Künstliche Intelligenz“ verkauft wird.

    Solange Menschen Ressentiments haben, werden sie Algorithmen produzieren, die als eine Variante von „Social Profiling“ kaum andere Ergebnisse liefern werden.

    Facebook kann jetzt zwar abstreiten, „Racial Profiling“ zu betreiben. Aber seine periphären „Cambridge Analyticas“ werden damit klammheimlich weitermachen.

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.