Facebook betreibt Augenwischerei im Kampf gegen diskriminierende Werbung

Bei Facebook lassen sich bisher in Werbeanzeigen allzu leicht Frauen, Alte oder ethnische Minderheiten diskriminieren. Der Konzern will nun stärker gegen die missbräuchliche Verwendung von maßgeschneiderter Werbung vorgehen und löscht 5,000 Werbekategorien. Doch diese Änderungen kratzen nur an der Oberfläche: Diskriminierung gehört de facto zum Geschäftsmodell von Facebook.

Der Pool an Personen, die eine Werbeanzeige zu Gesicht bekommen, lässt sich auf Facebook leicht eingrenzen. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Carson Arias

Facebooks Geschäftsmodell basiert im Wesentlichen auf Werbung. Die meisten Einnahmen macht das Unternehmen damit, dass es Werbetreibenden eine komplexe Infrastruktur zur Verfügung stellt, um Werbeanzeigen zu verbreiten. Facebook analysiert dazu jeden Like und jeden Klick der mehr als zwei Milliarden Nutzer*innen und ordnet sie verschiedenen Kategorien zu. Die Auswahl dieser Kategorien für Werbetreibende will Facebook in Zukunft eingrenzen. Damit reagiert das Unternehmen auf jahrelange Vorwürfe, diskriminierende Werbeanzeigen zu ermöglichen.

Werbeanzeigen können auf Facebook beispielsweise gezielt an Menschen vermittelt werden, die Eltern sind, einen Doktortitel haben, politisch konservativ eingestellt sind und sich für Technologie interessieren. Gleichzeitig erlauben die Kategorien aber auch das explizite Ausschließen verschiedener Personengruppen. Dies kann zu Diskriminierung führen, besonders wenn es um Anzeigen für Jobs, Wohnungen oder Kredite geht.

„Multikulti“ als Werbekategorie

Momentan bietet Facebook für Werbetreibende beispielsweise sensible Kategorien wie Alter, Geschlecht, „nicht in ihrem Heimatland lebende Personen“, „Religion“ oder „multikulturelle Interessen“ an. Aber auch die Kombination anderer Kategorien kann auf eine Diskriminierung abzielen. Außerdem ist völlig intransparent, wie die Zuordnungen überhaupt vorgenommen werden.

Facebook äußerte sich nun in einem Blogpost erneut zu dieser Thematik:

Wir setzen uns dafür ein, Menschen vor diskriminierender Werbung auf unseren Plattformen zu schützen. Daher entfernen wir über 5,000 Optionen für zielgerichtete Werbung, um Missbrauch zu verhindern. Obwohl diese Optionen bisher auf legitime Art genutzt wurden, um an gewissen Produkten oder Dienstleistungen interessierte Menschen zu erreichen, glauben wir, dass die Minimierung des Missbrauchs-Risikos wichtiger ist. Das beinhaltet die Möglichkeit von Werbetreibenden, Menschen auszugrenzen, die mit Attributen wie Ethnizität oder Religion in Verbindung stehen. [Eigene Übersetzung]

Facebook ignorierte Beschwerden

Es scheint so, als ziehe Facebook damit erstmals weitreichendere Konsequenzen aus der jahrelangen Kritik an seinen Werbe-Tools.

Den Anstoß für die Kritikwelle gab ein Bericht der Investigativplattform ProPublica im Oktober 2016. Die Journalistin Julia Angwin und ihr Kollege Terry Paris Jr. deckten damals auf, dass auf Facebook die Distribution von Werbung nach einer Kategorie namens „ethnische Affinität“ möglich ist. Anzeigen konnten somit gezielt US-Nutzer*innen vorenthalten werden, die Facebook etwa als „African American“, „Asian American“ oder „Hispanic“ eingeordnet hatte. Damit konnten die Betroffenen unmittelbar von Angeboten ausgeschlossen werden.

Werbekunden konnten diese Ausschlusskategorien für Immobilienanzeigen nutzen, aber auch für Stellenanzeigen oder bei Krediten – und das, obwohl solche Formen der Diskriminierung in den USA gegen mehrere Gesetze verstoßen. Der „Fair Housing Act“, der „Age Discrimination in Employment Act“ sowie das Gesetz für gleiche Kreditchancen verbieten die Diskriminierung von Personen aufgrund von sensiblen Kategorien wie beispielsweise Alter, Herkunft, Hautfarbe oder Geschlecht, auch in der Werbung.

Angwin und Paris erstellten eine Testanzeige für Immobilien und verbreiteten diese über Facebook. Dabei schlossen sie explizit Personen mit gewissen „ethnischen Affinitäten“ aus. Ihre diskriminierende und gesetzeswidrige Anzeige wurde binnen 15 Minuten von Facebook genehmigt und veröffentlicht. Ihr Artikel schlug große Wellen und kurze Zeit später gab es die erste Bürgerrechtsklage gegen Facebook.

Facebook rechtfertigte sich damals entschlossen: Die Kategorie „ethnische Affinität“ repräsentiere nicht die wirkliche Ethnizität, sondern das Interesse an Inhalten, die mit verschiedenen ethnischen Gemeinschaften in Verbindung stehen. Das Unternehmen zog aus der Affäre nur kleine Konsequenzen. „Ethnische Affinität“ wurde kurzerhand umbenannt zu „multikulturelle Affinität“ und durfte nicht mehr für Anzeigen in den Bereichen Immobilien, Jobs und Finanz-Dienstleistungen genutzt werden.

Um dies zu kontrollieren, wollte Facebook Anzeigen aus den drei sensiblen Bereichen automatisiert erkennen und unterbinden. Als Julia Angwin und ihr Team die neuen Vorkehrungen jedoch im November 2017 auf die Probe stellten, konnten sie eine Anzeige mit den gleichen Parametern wie im Vorjahr ohne Hindernisse verbreiten. Zudem wurde im September 2017 publik, dass Facebook die Verbreitung von Werbung nach der Kategorie „Judenhasser“ ermöglichte.

Zuletzt wurde sogar die US-Regierung auf das Problem aufmerksam. Die Bundesbehörde für Wohnungsbau legte am 13. August 2018 Beschwerde gegen Facebook ein.

Schlupflöcher bleiben bestehen

Facebooks kündigte diese Woche an, für das gezielte Ausspielen von Werbeanzeigen 5,000 Kategorien zu streichen. Das wirkt auf den ersten Blick radikal. Doch es wird nicht weiter spezifiziert, um welche Optionen es sich handelt. Neben den etwa tausend fixen Kategorien, die in jedem Profil eingestellt werden können, ordnet Facebook seine Nutzer*innen in mehrere zehntausend weitere Kategorien ein, die zum Beispiel vom Nutzungsverhalten (Likes von Seiten, Apps etc.) abgeleitet werden. Neben dieser riesigen Anzahl erscheinen 5,000 Optionen eher gering.

Und selbst wenn sensible Kategorien wie „multikulturelle Interessen“ in Zukunft wegfallen sollten, gibt es zahlreiche Kombinationsmöglichkeiten von anderen Kategorien, die mit diskriminierenden Attributen korrelieren. Schon allein die Magazine, die auf Facebook verfolgt werden, können ersatzweise zur Zielgruppensteuerung genutzt werden. Wer etwa dem vietnamesischen Magazin „Hoa hoc Tro“ auf Facebook folgt, spricht mit großer Wahrscheinlichkeit diese Sprache fließend. Derartige Informationen können beispielsweise mit dem Ziel genutzt werden, Menschen mit Migrationsgeschichte auszuschließen, wie ein kürzlich veröffentlichter Forschungsbericht deutlich macht. Mit geschickten Kombinationen solcher Attribute lassen sich also weiterhin diskriminierende Anzeigen schalten.

Externe Listen erlauben Diskriminierung

Der Bericht zeigt außerdem, dass diskriminierende Werbung auch über andere Wege mit wenig Aufwand ausgesendet werden kann. Dabei kommen zumindest zwei Methoden in Betracht: Beispielweise kann eine maßgeschneiderte Zielgruppe erstellt werden. Dazu können Werbetreibende eine bestehende Liste mit Informationen über Kund*innen bei Facebook hochladen (zum Beispiel eine Liste mit Telefonnummern oder E-Mail-Adressen). Nachdem die Daten im Browser über eine Hashing-Funktion unkenntlich gemacht werden, gleicht Facebook sie mit eigenen Daten ab. Allen Personen dieser Liste, die Facebook in den eigenen Daten wiederfindet, kann dann eine Werbeanzeige geschaltet werden.

Ähnlich funktionieren sogenannte Look-Alike-Zielgruppen. Genau wie bei der maßgeschneiderte Zielgruppe können Werbetreibende eine  Liste mit Kund*innen-Daten hochladen. Facebook extrapoliert diese Gruppe anschließend und schlägt weitere Personen vor, die der Gruppe ähnlich sind.

Bei beiden Verfahren gilt: Wenn die extern hochgeladene Liste bei Facebook bereits diskriminierend ist, zum Beispiel nur Leute eines gewissen Alters oder Geschlechts für eine Stellenanzeige enthält, ist die resultierende Anzeige auf Facebook ebenfalls diskriminierend. Da das entsprechende Attribut Alter oder Geschlecht hierzu nicht selbst in der Liste enthalten sein müsste, ist eine Diskriminierung in solchen Fällen nur schwierig aufzudecken. Ähnliche Funktionen gibt es übrigens auch auf anderen Plattformen wie Twitter oder Google.

Das Forschungsteam schlägt als Konsequenz vor, Werbeanzeigen nicht mehr wie bisher aufgrund der zur Verteilung verwendeten Kategorien zu kontrollieren. Stattdessen könne überprüft werden, ob die resultierende Zielgruppe im Hinblick auf diskriminierende Kategorien unausgewogen ist. Damit könnte sich Facebook wirklich gegen die missbräuchliche Verwendung seiner Werbe-Tools schützen.

Rechtliche Grauzone in Deutschland

In Deutschland gibt es bisher keine sichere rechtliche Grundlage, um direkt gegen solche Diskriminierung bei gezielter Werbung vorzugehen. In einer Antwort des Bundesjustizministeriums auf eine Anfrage von netzpolitik.org heißt es, solche Anzeigen beträfen das Datenschutzrecht, aber auch das Allgemeine Gleichbehandlungsgesetz (AGG) und das Gesetz gegen unlauteren Wettbewerb (UWG). Keines dieser Gesetze berücksichtigt aber den Fall maßgeschneiderter Werbung explizit. Es müssten erst auf eine Klage hin die Gerichte über Einzelfälle entscheiden.

17 Ergänzungen

  1. Auch wenn ich finde, dass ein Hausbesitzer sein Eigentum vermieten darf, wie er oder sie es will (ohne Quoten o.ä.), so stimme ich zu, dass eine Ablehnung die z.B. rein auf der Hautfarbe basiert wie in dem von euch gebrachten Beispiel, eine Diskriminierung darstellt.

    Nehmen wir als Vergleich Straßenwerbung:
    Rolex Werbung in einer Gegend, wo sie größtenteils von Leuten gesehen wird, die kaum Luxusgüter dieser Kategorie kaufen, ist nicht effizient (effizient = viel Umsatz gegenüber geringen Werbekosten). Das könnte man auch als Diskriminierung ansehen. Ist es nicht auch Diskriminierung, wenn einem Mac-User ein Produkt teurer verkauft wird?

    Wo fängt eine zielgerichtete (auf Statistik basierend optimierte) Werbung an zu diskriminieren, wo ist die Grenze?

  2. „Facebook analysiert dazu jeden Like und jeden Klick der mehr als zwei Millionen Nutzer*innen und ordnet sie verschiedenen Kategorien zu.“
    Müssten das nicht 2 MILLIARDEN sein?

  3. Leider wird in der Diskussion meist völlig ausgeblendet, dass sich solche Kriterien auch für positive Dinge nutzen lassen: Werbung für Förderprogramme an eine benachteiligte Mindertheit, Aufklärungskampagnen an extremistische Benutzer etc.

    Und wie Rainer Datenschutz bereits anmerkte, wo fängt Diskriminierung an? Werden alle dem Vietnamesischen Unkundige diskriminiert, wenn vietnamesische Werbung sie nicht erreicht? Fühlen sich Hartz-IV-Bezieher benachteiligt, wenn sie keine Luxusgüter-Werbung erreicht?

    Letztlich basiert Facebook wie die gesamte Werbebranche darauf, möglichst lohnende Zielgruppen anzusprechen. Man könnte dabei /immer/ argumentieren, dass die jeweils anderen dabei diskriminiert werden. Außerdem sollte man sich fragen, ob man wirklich völlig ungesteuert mit aller möglichen Werbung dieser Welt überflutet werden will.

    Hier wie so oft bin ich der Meinung, dass eher die Misstände selbst bekämpft werden sollten, als deren Symptome mit Filtern auszublenden. Im Zweifelsfall blockiert man hilfreiche Handlungen (z.B. blockierte einst ein Sexfilter auch Inhalte über Brustkrebs und Hühnerbrust), während sich für negative immer ein Schlupfloch findet.

    1. Es gibt auch die positive Diskriminierung (Diskriminierung selbst wir hier aber unumstößlich negativ besetzt, nicht wie in der Methematik):
      „Chinesen sind gut in Mathe“

      Diskriminierend wird es dann, wenn ich das Indiviuum anhand der Gruppe bewerte (Weiße Männer sind rassistisch, du bist Rassist. Chinesen sid gut in Mathe, du musst das doch können. Vielfalt ist wichtig, da du schwarz bist bringst du eine neue Sichtweise ein).

      Die Aussage, dass Übergewichtigkeit das Krebsrisiko erhöht, ist eine statistische Aussage. Die warnende Werbung wurde in Groß Britannien (glaube ich) abgenommen, weil sich Menschen über Fat-Shaming beschwert haben, sie haben sich diskriminiert gefühlt.

      Die Person, die der Chef am Ende einstellt, sollte eine Einzellfallbetrachtung sein „Kannst du trotz Übergewichter weißer deutscher Mann die Gleichungen lösen und ausdauernd auf Baustellen arbeiten und nett zu deinen ausländischen Kolleginnen und Kollegen sein?“

      Aber dürfen wir eine Chefin dazu zwingen, eine Werbung weltweit zu schalten, damit kein einziger Mensch diskriminiert wird, in allen Sprachen, inclusive Blidenschriften und Zeichensprachen?

      Das wäre doch die logische Konsequenz daraus, keinen zu diskriminieren (basierend auf der Annahme, dass Diskriminierung IMMER falsch ist, indem man mathemitisch statistisch neutral ausblendet).

      Andere Menschen haben auch Rechte, nicht nur ein (angebliches) Opfer. Die Chefin hat auch Rechte, ebenso wie die Mitarbeiter, die wollen nicht den Jahresgewinn für (Mitarbeiter-)Werbung ausgeben.

  4. Diskriminierung ist per se nicht böses, sondern erst dann, wenn Rechte des Diskriminierten verletzt werden. Das wird leider in diesem Kontext immer wieder übersehen. Das Diskriminieren hat selbst Grundrechtscharakter!

    Tatsächlich steht jedermann das Grundrecht Art 2 GG, Die allgemeine Handlungsfreiheit, zu. Sie schliesst ein, dass jedermann völlig willkürlich entscheiden darf, mit wem er Kontakt pflegt, Geschäfte abschließt und wem er aus dem Wege gehen will. Deswegen darf man seinen Hund „nur an treue Hände“ abgeben, aber auch sein Auto nur an einen jungen Mann ohne Bart und mit Bügelfalte verkaufen. Das ist ein Grundrecht!

    Diese Grundrechtsausübung endet an den Rechten des „Diskriminierten“: Die sind z.B. Im AGG festgelegt und richten sich z.B. An den Arbeitgeber, dessen Grundrechte in Bezug auf die 7 dort genannten Merkmale (Geschlecht, Religion, Herkunft, etc.) eingeschränkt sind. Aber schon beim Vermieter diifferenziert das AGG: Private Vermieter, die im gleichen Hause wohnen, dürfen sich ihren Mieter willkürlich aussuchen. Und Religionsgemeinschaften dürfen auch bei der Auswahl der Arbeitnehmer diskriminieren. Alles Ausfluss von Art. 2 GG.

    Das heisst, Diskriminierung kann grundsätzlich die Ausübung eines Freiheitsrechtes sein. Wer diese einschränken will, muss stets begründen, welches konkrete Recht des Diskriminierte denn dadurch verletzt wird und wo er es ableitet.

    Deswegen gibt es auch keine „rechtliche Grauzone in Deutschland“. Wenn es kein Schutzrecht gegen die Diskrimierung gibt, gilt Art 2 GG und man darf es!

    1. Da hast du völlig recht. Ganz grundsätzlich ist es erst einmal kein Problem Menschen nach Merkmalen zu unterscheiden, diesen Merkmalen Eigenschaften zuzuordnen und aufgrund dessen die Menschen unterschiedlich zu behandeln.

      Wenn die Gesellschaft eine Ungleichbehandlung bezogen auf einen konkreten Sachverhalt und bestimmte Merkmale für ungerechtfertigt hält, dann stellen wir eben Regeln auf, die das verbieten. Auch sehe ich die anschließende Bewertung nicht so problematisch. Das haben wir in vielen anderen Bereichen auch, und das müssen letztendlich Gerichte machen.

      In dem Artikel geht es aber noch um ein ganz anderes Problem. Wie kommt so eine Box zu so einem Ergebnis, und wie bekommen wir überhaupt mit, dass unser Leben durch so etwas beeinflusst worden ist?

      Mir gefällt der Ansatz sehr gut, sich anzusehen, ob das, was aus der Box rauskommt, Menschen ungerechtfertigt diskriminiert. Wie soll man das bei der Komplexität auch anders machen. Derjenige, der ungerechtfertigt diskriminiert, ist dafür verantwortlich. Wie er zu der Entscheidung gekommen ist, ist sein Problem.

      Wir müssen die Einhaltung der Regeln kontrollieren. Verstöße müssen spürbar sanktioniert werden. Bestraft werden muss sowohl die handelnde Person als auch die dahinter stehende Organisation. Da gibt es sehr viel zu tun. Optimistisch stimmt mich aktuell die DS-GVO. Es ist doch interessant, wie viele Unternehmen sich auf einmal für den Datenschutz interessieren.

      1. Da sind wir ziemlich nahe bei einander.
        Ich wollte darauf hinweisen, dass das Verbot von Diskriminierung selbst in Grundrechte eingreifen kann. Deshalb müssen im Falle neuer zu erlassender Regeln beide Rechtspositionen, also neues Diskriminierungsverbot einerseits und Handlungsfreiheit andererseits sorgfältig gegeneinander abgewogen werden und den Kern des Grundrechts auf Handlungsfreiheit erhalten.

        Dabei spiegelt sich das in den „Boxen“ wider. Selbstverständlich darf sich Werbung an denjenigen Gruppen ausrichten, mit denen der Gewerbetreibende Vertragsbeziehungen eingehen will – und die anderen eben diskriminieren.

        Übrigens schafft jedes anti-Diskrimineriungsrecht neue Diskriminierung. Das sieht man derzeit bei der Besetzung von Aufsichtsräten. Jetzt werden Männer diskriminiert, die sich für dieses Amt interessieren. Dabei kann man nicht etwa argumentieren, wir müssen Männer benachteiligen, um die Geschlecher gleich zu behandeln, weil es den einzelnen Grundrechtsträger benachteiligt

  5. Diskriminierung ist per se nicht böses, sondern erst dann, wenn Rechte des Diskriminierten verletzt werden. Das wird leider in diesem Kontext immer wieder übersehen. Das Diskriminieren hat selbst Grundrechtscharakter!

    Tatsächlich steht jedermann das Grundrecht Art 2 GG, Die allgemeine Handlungsfreiheit, zu. Sie schliesst ein, dass jedermann völlig willkürlich entscheiden darf, mit wem er Kontakt pflegt, Geschäfte abschließt und wem er aus dem Wege gehen will. Deswegen darf man seinen Hund „nur an treue Hände“ abgeben, aber auch sein Auto nur an einen jungen Mann ohne Bart und mit Bügelfalte verkaufen. Das ist ein Grundrecht!

    Diese Grundrechtsausübung endet an den Rechten des „Diskriminierten“: Die sind z.B. Im AGG festgelegt und richten sich z.B. An den Arbeitgeber, dessen Grundrechte in Bezug auf die 7 dort genannten Merkmale (Geschlecht, Religion, Herkunft, etc.) eingeschränkt sind. Aber schon beim Vermieter diifferenziert das AGG: Private Vermieter, die im gleichen Hause wohnen, dürfen sich ihren Mieter willkürlich aussuchen. Und Religionsgemeinschaften dürfen auch bei der Auswahl der Arbeitnehmer diskriminieren. Alles Ausfluss von Art. 2 GG.

    Das heisst, Diskriminierung kann grundsätzlich die Ausübung eines Freiheitsrechtes sein. Wer diese einschränken will, muss stets begründen, welches konkrete Recht des Diskriminierte denn dadurch verletzt wird und wo er es ableitet.

    Deswegen gibt es auch keine „rechtliche Grauzone in Deutschland“. Wenn es kein Schutzrecht gegen die Diskrimierung gibt, gilt Art 2 GG und man darf es!

    1. Ahso, wenn sich hier irgendwelche Ideologen wünschten, man könne die Natur, das Universum und auch den Menschen in Kategorien unterteilen, wird feststelllen, daß er beständig neue Kategorien (er)finden muss. Wer diese erfindet: herrscht, wer sie auf sich anwenden lässt: dient.

  6. Hallo,
    aktuell filtert Facebook willkürlich komplett alle Nachrichten Meldungen etc. zu bestimmten Themen.
    Bei den Stichworten Hanf oder Cannabis werden nur Beiträge von Freunden und befreundeten Gruppen zum Thema angezeigt (=Filterblase) , aber keinerlei öffentliche Beiträge, Artikel oder Links, wie aktuell zur WHO und ihre neue Positionierung zu Cannabis.
    Damit ist Facebook völlig untauglich, auch als Aufklärungsplattform zu bestimmten Themen wie diesem hier mit zu nutzen.

    Zum Vergleich: Zum Stichwort Holocaust zeigt Facebook auch umstrittene Artikel wie u.a. den von Vera Lengsfeld („Holocaust-Tourimus“) mit an.

    1. Danke für solche Selbst-Versuche, die in höchster Erwartung seit der DSGVO, von mehr (EU-)Facebook-„Mitgliedern“ unternommen werden.

      -Wie sieht es mittlerweile mit der Diskreminierung von Oberkörperfreien Frauen gegenüber Männern aus? Dürfen dort nach wie vor nur Männer ihr T-Shirt ausziehen?

      -Ist es mittlerweile möglich den Vorgang des Stillens eines Säuglings durch die Mutter an Hand (und Mund) realistischer Fotografie zu erklären?

      -Kann das Paarungsverhalten zwischen Säugetieren biologisch korrekt dargestellt werden?

      *Kurz bevor Facebook ca. 2005 an den Start ging, erklärte die damalige Bush-Junior-Regierung, sie wolle mit der NSA eine Institution zur Desinformation gründen. 1 und 1 zusammengezählt und ich zumindest hatte mir dort keinen Account generiert. Heute schätze ich, ich würde eh sofort von den weg-geblockt. So automatisiert –

  7. Das Geschäftsmodell fördert die negative Seite des Menschen, weil das Gefühl der Angst noch länger anhält als ein Gluecksgefuehl. Und Datenklaubuch geht es darum, dass die BenutzerIn möglichst lange im Netzwerk bleibt- von daher fördern die Maschinen im Hintergrund das Gefuehl der Angst, damit bleiben die Menschen länger im Netz.
    Auch wenn es positive Aspekte möglich sind, in der Anfangszeit einer Kampagne ueberwiegt noch das Gute, dann werden die FB-Maschinen die Schmutzmenschen bevorteilen, die bekommen mehr Likes und den ganzen Kram…, denn wie schon gesagt, Schmutz hält die FB-Maschine am laufen…,sprich hält die Menschen im Netz…deswegen #deletefacebook
    -gilt auch für Netzpolitik- #deletefacebook

  8. Sprache ist diskriminierend, aber jeder pickt sich raus, was er gern unter Diskriminierung verstehen möchte. Ich finde es zB diskriminierend, dass nur einige Diskriminierungen erlaubt sind und zwar die einer ganz bestimmten Kultur.

    Zielgerichtete Werbung ist nicht verboten und Facebook nimmt sich eure politisch korrekte Anti-Diskriminierungs-Kampagnen natürlich zum Anlass um sich herauszupicken, was FB halt so passt.

    PS.: Habt ihr meinen ersten Kommentar einfach gelöscht? Nicht nett.

  9. Diskriminierung ist auch im Internet ein wichtiges Thema, welches man nicht unbeachtet lassen sollte. Für Facebook ist es aber ebenso eine schwere Aufgabe, sich zwischen den normalen Nutzern und den Werbetreibenden zu stellen. Aus meiner Erfahrung heraus können sich für die Werbetreibende Vorteile ergeben, wenn sie gezielte Zielgruppen ansprechen. Bis inwiefern es noch im Erlaubten ist, kann wahrscheinlich keiner ganz klar definieren. Jedoch gibt es viele Mittel und Wege, um eine Werbung zielgerichtet und dennoch frei von Diskriminierung zu schalten. Ich vermute sogar das ein geringer Teil dieser Personen es auch nicht besser wissen. Hier sollte man sich umgehend weiterbilden!!! Ich empfehle folgende Seite, um sich mal „up to date“ zu bringen: SPAMSPAMSPAM. Es wird euch gezeigt wie die Zielgruppen eingerichtet werden müssen und was man dabei beachten sollte.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.