Rabatte für gutes Ausdrucksvermögen: Versicherung wollte Facebook-Posts durchleuchten

Ein britisches Versicherungsunternehmen wollte das digitale Sozialverhalten von Fahranfängern analysieren, um ihnen personalisierte Angebote zu machen. Aus dem Plan wird nun erstmal nichts – ausgerechnet, weil Facebook sich querstellt.

Screenshot: admiral.com

Das ging nach hinten los: Die britische Kfz-Versicherungsfirma Admiral hat heute ein neues Programm für Fahranfänger namens First Car Quote vorgestellt. Eigentlich sollte es die Möglichkeit enthalten, Rabatte zu ergattern, wenn man das eigene Social-Media-Verhalten analysieren lässt. Das zentrale Element des neuen Angebots aber fehlte beim heutigen Start, weil Facebook die Nutzung der entsprechenden Daten in der letzten Minute verboten hat.

Konkret sah das Angebot vor, dass britische Nutzer der First-Car-Quote-App Zugriff auf getätigte Facebook-Posts und -Likes gewähren. Diese wären dann dazu genutzt worden, um vermeintliche Persönlichkeitsanalysen vorzunehmen und jungen Menschen auf dieser Grundlage Angebote für Admiral-Autoversicherungen zu machen. Facebook aber hat die Nutzung der Daten unter Verweis auf seine Plattform-Richtinien untersagt. Dort werden App-Entwickler in Punkt 3.15 darauf hingewiesen, dass sie Facebook-Daten nicht verwenden dürfen, „um Entscheidungen bezüglich einer Berechtigung, Eignung oder Auswahl zu treffen“. Im Klartext: Die Informationen dürfen nicht genutzt werden, um zu entscheiden, ob ein Antrag genehmigt wird oder wie viele Zinsen auf einen Kredit zu zahlen sind – und offenbar auch nicht, um das Unfallrisiko von Fahranfängern zu prognostizieren.

Zu viele Ausrufezeichen? Zu hohes Unfallrisiko!

Wie der Guardian berichtet, sollte die vermeintliche Persönlichkeitsanalyse laut Admiral auf „wissenschaftlichen Erkenntnissen“ beruhen. Bestimmte Charaktereigenschaften würden statistisch gesehen für sicheres Fahrverhalten und eine geringere Unfallwahrscheinlichkeit sprechen. Das Kommunikationsverhalten sollte deshalb vor allem nach Indikatoren für Selbstbewusstsein und Organisiertheit durchsucht werden.

Zum Einsatz sollte eine offenbar primär linguistische Analyse kommen. Kurze und prägnante Sätze wären positiv bewertet worden, ebenso wenn man für Verabredungen mit Freunden konkrete Uhrzeiten und Orte nutzt anstatt vager Formulierungen wie „heute Abend“. Negative Anzeichen, etwa für ein übersteigertes Selbstbewusstsein, wären zum Beispiel die häufige Nutzung von Ausrufezeichen oder Wörtern wie „immer“ und „nie“ statt „vielleicht“ gewesen. Wer gut abschneidet, hätte auf einen jährlichen Bonus von bis zu 350 Pfund hoffen können.

Potenzielle Admiral-Neukunden, die den First-Car-Quote-Bonus erhalten wollen, müssen die Unternehmens-App nun zwar trotzdem mit ihrem Facebook-Profil verbinden – statt ihr digitales Sozialverhalten durchleuchten zu lassen, müssen sie jetzt aber einen Fragebogen beantworten.

Diskriminierung, Selbstzensur, Datenschutzprekariat

Die kleinteilige Segmentierung ihrer Kundschaft in unterschiedliche Risikogruppen anhand von deren vielfältigen digitalen Spuren ist der Traum der Versicherungswirtschaft: Vermeintliche Risikogruppen könnten so genau identifiziert und verstärkt zur Kasse gebeten oder idealerweise gleich abgelehnt werden. Im Gewand algorithmischer Sachlichkeit und Neutralität kommt jedoch ein gewaltiges Diskriminierungspotenzial daher. In diesem spezifischen Fall ist ziemlich offensichtlich, dass das algorithmische System gehobene Bildung und gutes Artikulationsvermögen belohnt hätte, die ganz bestimmt nicht vor unsicherem oder zu schnellem Fahrstil schützen.

Auch wenn die Opt-In-Gestaltung und das Arbeiten mit Belohnungen für präferiertes Verhalten anstatt einer Bestrafung unerwünschten Verhaltens dem Admiral-Modell einen harmlosen Anschein verleihen – Jim Killock, Geschäftsführer der britischen Nichtregierungsorganisation Open Rights Group, warnt vor längerfristigen Konsequenzen der Etablierung solcher Versicherungsmodelle:

Wir müssen über die weitreichenden Konsequenzen nachdenken, die es nach sich zieht, wenn wir Unternehmen erlauben, Entscheidungen anhand unserer Social-Media-Äußerungen zu treffen, die uns finanziell oder anderweitig beeinflussen könnten. Diese aufdringlichen Verfahren könnten dazu führen, dass Gruppen aufgrund von Voreingenommenheit gegenüber Rasse, Geschlecht, Religion oder Sexualität benachteiligt werden – oder weil ihre Posts sie auf sonstige Art als unkonventionell kennzeichnen. Schließlich könnte dies Einfluss darauf haben, wie Menschen Social Media nutzen, und so Selbstzensur im Vorgriff zukünftiger Konsequenzen fördern. Junge Menschen könnten sich wegen finanzieller Zwänge in dieses Muster gedrängt fühlen. Das Recht, Dinge privat zu halten, sollte nicht das Vorrecht derjenigen sein, die es sich leisten können.

Wer darf Facebook-Daten monetarisieren?

Dass Facebook Admiral den möglichen Zugriff auf die Daten seiner Nutzer untersagt hat, ist also zu begrüßen. Dass das Unternehmen den Schritt allerdings mit der Sorge um die Privatsphäre seiner Nutzer begründet, entbehrt nicht einer gewissen Ironie. Ein Facebook-Sprecher sagte gegenüber netzpolitik.org:

Die Privatsphäre von Menschen zu schützen ist von herausragender Bedeutung für uns. Wir haben klare Richtlinien, die verhindern, dass von Facebook gewonnene Information dazu genutzt werden, Zulässigkeitsentscheidungen zu treffen. Wir haben sichergestellt, dass alle, die die App benutzen, durch unsere Richtlinien geschützt sind und dass keine Daten von Facebook-Nutzer*innen genutzt werden, um deren Zulässigkeit zu beurteilen.

In einem Kommentar argumentiert Guardian-Autor Alex Hern, dass es Facebook in seiner Entscheidung nicht so sehr um die Privatsphäre seiner Nutzer geht – sondern primär darum, wer das Recht hat, diese zu monetarisieren:

Die Wahrheit ist, dass Facebook nicht handelt, weil Admiral in die Privatsphäre von Nutzer*innen eindringt. Facebook handelt, weil Admiral das exklusive Recht des Unternehmens missachtet, als einzige Firma Facebook-Daten zu nutzen, um Diskriminierung vorzunehmen. Wenn Facebook sich um unfaire Profilbildung und Privatsphäreverletzungen kümmern würde, hätte es zum Beispiel nicht damit angefangen, Nutzer*innen anhand ihrer „ethnischen Affinität“ zu gruppieren. Es würde dann nicht zulassen, dass diese ethnische Affinität eingesetzt wird, um Nutzer*innen von bestimmter Werbung auszuschließen, und ganz sicher würde es nicht erlauben, dass sie für möglicherweise illegale Diskriminierung im Bereich der Immobilienwerbung eingesetzt wird.

Dazu passt, dass Facebook erst im August 2015 in den USA ein interessantes Patent angemeldet hat. Die Funktion des patentierten Verfahrens? Unter anderem die Berechnung des Kreditrisikos von Facebook-Nutzern anhand ihres Sozialverhaltens.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

3 Ergänzungen

  1. Furchtbar. Und natürlich kriegt man da keinen Rabatt, man zahlt nur nicht mehr. Die suggerierte Nulllinie lässt sich ja definieren wie man will. Intern wird ein Betrag berechnet und wer die App nicht will kriegt einen Aufschlag. Die Versicherung dreht das nun um, definiert den Standardbetrag als den Betrag mit Aufschlag und erklärt nun, mit App gäbe es Rabatte. Am Ende verlieren alle: Die Leute ohne App Geld, die Leute mit App die Hoheit über ihre Daten und ein diskriminierungsfreies Leben, die Leute und die Gesellschaft eine weitere Hemmschwelle. Und irgendwann, in einigen Jahrzehnten, ist der gläserne, rund-um-die-Uhr-überwachte Versicherungskunde nicht optional, sondern Pflicht. Leute, die dann aufgrund obskurer Algorithmen durch das Raster fallen und als unversicherbar gelten werden nur eine Folge sein. „Krankenversicherung? Mit der Familiengeschichte? Das können Sie sich nicht leisten! “

    Weshalb nochmal müssen Versicherungen privatwirtschaftliche Unternehmen mit Gewinnabsicht sein? Eine staatliche Pflichtersicherung mit einzigem langfristigem Ziel der schwarzen Null bei bestmöglicher Versorgung würde uns solche Aasgeier vom Leib schaffen.

    1. .. und ich dachte schon niemand sieht diese Entwicklung kommen, meinen Dank für Ihren Beitrag. Versicherungen darf so ein Geschäftsmodell genau aus den genannten Gründen nicht erlaubt werden, denn am Ende können sich nur noch wohlhabende Datenschutz leisten. Der Normalo ist gläsern und im Zweifel werden seine gesammelten Daten dazu beitragen das ein Unternehmen leichter einen Grund findet keine Leistung erbringen zu müssen. Vermutlich wird eine Regulierung an dieser Stelle aber mein Wunschdenken bleiben.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.