Airbnb ist im Besitz von Software, die die Online-„Persönlichkeit“ von Nutzer*innen analysieren kann. Das Programm soll daraus die Wahrscheinlichkeit kalkulieren, mit der die Person die gemietete Wohnung in einem akzeptablen Zustand verlässt. Wie der Evening Standard berichtet, will Airbnb mithilfe dieses Zuverlässigkeits-Scores Betrug und kostspielige Entschädigungszahlungen an Hosts vermeiden, deren Wohnungen durch Gäste verwüstet wurden.
In der Vergangenheit war es wiederholt vorgekommen, dass Airbnb-Wohnung durch Partys verwüstet wurden. Die betroffenen Vermieter*innen verklagten daraufhin die Plattform, die mehrmals hohe Entschädigungen zur Instandsetzung der Wohnungen zahlen musste.
Airbnb streitet Nutzung ab
Auf Nachfrage von netzpolitik.org gab Airbnb bis jetzt keinen Kommentar zur Art und Häufigkeit der Nutzung der Software. Auf der Website des Unternehmens steht jedoch unter dem Aspekt „Vertrauen und Sicherheit“:
Bei jeder Airbnb-Buchung wird vor der Bestätigung das Risiko bewertet. Wir nutzen Vorhersagemethoden und maschinelles Lernen, um auf der Stelle Hunderte von Signalen auszuwerten, die uns dabei helfen, verdächtige Aktivitäten zu erkennen und zu unterbinden, noch bevor sie eintreten.
Aus der Nutzung von künstlicher Intelligenz bei der Bewertung der Vertrauenswürdigkeit seiner Nutzer*innen macht Airbnb also kein Geheimnis. Weiter heißt es:
Wir führen weltweit bei allen Gastgebern und Gästen einen Abgleich mit Behörden-, Terroristen- und Sanktionslisten durch – auch wenn natürlich kein Überwachungssystem perfekt ist.
Gegenüber Spiegel Online gab das Unternehmen an, die fragliche Software nicht zu nutzen. Man melde regelmäßig Patente an, ohne diese zwangsläufig umzusetzen. Allerdings benutze man ein Echtzeit-Risiko-Erkennungssystem sowie „komplexe Technologien und Verhaltensanalyse-Techniken” um Betrug und nicht autorisierte Veranstaltungen zu verhindern.
Auch in der Datenschutzerklärung stehen Verweise, die auf die Nutzung der beschriebenen Technologien hindeuten. Unter dem Punkt „Daten, die wir von Dritten erheben“ heißt es:
Wir können uns von Kooperationspartnern Informationen über Sie und Ihre Aktivitäten innerhalb und außerhalb der Airbnb-Plattform sowie von unseren Partner-Anzeigennetzwerken Informationen über Ihre Erfahrungen und Interaktionen zukommen lassen.
Wie funktioniert der Background-Check?
Die von Airbnb patentierte Software zur Durchführung von Background-Checks wurde ursprünglich von einem Start-up namens Trooly entwickelt, das 2017 von der Plattform aufgekauft wurde. Auf der Website von Trooly hieß es damals, man könne innerhalb von 30 Sekunden akkurate, kosteneffektive und vorurteilsfreie Background-Checks erstellen. Die dafür notwendigen Daten würden aus dem öffentlichen Netz, dem Dark Web sowie eigener „Aggregation von digitalen öffentlichen Aufzeichnungen“ stammen. Die Website ist mittlerweile offline.
Im Patent zu ihrer Software wird noch genauer auf die verwendete Methodik eingegangen. So werden zusätzlich als Datenquelle noch soziale Netzwerke, Blogs, Service Provider sowie öffentliche und kommerzielle Datenbanken genannt. Die erhobenen Informationen durchforstet ein Algorithmus dann nach positiven oder negativen Merkmalen.
Hat die betroffene Person beispielsweise ein falsches oder irreführendes Online-Profil angelegt, sinkt die vermutete Vertrauenswürdigkeit. Um dabei eine korrekte Identifizierung zu gewährleisten, werden laut Patent eine oder mehrere der folgenden Informationen eingeholt: Name, Email, Telefonnummer, Standort, Geburtstag, Soziale Verbindungen, Beschäftigungshistorie, Bildungsweg, Führerscheinnummer, Informationen über Finanzen, IP-Adresse, Geräte-Identifizierung.
Sexarbeit und negative Sprache geben Punktabzug
Die beschriebene Software durchsucht bei einer Überprüfung das Netz nach Inhalten mit negativer Sprache, die der untersuchten Person zugeordnet werden können. Bei Treffern führt dies zu einer Verschlechterung des Vertrauenswürdigkeits-Score. Des Weiteren bezieht der Algorithmus Interessen von Nutzer*innen in seine Einschätzung ein, die eine „negative Persönlichkeit implizieren“.
Dazu werden anscheinend öffentlich verfügbare Fotos aus sozialen Netzwerken daraufhin untersucht, ob Alkohol oder andere Drogen erkennbar sind. Wer also gerne mal Fotos vom Feierabendbier oder -Cocktail teilt, könnte deshalb womöglich Probleme bei der nächsten Airbnb-Buchung bekommen.
Auch das Liken von Seiten, die vermeintlich Hass verbreiten, sowie Berührungspunkte mit Sexarbeit wirken sich negativ aus. Ebenso werden Bekanntschaften vom Algorithmus für die Bewertung der vermuteten Vertrauenswürdigkeit herangezogen. Wenn diese aufgrund der genannten Kriterien als vertrauenswürdig eingestuft werden, wirkt sich dies positiv auf den Score der überprüften Person aus.
Anti-sozial und machiavellistisch vs. offen und verträglich
Auf Basis dieser Einschätzung werden Personen dann in der letzten Phase Persönlichkeitsmerkmale zugeordnet. Die im Patent genannten Kategorien umfassen unter anderem Begriffe mit negativer Konnotation wie anti-soziale Tendenzen, narzisstisch und machiavellistisch. Gewünschte Eigenschaften sind demgegenüber beispielsweise Offenheit und Verträglichkeit.
Matthias Spielkamp von der Bürgerrechtsorganisation AlgorithmWatch äußerte gegenüber Deutschlandfunk Nova große Vorbehalte bezüglich der Nutzung solcher Technologien: „Die große Gefahr ist, dass ganz viele Leute eine Einschätzung bekommen, die sie daran hindern wird, Wohnungen zu mieten, obwohl sie überhaupt nichts tun würden, was einen Schaden herbeiführt.“
Und wen so ein Social Score stört, der benutzt ab jetzt einfach andere Hotels, um sich zukünftig nicht vorschreiben lassen zu müssen, wie er sein Leben zu führen hat.
Nur weil eine Minderheit etwas kaputt macht, muss man nicht die Mehrheit einer Rasterung unterziehen. Das der Geldbeutel der Kunden Macht besitzt, musste auch die Firma Gillete bei ihrer ungünstig formulierten Werbung erkennen.
Daten sammeln und verarbeiten ohne ausdrückliche Zustimmung des Betroffenen. Hört sich für mich wie ein krasser Verstoß gegen die DSGVO an.
Nun ja, ich verstehe die Empörung bzgl. der automatisierten Risikobewertung.
Bei einem Unternehmen in der Größenordnung und diesem Geschäftsmodell wäre eine manuelle Prüfung allerdings unverhältnismäßig. Viel wichtiger wäre es, wenn die Algorithmen, Personenmerkmale und deren Gewichtung transparent werden. Per Gesetz. Doch dann kommen wir in einem Bereich der Versicherungsmissbrauch gleichwohl Tür und Tor öffnet, weil genau dieses Scoring dort gleichwohl diese Geschäftsmodelle überhaupt ermöglichen.
Am Ende zählt aber: Es herrscht Privatautonomie / Vertragsfreiheit.