DatenrassismusWenn Algorithmen den Hauskredit verweigern

Schwarze US-Amerikaner:innen haben es bei der Haussuche ohnehin schwer. Eine umfangreiche Datenanalyse belegt nun, dass die Diskriminierung auf dem Immobilienmarkt auch automatisiert zuschlägt.

Der Traum vom Eigenheim wird vielen schwarzen US-Amerikaner:innen auch algorithmisch verwehrt. (Symbolbild) Gemeinfrei-ähnlich freigegeben durch unsplash.com Tierra Mallorca

Menschen mit schwarzer Hautfarbe erhalten in den USA schwerer einen Kredit, um damit ein Haus zu kaufen. Dabei spielt ihr Einkommen und ihre sonstige Verschuldung keine Rolle, hat The Markup in einer Datenanalyse herausgefunden. Gut verdienende schwarze Antragsteller:innen mit wenig Schulden werden von der Vergabe-Software sogar eher abgewiesen als weiße Kreditnehmer mit mehr Schulden.

Automatische Vergabesysteme und die zugrunde liegenden Daten haben einen entscheidenden Einfluss auf eine Bewilligung oder Ablehnung. Banken setzen dazu proprietäre Software ein, in die genaue Funktionsweise der Algorithmen haben selbst Regulierungsbehörden keinen detaillierten Einblick. Die zwei großen staatsnahen Banken Fannie Mae und Freddie Mac sperren sich etwa gegen eine Offenlegung, um einen Nachbau zu verhindern.

Vergiftetes Datenmaterial

Schon das Datenmaterial, mit dem diese Systeme gefüttert werden, kann das Ergebnis einer Kreditprüfung vorwegnehmen, wie The Markup nachzeichnet. So siedeln sich Anbieter von Kurzzeitkrediten vornehmlich in schwarzen Wohngebieten an, wo traditionelle Banken hingegen wenige Filialen haben. Allein das führe in Summe zu verzerrten Bonitätsgeschichten und einer verringerten Kreditwürdigkeit. Andere Faktoren, etwa mehrere Einkommensquellen aus kleineren Jobs oder weniger angesparte Reserven, senken die Chance weiter, einen Kredit zu erhalten.

Die Diskriminierung nach Hautfarbe hat in den USA eine lange Tradition, ist jedoch seit Jahrzehnten gesetzlich verboten. Das Versprechen, dieser Praxis unter anderem mit scheinbar neutralen algorithmischen Entscheidungen ein Ende zu bereiten, ist jedoch bis heute nicht eingelöst.

Hohes Diskriminierungspotential

Sogenannter Datenrassismus, der die Vorurteile und blinden Flecken der Entwickler:innen reproduziert, macht sich bei automatisierten Entscheidungssystem besonders bemerkbar. Gesichtserkennung funktioniert etwa mit weißen Gesichtern am besten, automatisierte Inhaltemoderation assoziiert Minderheiten mit Hass und schlecht gemachte Softwaresysteme sagen fälschlicherweise voraus, dass schwarze Menschen eher kriminell werden.

Aufgrund des hohen Diskriminierungspotentials Künstlicher Intelligenz (KI) will die EU-Kommission bestimmte Bereiche besonders streng regulieren. „Insbesondere KI-Systeme, die zur Kreditpunktebewertung oder zur Bewertung der Kreditwürdigkeit natürlicher Personen verwendet werden, sollten als Hochrisiko-KI-Systeme eingestuft werden“, da sie den Zugang zu wesentlichen Dienstleistungen wie Wohnraum bestimmen, heißt es in einem Anfang des Jahres vorgestellten Gesetzesentwurf.

3 Ergänzungen

  1. Eigentlich wäre zu erwarten das Banken sich spezialisieren und genau diese Schwäche für sich ausnutzen, immerhin betrifft es über 40 Prozent der US-Bevölkerung, und somit weit mehr als 100.000.000 Einwohner.

    Dahingehend verwundert es das Banken dieses Potential ungenutzt brach liegen lassen, was dann durchaus als strukturelles Versagen des Kapitalismus angesehen kann.

  2. Man sollte hier nicht ganz vergessen das die Risikobewertung von Hypotheken (also die fehlende) in den Jahren 2006…2008 die seitdem andauernde Bankenkrise – die unter Anderem für die Mietsteigerungen in deiner Stadt verantwortlich ist – erst ermöglicht hat. Das nun das Pendel in die andere Richtung ausschlägt und die Hypothekenfinanzierer jede Möglichkeit verwenden um ihr Risiko zu drücken ist nicht ganz ohne Grund.

    Diskriminierung, d.h. von einem offensichtlichen Merkmal auf ein anderes zu schließen ist leider immer der Normalfall im Finanzsektor. Siehe zB das Scoring per Nachbarschaft bei der Schufa.

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.