AlgorithmWatchWiderspruch mit ein paar Klicks

Dass automatisierte Entscheidungen zu Problemen führen, ist mittlerweile bekannt. Für die Betroffenen gibt es oft keine Möglichkeit, sich zu beschweren. Die Plattform Unding will jetzt dafür sorgen, dass Stimmen zu Negativbeispielen an den richtigen Stellen gehört werden.

Roboter vor einem Kasten mit Roboterteilen.
Automatisierte Entscheidungen sind häufig intransparent für die Betroffenen (Symbolbild). Gemeinfrei-ähnlich freigegeben durch unsplash.com Brett Jordan

Automatisierte Entscheidungen, etwa von Google, beeinflussen unser Leben immer mehr. Aber was, wenn die Entscheidungen falsch sind? Autos sollten zum Beispiel nicht durch eine Fahrradstraße geleitet werden. Die Google-Suche sollte niemanden diffamieren. Und dass ein Mensch keinen Vertrag bekommt, weil die Schufa beim Scoring Fehler gemacht hat, ist auch nicht der Idealfall.

Die Organisation AlgorithmWatch hat jetzt eine Plattform entwickelt, mit der Betroffene auf diese Diskriminierung aufmerksam machen können. Auf Unding.de sind aktuell vier Szenarien aufgeführt, zu denen Missstände gemeldet werden können, weitere sollen hinzukommen.

Beispiele für automatisierte Diskriminierung

Ein Beispiel: Angenommen, die eigene Straße wird auf einmal von Automassen belagert. Die Antwort könnte sein: Es gibt eine Baustelle und anstelle der vom Verkehrsamt vorgesehenen Umleitung navigiert Google Maps über eben jene Straße, weil das schneller geht. Rücksicht auf verkehrsberuhigte Gebiete oder Wohnraum wird nicht genommen. Auf Unding könnte genau so ein Fall ganz einfach gemeldet werden.

Nutzer:innen werden in einem Frage-Antwort-System gebeten, das Problem zu spezifizieren. Unding erstellt aus den gesammelten Informationen eine E-Mail und schickt sie an die verantwortliche Stelle, in diesem Fall Google.

ChatBot
Screenshot der Plattform Unding.de

In anderen Fällen könnten auch staatliche Stellen zuständig sein, so etwa für ein weiteres Szenario, das bereits auf der Plattform ist: Fotoautomaten. Bei einigen Amtsvorgängen müssen inzwischen biometrische Bilder vorgelegt werden, für die eigentlich Fotoautomaten direkt vor Ort genutzt werden können. Diese Automaten erkennen allerdings Schwarze Menschen und People of Color oft nicht. Auch solche Fehler in der Gesichtserkennung können direkt auf Unding.de gemeldet werden. Der Missstand wird dann an das Bundesamt für Sicherheit in der Informationstechnik (BSI) gemeldet, das die Fotoautomaten zertifiziert. Der Inhalt der Mail wird automatisch generiert und enthält alle wichtigen Angaben, die beschwerende Person muss sich um nichts weiter kümmern.

Die Plattform ist momentan noch in der Entwicklung und es gilt, je mehr Fälle gemeldet werden, desto besser. Die Macher:innen fordern auf, auch Vorfälle zu melden, die derzeit noch nicht aufgelistet sind. Sie werden dann aufgenommen und integriert.

Mehr Zeit für kritische Berichterstattung

Ihr kennt es: Zum Jahresende stehen wir traditionell vor einer sehr großen Finanzierungslücke und auch wenn die Planung und Umsetzung unseres Spendenendspurts viel Spaß macht, bindet es doch sehr viele Ressourcen; Ressourcen, die an anderer Stelle für unsere wichtige Arbeit fehlen. Um Euch also weniger mit Spendenaufrufen auf die Nerven zu gehen und mehr Recherchen und Hintergründe bieten zu können, brauchen wir Eure regelmäßige Unterstützung.

Jährlich eine Stunde netzpolitik.org finanzieren

Das Jahr hat 8.760 Stunden. Das sind 8.760 Stunden freier Zugang zu kritischer Berichterstattung und wichtigen Fragestellungen rund um Internet, Gesellschaft und Politik bei netzpolitik.org.

Werde Teil unserer Unterstützungs-Community und finanziere jährlich eine von 8.760 Stunden netzpolitik.org oder eben fünf Minuten im Monat.

Jetzt spenden


Jetzt spenden

0 Ergänzungen

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Bitte keine reinen Meinungsbeiträge! Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.