Interview mit Maya Ganesh: Wie sehen uns Maschinen?

Datenforscherin Maya Ganesh erklärt im Video, was Big Data mit Diskriminierung zu tun hat und welche persönlichen Konsequenzen ein vermeintlich harmloses Thema wie Machine Learning haben kann.

Maya Ganesh (links) im Gespräch mit Kathrin Maurer. CC-BY-NC-ND 4.0

Während unserer „Das ist Netzpolitik!“-Konferenz am 1. September 2017 haben wir einige Interviews  geführt. Dieses ist eines davon.

Den Anfang macht ein Gespräch mit der Datenforscherin Maya Ganesh. Sie erklärt, was Big Data mit Diskriminierung zu tun hat, und berichtet von einem Algorithmus, der bereits jetzt mit einer Trefferquote von neunzig Prozent voraussagen kann, ob die Person auf einem Foto homo- oder heterosexuell ist. Das eher abstrakt klingende Machine Learning (dt.: „Maschinelles Lernen“) könnte also schon mit heutigem Stand der Technik konkrete, gefährliche Folgen für den Einzelnen und seine Privatsphäre haben. Mehr dazu im englischen Originalgespräch, das wir für euch mit deutschen Untertiteln versehen haben.

Das Gespräch findet ihr auch auf unserem Youtube-Kanal, dort sind die deutschen Untertitel optional. Viel Spaß!

Ganeshs englischsprachigen Vortrag „Big Data Bodies: Machines and Algorithms in the World“ findet ihr sowohl auf Youtube als auch bei media.ccc.de.

No Tracking. No Paywall. No Bullshit.

Unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze jetzt unsere Arbeit mit einer Spende.

Jetzt spenden

0 Ergänzungen

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Bitte keine reinen Meinungsbeiträge! Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.