Algorithmen, die autonom Entscheidungen treffen, verbreiten sich immer mehr und sind mittlerweile in fast allen Bereichen des gesellschaftlichen Lebens anzutreffen. Sie entscheiden oftmals darüber, wer einen Job bekommt, wer vermutlich terroristische Taten plant oder welche Nachrichtenbeiträge uns erreichen. Grundlage ihrer Schlussfolgerungen sind Daten, die wir (oder Firmen die wir dazu autorisiert haben) tagtäglich über uns im Netz preisgeben.
Unternehmen und Institutionen, die Algorithmen einsetzen, um gigantische Datenmengen zu analysieren und deren Weiterentwicklung vorantreiben, kontrollieren bereits jetzt große Teile unseres Lebens. Sie entscheiden, welche Werbung wir angezeigt bekommen, was die optimale Krankenversicherung für uns ist und ob wir kreditwürdig sind.
Bei Unternehmen oder Geheimdiensten ist die ethische Dimension dieser automatischen Entscheidungsprozesse oftmals kein Thema. Die Debatte über die Gefahren und Möglichkeiten dieser Formeln steht noch ganz am Anfang. Ein starker Impuls hierzu wurde in dieser Woche auf der Konferenz The Ethics of Algorithms gegeben. Geladen waren renommierte Vertreter aus den Bereichen Wissenschaft, Wirtschaft und Bürgerrechten.
Besonders anschaulich wurde die Vielfalt an Möglichkeiten von anwesenden VertreterInnen großer sozialer Netzwerke dargestellt: Videoportale sind beispielsweise in der Lage, durch eine Analyse des Bild- und Tonmaterials das hochgeladenene Material in extrem detaillierte Kategorien zu unterteilen. So könne man sich ganz einfach alle Videos anzeigen lassen, in denen etwa ein Mensch mit einem roten Pullover und einer Basecap vorkommt.
Auch der staatliche Druck auf große Internetkonzerne wurde mehrfach angesprochen. Nach amerikanischem Recht ist es illegal, terroristische Vereinigungen durch materielle Güter oder das Bereitstellen von Infrastruktur zu unterstützen. Dieses Gesetz kann auch auf Inhalte in sozialen Netzwerken angewendet werden: Dem Serveranbieter kann also eine wissentliche Unterstützung von Terroristen unterstellt werden. Um einen solchen Vorwurf im Vorfeld zu vermeiden, filtern die Anbieter Inhalte automatisch.
Enormes Gefahrenpotenzial birgt auch die stille Zensur von Inhalten sozialer Netzwerke und der Ausbau der sogenannten Filter-Bubble. Während den Ferguson-Protesten wurden etwa diesbezügliche Inhalte auf den Startseiten der Nutzer ausgeblendet, was auch weniger Diskussion und Interaktion der Nutzer über die dortigen Unruhen zu Folge hatte. Websiteanbieter haben damals auf Anweisung der Regierung hin bewusst die Debatte in ihren Netzwerken gesteuert um eine Ausweitung der Unruhen zu vermeiden, so die amerikanische Techniksoziologin Zeynep Tufekci, die ebenfalls an der Konferenz teilnahm.
Wir sprachen mit ihr im Anschluss der Veranstaltung über den Disneyland-artigen Zustand ihrer Timeline, die Gefahren automatisierter Algorithmen und die erschreckenden Entwicklungen der letzten Jahre.
Darüber hinaus haben wir ihre Keynote auf der Konferenz aufgenommen und veröffentlichen sie an dieser Stelle.
Nicht #EOA2015?
Interessant!
Gibt es auch irgendwo freien Zugang zu den Inhalten zum Nachlesen für zu-spät-wissende?
Das wird auch sehr viele Arbeitsplätze kosten, wenn immer mehr autonom von selbst läuft.
Die Google Indexierung hat SEO Arbeitsplätze geschaffen und andere Algos werden andere Gegenbewegungen hervorbringen, die wiederum neue Arbeitsplätze schaffen.
Mein letzter Beitrag ist in der Netzpolitik-Filterblase hängengeblieben, wahrscheinlich weil ich Google und X-E-O erwähnte, um einen Vergleich zu ziehen, könntet ihr mal etwas mehr KI hinter eure Blasenmaschine packen? Ironie, Ironie… :)
SEO steht tatsächlich in unserem Filter, um die ganzen Schleichwerbe-Versuche zu unterbinden.