Über die ethische Dimension von Algorithmen – Zeynep Tufekci und die Konferenz #EOA2015

Zeynep Tufekci

Algorithmen, die autonom Entscheidungen treffen, verbreiten sich immer mehr und sind mittlerweile in fast allen Bereichen des gesellschaftlichen Lebens anzutreffen. Sie entscheiden oftmals darüber, wer einen Job bekommt, wer vermutlich terroristische Taten plant oder welche Nachrichtenbeiträge uns erreichen. Grundlage ihrer Schlussfolgerungen sind Daten, die wir (oder Firmen die wir dazu autorisiert haben) tagtäglich über uns im Netz preisgeben.

Unternehmen und Institutionen, die Algorithmen einsetzen, um gigantische Datenmengen zu analysieren und deren Weiterentwicklung vorantreiben, kontrollieren bereits jetzt große Teile unseres Lebens. Sie entscheiden, welche Werbung wir angezeigt bekommen, was die optimale Krankenversicherung für uns ist und ob wir kreditwürdig sind.
Bei Unternehmen oder Geheimdiensten ist die ethische Dimension dieser automatischen Entscheidungsprozesse oftmals kein Thema. Die Debatte über die Gefahren und Möglichkeiten dieser Formeln steht noch ganz am Anfang. Ein starker Impuls hierzu wurde in dieser Woche auf der Konferenz The Ethics of Algorithms gegeben. Geladen waren renommierte Vertreter aus den Bereichen Wissenschaft, Wirtschaft und Bürgerrechten.

Besonders anschaulich wurde die Vielfalt an Möglichkeiten von anwesenden VertreterInnen großer sozialer Netzwerke dargestellt: Videoportale sind beispielsweise in der Lage, durch eine Analyse des Bild- und Tonmaterials das hochgeladenene Material in extrem detaillierte Kategorien zu unterteilen. So könne man sich ganz einfach alle Videos anzeigen lassen, in denen etwa ein Mensch mit einem roten Pullover und einer Basecap vorkommt.

Auch der staatliche Druck auf große Internetkonzerne wurde mehrfach angesprochen. Nach amerikanischem Recht ist es illegal, terroristische Vereinigungen durch materielle Güter oder das Bereitstellen von Infrastruktur zu unterstützen. Dieses Gesetz kann auch auf Inhalte in sozialen Netzwerken angewendet werden: Dem Serveranbieter kann also eine wissentliche Unterstützung von Terroristen unterstellt werden. Um einen solchen Vorwurf im Vorfeld zu vermeiden, filtern die Anbieter Inhalte automatisch.

Enormes Gefahrenpotenzial birgt auch die stille Zensur von Inhalten sozialer Netzwerke und der Ausbau der sogenannten Filter-Bubble. Während den Ferguson-Protesten wurden etwa diesbezügliche Inhalte auf den Startseiten der Nutzer ausgeblendet, was auch weniger Diskussion und Interaktion der Nutzer über die dortigen Unruhen zu Folge hatte. Websiteanbieter haben damals auf Anweisung der Regierung hin bewusst die Debatte in ihren Netzwerken gesteuert um eine Ausweitung der Unruhen zu vermeiden, so die amerikanische Techniksoziologin Zeynep Tufekci, die ebenfalls an der Konferenz teilnahm.

Wir sprachen mit ihr im Anschluss der Veranstaltung über den Disneyland-artigen Zustand ihrer Timeline, die Gefahren automatisierter Algorithmen und die erschreckenden Entwicklungen der letzten Jahre.

Hier klicken, um den Inhalt von Maps Marker anzuzeigen.

Darüber hinaus haben wir ihre Keynote auf der Konferenz aufgenommen und veröffentlichen sie an dieser Stelle.

Hier klicken, um den Inhalt von Maps Marker anzuzeigen.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

6 Ergänzungen

  1. Interessant!
    Gibt es auch irgendwo freien Zugang zu den Inhalten zum Nachlesen für zu-spät-wissende?

    1. Die Google Indexierung hat SEO Arbeitsplätze geschaffen und andere Algos werden andere Gegenbewegungen hervorbringen, die wiederum neue Arbeitsplätze schaffen.

      1. Mein letzter Beitrag ist in der Netzpolitik-Filterblase hängengeblieben, wahrscheinlich weil ich Google und X-E-O erwähnte, um einen Vergleich zu ziehen, könntet ihr mal etwas mehr KI hinter eure Blasenmaschine packen? Ironie, Ironie… :)

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.