Technische Entscheidungen können soziale Auswirkungen haben und dürfen nicht dem Zufall überlassen werden. Der neue Praxisleitfaden soll helfen, möglichst früh die richtigen Fragen zu beantworten.
Technologie Algo.Rules

Mit 145 Fragen zu besseren Entscheidungssystemen

Mit ihren „Algo.Rules“ legt die Bertelsmann Stiftung einen Werkzeugkoffer für Entwickler:innen, Programmierer:innen und Designer:innen von automatisierten Entscheidungsregeln vor. Neben neun grundsätzlichen Regeln setzt der Leitfaden vor allem auf Orientierungsfragen für die Praxis.

Lesen Sie diesen Artikel: Mit 145 Fragen zu besseren Entscheidungssystemen
Technologie Datenrassismus

Eine neue Ära

Datenbasierte Technologien bringen nicht nur mehr Effizienz. Sie werden auch zur Gefahr für jene, die ohnehin schon strukturell am Rand stehen. In ihrem Gastbeitrag erklärt Sarah Chander, was Datenrassismus ist, wie er sich auf Betroffene auswirkt und was wir dagegen tun können.

Lesen Sie diesen Artikel: Eine neue Ära
Weggabelung
Technologie Algorithmische Entscheidungen

Warum das Scoring polnischer Arbeitssuchender gescheitert ist

Polen wollte Arbeitssuchende mit einem Algorithmus bewerten, musste den umstrittenen Versuch jedoch zurückziehen. Aus dem gescheiterten Anlauf lassen sich jedoch einige Lehren ziehen – um besser gegen ähnliche Maßnahmen in anderen EU-Ländern gewappnet zu sein. Die österreichische Digital-NGO epicenter.works sucht nun Betroffene, die womöglich algorithmisch diskriminiert wurden.

Lesen Sie diesen Artikel: Warum das Scoring polnischer Arbeitssuchender gescheitert ist
Spielfiguren auf einem Feld, eine abseits
Netzpolitik Podcast

NPP 178: Wenn Algorithmen unabsichtlich diskriminieren

Kein Kredit, weil du nicht oft genug bei Mama anrufst? Keine Versicherung, weil du in der falschen Facebook-Gruppe hängst? Gegen Diskriminierung aufgrund von Geschlecht, Herkunft, Alter oder Religion gibt es Gesetze. Aber was passiert, wenn Algorithmen in ihren Vorhersagen unabsichtlich diskriminieren? Wir sprachen mit Daniel Schwarcz über Gleichbehandlung im Zeitalter von Künstlicher Intelligenz.

Lesen Sie diesen Artikel: NPP 178: Wenn Algorithmen unabsichtlich diskriminieren
Technologie

Facebook’s Algorithm Shapes Our Lives. This Hacker Wants to Find Out How.

Claudio Agosti wants to know what Facebook does with him. The programmer has developed a browser extension that collects data donations from users. He wants to decipher why we only get to see very specific political news – and what Facebook is hiding from us in their News Feed.

Lesen Sie diesen Artikel: Facebook’s Algorithm Shapes Our Lives. This Hacker Wants to Find Out How.
Cinderella mit Prinz
Netzpolitik Podcast

NPP 175 mit Caroline Sinders: Wie trainiert man einen feministischen Algorithmus?

Welche Daten-Zutaten kommen in meinen Algorithmus? Kann man in Songtexten von Beyoncé und Büchern von Virginia Woolf feministische Muster erkennen? Mit Fragen wie diesen will die Forscherin Caroline Sinders die Debatte um maschinelles Lernen ankurbeln. Ihr Ziel: Auch ihr Vater soll Algorithmen verstehen können.

Lesen Sie diesen Artikel: NPP 175 mit Caroline Sinders: Wie trainiert man einen feministischen Algorithmus?
Öffentlichkeit

Warum Künstliche Intelligenz Facebooks Moderationsprobleme nicht lösen kann, ohne neue zu schaffen

Der Datenkonzern Facebook setzt bei der Moderation von Inhalten zunehmend auf Automatisierung. Eine Quelle erklärt uns erstmals, wie sich die Maschinen auf die Moderationsarbeit auswirken. Auch wenn am Ende heute immer noch Menschen entscheiden: Die automatisierte Inhaltserkennung verändert die digitale Öffentlichkeit grundlegend.

Lesen Sie diesen Artikel: Warum Künstliche Intelligenz Facebooks Moderationsprobleme nicht lösen kann, ohne neue zu schaffen
Öffentlichkeit

Hohes Diskriminierungspotential bei automatisierten Entscheidungen

In vielen gesellschaftlichen Bereichen werden Entscheidungen bereits von Algorithmen getroffen. Doch das ist mit Risiken für den Menschen verbunden. Mit dem „Atlas der Automatisierung“ möchte AlgorithmWatch zu mehr Transparenz in der automatisierten Entscheidungsfindung beitragen.

Lesen Sie diesen Artikel: Hohes Diskriminierungspotential bei automatisierten Entscheidungen
Demokratie

Gesichtserkennung: Kritik macht Algorithmen genauer, nicht nur für weiße Männer

Die MIT-Forscherin Joy Buolamwini hat untersucht, wie ihre Kritik an diskriminierender Gesichtserkennung zur Lösung des Problems beiträgt. Ein halbes Jahr nach ihrer Studie zeigt sich: unabhängige Beobachtung wirkt. IBM, Microsoft und andere Hersteller erkennen nun Gesichter von Schwarzen und Frauen besser.

Lesen Sie diesen Artikel: Gesichtserkennung: Kritik macht Algorithmen genauer, nicht nur für weiße Männer
Was vom Tage übrig blieb

Was vom Tage übrig blieb: Arme Ficker, diskriminierende Automaten und eine Playstation auf der Gemüsewaage

Was die Träger bestimmter Nachnamen im Internet erwartet, zu welchen schmutzigen Tricks Facebook greift, wie ein Franzose billig an eine Playstation gelangt ist, wie NSA-Mitarbeiter und Emirati Menschenrechtsaktivisten überwachen, automatisierte Entscheidungen Menschen gängeln und der Föderalismus den Digitalpakt verhindert. Die interessantesten Reste des Tages.

Lesen Sie diesen Artikel: Was vom Tage übrig blieb: Arme Ficker, diskriminierende Automaten und eine Playstation auf der Gemüsewaage
Technologie

Fortschritt oder Mythos? Buch sammelt kritische Stimmen zur Mustererkennung

Von eingespeisten Daten bis zum Output: Technische und soziale Diskriminierung durchzieht alle Ebenen von sogenannten Mustererkennungsverfahren. Das Buch „Pattern Discrimination“ liefert dort spannende Einsichten, wo Fortschrittsglaube und Marktlogik die gesellschaftlichen Auswirkungen sonst verschleiern.

Lesen Sie diesen Artikel: Fortschritt oder Mythos? Buch sammelt kritische Stimmen zur Mustererkennung
Menschen in der Hängematte in der Sonne
Technologie

Interview mit KI-Forscher Toby Walsh: „Wir müssen jetzt die richtigen Entscheidungen treffen“

Keine Panik, Künstliche Intelligenz wird uns nicht umbringen, sondern unser Leben besser machen. Das sagt Toby Walsh, einer der führenden Experten aus der KI-Forschung. Allerdings müssen wir uns dazu klar werden, was ein gutes Leben ausmacht. Ein Gespräch darüber, was wir an Maschinen delegieren sollten, welche Jobs für uns übrig bleiben und warum alte Werte auch für neue Technologien gelten.

Lesen Sie diesen Artikel: Interview mit KI-Forscher Toby Walsh: „Wir müssen jetzt die richtigen Entscheidungen treffen“
Ein blauer Neon-Schriftzu auf einer Wand liest "Data has a better idea"
Linkschleuder

Enquête-Kommission Künstliche Intelligenz: Sachverständige und Abgeordnete klären Grundbegriffe

Die Enquête-Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale“ hielt am Montag ihre erste Klausurtagung ab. Der Kommission gehören insgesamt 19 Abgeordnete sowie 19 externe Sachverständige an. Für einige der Abgeordneten dürfte die Klausurtagung ein KI-Crashkurs gewesen sein. Bundestagspräsident Wolfgang Schäuble (CDU), der die konstituierende Sitzung eröffnete, erklärte, man wolle verstehen, was KI […]

Lesen Sie diesen Artikel: Enquête-Kommission Künstliche Intelligenz: Sachverständige und Abgeordnete klären Grundbegriffe
Technologie

Algorithmen und Künstliche Intelligenz: Wir reden an unserer Zukunft vorbei

Maschinen treffen zunehmend selbstständig und intransparent Entscheidungen, die tief in unser Leben eingreifen. Aber statt längst überfällige Weichenstellungen demokratisch vorzunehmen, führen wir lieber irreführende Debatten über die EU-Datenschutzreform, Seehofers Asylpolemik und das vermeintliche Wundermittel Uploadfilter. Ein Aufruf zur Korrektur.

Lesen Sie diesen Artikel: Algorithmen und Künstliche Intelligenz: Wir reden an unserer Zukunft vorbei
Demokratie

Algorithmische Entscheidungsfindung: Handlungsbedarf und Lösungsansätze in der Übersicht

Algorithmen und Künstliche Intelligenz kommen nicht, sie sind längst da – und bestimmen immer mehr unser Leben. Welche Chancen und Risiken ergeben sich daraus? Wie ist zu sichern, dass Maschinen dem Menschen dienen? Ein neues Arbeitspapier gibt Überblick über die Debatte – und ordnet Handlungsbedarf und Lösungsansätze aus rechtlicher, technischer und politischer Perspektive.

Lesen Sie diesen Artikel: Algorithmische Entscheidungsfindung: Handlungsbedarf und Lösungsansätze in der Übersicht
Nutzerrechte

OpenSCHUFA: Mehr als 15.000 Auskunftsanfragen in einem Monat

Scoring-Unternehmen wie die SCHUFA wissen viel über uns, arbeiten selbst aber intransparent. Mit einer Datenspende-Aktion will die Initiative OpenSCHUFA die Bewertungs-Blackbox knacken. Wir haben Mitinitiator Lorenz Matzat zum ersten Monat seit dem Projektstart, dem weiteren Vorgehen und grundsätzlichen Problemen des Scorings befragt.

Lesen Sie diesen Artikel: OpenSCHUFA: Mehr als 15.000 Auskunftsanfragen in einem Monat