Technische Entscheidungen können soziale Auswirkungen haben und dürfen nicht dem Zufall überlassen werden. Der neue Praxisleitfaden soll helfen, möglichst früh die richtigen Fragen zu beantworten.
Technologie

Algo.RulesMit 145 Fragen zu besseren Entscheidungssystemen

Mit ihren „Algo.Rules“ legt die Bertelsmann Stiftung einen Werkzeugkoffer für Entwickler:innen, Programmierer:innen und Designer:innen von automatisierten Entscheidungsregeln vor. Neben neun grundsätzlichen Regeln setzt der Leitfaden vor allem auf Orientierungsfragen für die Praxis.

Lesen Sie diesen Artikel: Mit 145 Fragen zu besseren Entscheidungssystemen
Technologie

DatenrassismusEine neue Ära

Datenbasierte Technologien bringen nicht nur mehr Effizienz. Sie werden auch zur Gefahr für jene, die ohnehin schon strukturell am Rand stehen. In ihrem Gastbeitrag erklärt Sarah Chander, was Datenrassismus ist, wie er sich auf Betroffene auswirkt und was wir dagegen tun können.

Lesen Sie diesen Artikel: Eine neue Ära
Jugendliche sitzen vor AMS-Beraterin
Off/On – der Podcast von netzpolitik.org

Podcast NPP 190Mal sehen, was der Computer sagt

In Österreich bestimmt bald ein Algorithmus mit über die Chancen von Arbeitslosen. Der Staat verwendet dann ein System, das offen gegen Mütter, Zuwanderer*innen und Menschen mit Behinderung diskriminiert. Dabei könnte man die Prognosen auch positiv nutzen. Wie, das erklärt in dieser Folge die Mathematikerin Paola Lopez.

Lesen Sie diesen Artikel: Mal sehen, was der Computer sagt
Frau sitzt neben einem AMS-Berater
Technologie

ÖsterreichStreit um den AMS-Algorithmus geht in die nächste Runde

In Österreich hält der politische Streit um den Einsatz eines algorithmischen Systems zur Sortierung von Arbeitslosen weiter an. Jetzt haben Forscher*innen das System aus wissenschaftlicher Sicht scharf kritisiert. Der Fall könnte zum Beispiel dafür werden, wie die öffentliche Hand mit der Technologie nicht umgehen sollte.

Lesen Sie diesen Artikel: Streit um den AMS-Algorithmus geht in die nächste Runde
Öffentlichkeit

Hohes Diskriminierungspotential bei automatisierten Entscheidungen

In vielen gesellschaftlichen Bereichen werden Entscheidungen bereits von Algorithmen getroffen. Doch das ist mit Risiken für den Menschen verbunden. Mit dem „Atlas der Automatisierung“ möchte AlgorithmWatch zu mehr Transparenz in der automatisierten Entscheidungsfindung beitragen.

Lesen Sie diesen Artikel: Hohes Diskriminierungspotential bei automatisierten Entscheidungen
Demokratie

Radiofeature: Algorithmen als Schicksalsmaschinen

Der Einsatz von Prognose-Software zur Beurteilung von Angeklagten scheint rassistische Ungleichheit im US-Justizsystem zu verschärfen. Zweifel bestehen sowohl an der Datenbasis und Methodik des Verfahrens als auch den Ergebnissen. Deutschlandfunk hat in einem hörenswerten Radiofeature zentrale Aspekte des Themas aufgearbeitet.

Lesen Sie diesen Artikel: Radiofeature: Algorithmen als Schicksalsmaschinen
Linkschleuder

Wenn Maschinen Menschen bewerten: Algorithmische Entscheidungen in der Praxis

Für die Bertelsmann Stiftung hat Konrad Lischka einen umfassenden Überblick über Anwendungsfälle algorithmischer Entscheidungsfindungsverfahren verfasst. Das Arbeitspapier setzt sich mit insgesamt neun Einsatzfeldern auseinander, von gerichtlichen Rückfallprognosen über Bewerbervorauswahlen und Kreditvergaben bis zu Predictive Policing. Neben deskriptiven Elementen beleuchtet das Papier aus der Perspektive der Teilhabegerechtigkeit Chancen und Risiken. Zusammenfassend wirbt das Papier für einen […]

Lesen Sie diesen Artikel: Wenn Maschinen Menschen bewerten: Algorithmische Entscheidungen in der Praxis