ADM
-
Interview: AI at Europe’s Borders
“Against Automated Fortress Europe” at re:publica24 Interview: AI at Europe’s Borders People on the move face dehumanizing and discriminatory treatment at Europe’s borders. Yet, the EU continues to fund projects that aim to automate these practices with the help of AI and by this exacerbates the plight of migrants. An interview with Antonella Napolitano and Fabio Chiusi.
-
Interview: Gegen automatisierte Außengrenzen
“Against Automated Fortress Europe” auf der re:publica24 Interview: Gegen automatisierte Außengrenzen Menschen auf der Flucht sind an den europäischen Außengrenzen unmenschlicher und diskriminierender Behandlung ausgesetzt. Dennoch finanziert die EU weiterhin Projekte, die den Status Quo mit Hilfe von KI automatisieren sollen – und verschärft damit die Notlage. Ein Gespräch mit Antonella Napolitano und Fabio Chiusi.
-
Aufsicht und Transparenz: Wie die Niederlande aus KI-Skandalen lernen
Amsterdam sucht unter anderem teil-automatisiert nach falsch Parkenden. Die Gefahren solcher KI-Systeme soll eine Algorithmenaufsicht und ein Transparenzregister entschärfen. Aufsicht und Transparenz: Wie die Niederlande aus KI-Skandalen lernen Die Niederlande wollen vormachen, wie sich automatisierte Entscheidungssysteme einhegen lassen. Skandale wie die Kindergeldaffäre sollen mit einer neuen Algorithmenaufsicht und Transparenzregistern verhindert werden. Davon könnte sich die EU eine Scheibe abschneiden und den AI Act verbessern.
-
Automating Society Report 2020: Automatisierung schreitet auch in Deutschland voran
Automatisierte Entscheidungssysteme bedienen sich häufig Techniken wie Neuronaler Netze, die das menschliche Gehirn für spezielle Zwecke imitieren sollen. Automating Society Report 2020: Automatisierung schreitet auch in Deutschland voran Immer häufiger werden kritische Entscheidungen von Algorithmen getroffen. In Europa und Deutschland finden sich nach einem neuen Bericht immer mehr solcher Systeme, ohne dass ihre Einführung gesellschaftliche Unterstützung hätte.
-
Algo.Rules: Mit 145 Fragen zu besseren Entscheidungssystemen
Technische Entscheidungen können soziale Auswirkungen haben und dürfen nicht dem Zufall überlassen werden. Ein neuer Praxisleitfaden soll helfen, möglichst früh die richtigen Fragen zu beantworten. Algo.Rules: Mit 145 Fragen zu besseren Entscheidungssystemen Mit ihren „Algo.Rules“ legt die Bertelsmann Stiftung einen Werkzeugkoffer für Entwickler:innen, Programmierer:innen und Designer:innen von automatisierten Entscheidungsregeln vor. Neben neun grundsätzlichen Regeln setzt der Leitfaden vor allem auf Orientierungsfragen für die Praxis.
-
Datenrassismus: Eine neue Ära
Technology is never neutral. Datenrassismus: Eine neue Ära Datenbasierte Technologien bringen nicht nur mehr Effizienz. Sie werden auch zur Gefahr für jene, die ohnehin schon strukturell am Rand stehen. In ihrem Gastbeitrag erklärt Sarah Chander, was Datenrassismus ist, wie er sich auf Betroffene auswirkt und was wir dagegen tun können.
-
Podcast NPP 190: Mal sehen, was der Computer sagt
Beratungserlebnis bei den Arbeitsmarktservices – ab 2020 unterstützt ein Algorithmus die Betreuer*innen bei der Einschätzung. Podcast NPP 190: Mal sehen, was der Computer sagt In Österreich bestimmt bald ein Algorithmus mit über die Chancen von Arbeitslosen. Der Staat verwendet dann ein System, das offen gegen Mütter, Zuwanderer*innen und Menschen mit Behinderung diskriminiert. Dabei könnte man die Prognosen auch positiv nutzen. Wie, das erklärt in dieser Folge die Mathematikerin Paola Lopez.
-
Österreich: Streit um den AMS-Algorithmus geht in die nächste Runde
Beratungserlebnis bei den Arbeitsmarktservices - ab 2020 unterstützt ein Algorithmus die Betreuer*innen bei der Einschätzung. Österreich: Streit um den AMS-Algorithmus geht in die nächste Runde In Österreich hält der politische Streit um den Einsatz eines algorithmischen Systems zur Sortierung von Arbeitslosen weiter an. Jetzt haben Forscher*innen das System aus wissenschaftlicher Sicht scharf kritisiert. Der Fall könnte zum Beispiel dafür werden, wie die öffentliche Hand mit der Technologie nicht umgehen sollte.
-
: Hohes Diskriminierungspotential bei automatisierten Entscheidungen
Algorithmen sind immer häufiger an Entscheidungen beteiligt. : Hohes Diskriminierungspotential bei automatisierten Entscheidungen In vielen gesellschaftlichen Bereichen werden Entscheidungen bereits von Algorithmen getroffen. Doch das ist mit Risiken für den Menschen verbunden. Mit dem „Atlas der Automatisierung“ möchte AlgorithmWatch zu mehr Transparenz in der automatisierten Entscheidungsfindung beitragen.
-
: Radiofeature: Algorithmen als Schicksalsmaschinen
Rassistische Verurteilungen geschehen auch durch Algorithmen. : Radiofeature: Algorithmen als Schicksalsmaschinen Der Einsatz von Prognose-Software zur Beurteilung von Angeklagten scheint rassistische Ungleichheit im US-Justizsystem zu verschärfen. Zweifel bestehen sowohl an der Datenbasis und Methodik des Verfahrens als auch den Ergebnissen. Deutschlandfunk hat in einem hörenswerten Radiofeature zentrale Aspekte des Themas aufgearbeitet.
-
: Wenn Maschinen Menschen bewerten: Algorithmische Entscheidungen in der Praxis
Justitia diesmal wortkarg. : Wenn Maschinen Menschen bewerten: Algorithmische Entscheidungen in der Praxis Für die Bertelsmann Stiftung hat Konrad Lischka einen umfassenden Überblick über Anwendungsfälle algorithmischer Entscheidungsfindungsverfahren verfasst. Das Arbeitspapier setzt sich mit insgesamt neun Einsatzfeldern auseinander, von gerichtlichen Rückfallprognosen über Bewerbervorauswahlen und Kreditvergaben bis zu Predictive Policing. Neben deskriptiven Elementen beleuchtet das Papier aus der Perspektive der Teilhabegerechtigkeit Chancen und Risiken. Zusammenfassend wirbt das Papier für einen […]