ÖsterreichStreit um den AMS-Algorithmus geht in die nächste Runde

In Österreich hält der politische Streit um den Einsatz eines algorithmischen Systems zur Sortierung von Arbeitslosen weiter an. Jetzt haben Forscher*innen das System aus wissenschaftlicher Sicht scharf kritisiert. Der Fall könnte zum Beispiel dafür werden, wie die öffentliche Hand mit der Technologie nicht umgehen sollte.

Frau sitzt neben einem AMS-Berater
Beratungserlebnis bei den Arbeitsmarktservices – ab 2020 unterstützt ein Algorithmus die Betreuer*innen bei der Einschätzung.

Zumindest rechtlich ist es beschlossen: Das Arbeitsmarktservice Österreich (AMS) darf einen Algorithmus einsetzen, um die Arbeitsmarktchancen von Jobsuchenden zu bewerten. Das System läuft bereits in einem Testbetrieb, ab 2020 soll es landesweit seine Arbeit aufnehmen – gefüttert mit den echten Daten echter Arbeitsloser.

Noch lange nicht abgeschlossen sind hingegen die politischen Auseinandersetzungen rund um den Einsatz des Systems. Seit mehr als einem Jahr kritisieren Wissenschaftler*innen und Bürgerrechtsorganisationen den Algorithmus und ebenso lange schon verteidigt der Leiter des AMS Johannes Kopf die Entscheidung mit bemerkenswerter Energie.

Das neueste Kapitel der Auseinandersetzung eröffneten diese Woche fünf Wissenschaftler*innen, die an verschiedenen Wiener Universitäten zum AMS-Algorithmus forschen und in einem Gastbeitrag die Probleme aus wissenschaftlicher Sicht aufzählen.

Ihre Kritik: Das System arbeite anders als vom AMS suggeriert nicht transparent. So seien etwa die Fehlerquoten des Algorithmus auf Basis der zur Verfügung gestellten Informationen von externen Forscher*innen nicht nachzuprüfen. „Wissenschaft lebt von einer kritischen Auseinandersetzung mit einer gemeinsamen Informationsgrundlage“, schreiben die fünf Autor*innen. Diese Grundlage existiere im Moment beim AMS-Algorithmus nicht – trotz der medialen Debatte, die seit mehr als einem Jahr schwelt.

Die Fehlerquote ist bei einem System von solcher Tragweite entscheidend, da selbst bei einer hohen Trefferquote noch Tausende falsch kategorisiert werden und in der Folge zu Unrecht von Weiterbildungen ausgeschlossen werden könnten.

Kein Nachteil für Frauen? Wissenschaftlich nicht belegt

Auch die Frage der potentiellen Diskriminierung sprechen die Wissenschaftler*innen an. Expert*innen hatten in der Vergangenheit darauf hingewiesen, dass der Algorithmus etwa Frauen offen benachteilige, da sie aufgrund ihres Geschlechts niedrigere Chancen prognostiziert bekommen, wieder Arbeit zu finden. Kommen weitere Faktoren wie Betreuungspflichten oder so genannter Migrationshintergrund hinzu, führe dies im System zu einem kumulativen Nachteil.

AMS-Leiter Kopf hatte dieser Kritik stets widersprochen: Frauen würden schließlich nach der neuen Sortierung überdurchschnittlich oft in der Gruppe der Arbeitssuchenden mit mittleren Chancen landen: der Gruppe, die viele teure Weiterbildungen finanziert bekommt.

Die Mathematikerin Paola Lopez von der Universität Wien, die den aktuellen Beitrag mitverfasst hat, wies jedoch darauf hin, dass sich die Behauptung, Frauen würden nicht benachteiligt, nicht wissenschaftlich überprüfen lässt. Entscheidend sei dafür nämlich nicht, wie viele Frauen in welchen Kategorie landeten, sondern ob sich das Ergebnis ändern würde, wenn der Faktor Geschlecht keine Rolle spielte. Diese Modellvariante stelle das AMS aber nicht zur Verfügung, so dass die Behauptungen wissenschaftlich nicht belegt werden könnten.

Auch das Dauer-Argument des AMS, die Entscheidungen würden nach wie vor nicht automatisiert vom Algorithmus getroffen, sondern von den Vermittler*innen, lassen die Forscher*innen nicht gelten: „Seit dem offiziellen Einsatzstarts des Systems werden Entscheidungen des AMS jetzt gemeinsam von Betreuer*innen und einem System, welches Empfehlungen in Form von Gruppenzuweisungen macht, getroffen.“ Aus wissenschaftlicher Sicht sei erwiesen, dass allein die Existenz eines solchen Systems die Entscheidung der Betreuer*innen beeinflussen wird. Studien haben gezeigt, dass Menschen die von automatisierten Systemen vorgeschlagenen Resultate selten in Frage stellen.

Sachlicher Durchblick, aber kein Verständnis

Johannes Kopf, der seit mehr als zehn Jahren im Vorstand des AMS sitzt, hat die Ehrrettung des AMS-Algorithmus – und damit des AMS selbst – offenbar zur Chefaufsache erklärt. Seit mehr als einem Jahr verteidigt er den Einsatz des Systems in Interviews, auf öffentlichen Panels oder auch seinem privaten Twitter-Account. Ein bemerkenswertes Engagement für jemanden, der als Leiter eines staatlichen Dienstleistungsunternehmens für Tausende von Mitarbeiter*innen und die Vermittlung von noch mehr Arbeitslosen verantwortlich ist.

Auch auf die Kritik der Wissenschaftler*innen hat er binnen Tagen reagiert. Zuvor hatte er bereits auf einen Beitrag der Ethik-Forscherin Sarah Spiekermann ähnlich schnell öffentlich geantwortet. Er ist dabei immer verbindlich, geht konkret auf die Kritikpunkte ein und kontert sie mit Informationen, die erkennen lassen: Hier spricht jemand, der die statistischen Modelle und die Probleme, die diese mit sich bringen, sehr wohl gut versteht. Allerdings bewegt er sich auch keinen Zentimeter von seinem Standpunkt weg, dass das System insgesamt eine sinnvolle Unterstützung für das AMS sei – und letztlich auch für die Jobsuchenden.

Mehr Transparenz zur Funktionsweise der Modelle? Zu aufwändig. Diskriminierung? Die gebe es nun mal am Arbeitsmarkt, das System bilde sie lediglich ab. Fehlerquoten? Entscheidend sei nur, ob das System die persönliche Einschätzung der Berater*innen unterstützen und „noch treffsicherer“ machen könne.

So dreht sich die Diskussion inzwischen weitgehend im Kreis. Auf die immer wieder vorgetragenen Kritikpunkte von Wissenschaft und Digitalexpert*innen reagiert Kopf mit den immer selben Erwiderungen.

Das AMS als Fallbeispiel

Das Hauptproblem an der ganzen Geschichte mit dem AMS-Algorithmus ist wohl ein anderes. Die Digital-Expertin Ingrid Brodnig hat es im Gespräch mit futurezone.at treffend zusammengefasst. „Ich schlage vor, dass gerade die öffentliche Hand, ehe sie Algorithmen für so wichtige Entscheidungen einsetzt, eine verpflichtende ethische Evaluierung durchführen soll.“ Ähnliches empfiehlt auch Katharina Zweig, die an der TU Kaiserslautern zur Verantwortlichkeiten beim Einsatz von Algorithmen forscht.

In Österreich hat so eine Evaluierung der Auswirkungen nicht stattgefunden, bevor entschieden wurde, das System einzusetzen. Die Folgen dieser Entscheidung tragen jetzt nicht nur die Betroffenen, sondern auch das AMS selbst, dessen Leiter die Entscheidung in Dauerschleife verteidigen muss.

Vielleicht wird das AMS so zum Fallbeispiel. Womöglich werden die Auseinandersetzungen auch deswegen so vehement geführt, weil das allen Beteiligten bewusst ist. Wenn der Widerstand anhält, die Debatte nicht abebbt und das System womöglich doch wieder auf dem Betrieb genommen werden muss, wäre das ein Argument, solche Projekte in Zukunft nicht mehr auf die harte Tour einzuführen. Wenn das AMS hingegen Erfolg hat mit seiner Strategie, schafft es damit einen Präzedenzfall.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

4 Ergänzungen

  1. Das Problem mit derartigen übermächtigen, nur vermeintlich unterstützenden Bewertungs- und Klassifizierungssystemen ist doch auch, dass ihre Paradigmen letztlich, weil für Mitarbeiter, Abhängige und Zivilgesellschaft zwingend undurchsichtlich und zu wenig bis überhaupt nicht beeinflussbar, zu betonierter, ubiquitärer Willkür mit, zumindest im Kleinen, totaliristischer Struktur (der Algorithmus hat immer Recht, falls nicht, dann lies den Satz nochmal), führen müssen.

  2. Erwerbsarbeitslosen-Initiativen AMSEL & SoNed!

    Es gibt kaum Berichterstattung zur Sichtweise der Betroffenen und deren unabhängigen Selbstorganisationen.
    Auch fehlt bisher komplett die Einbeziehung der Betroffenen und deren unabhängiger Organisationen, wie beispielsweise der Erwerbsarbeitslosen-Initiativen (EALI) AMSEL (1), SoNed! (2) oder Aktive Arbeitslose Österreich (3).
    Aus diesem Grund gibt es bereits seit längerem die Forderung DISRUPT – Einstellung des Prozesses und umfassende Einbeziehung in Entscheidungsvorbereitungs-, -findungs- und Implementierungsphasen etwaiger Folge-Ansätze (4).
    Die gesamte Problematik wurde auch in den Konsultationsprozess der EU-weiten AI-HLEG eingebracht – dort haben wir es als „worst practice“-Beispiel bzw “worst-case“-Szenario” eingebracht (5), was jedoch ohne nennenswertes Ergebnis blieb.
    Für Mitte 2020 wurde die Einkoppelung der Fördermittelvergabe angekündigt (6). Damit wird der letzte Schritt zu einem (semi-)automatisierten algorithmen-basierten Selektions-System für Erwerbsarbeitslose gesetzt.
    Gegenwärtig wird an einem System der Verwaltung und Betreuung („Verwahrung“) der somit deklassierten Kategorie C gebastelt, in „Neue[n] AMS-Zentren für ‚kaum Vermittelbare'“ (7) .
    Diese „kaum Vermittelbaren“ sind also die künftig „Ausgesteuerten“ bzw. die in die „Sozialhife Neu“ abgedrängten und abgehängten Subalternen.
    Also ein maschinell-systematischer Ausgrenzungs- Abwertungs- und Armutsverfestigungsprozess; mehr dazu und zur historischen Einbettung in „Ein scharlachroter Buchstabe für Arbeitslose / Warum die instrumentelle Kritik an dem AMS-Algorithmus zu kurz greift!“(8).

    (1) https://arbeitslosenvereinamsel.wordpress.com
    (2) http://www.soned.at
    (3) https://www.aktive-arbeitslose.at
    (4) http://www.soned.at/forum___gaestebuch/seite_376#Erwerbsarbeitslosen-Initiativen bzw. als PDF –
    http://www.linkestmk.at/wp-content/uploads/2019/06/DISRUPT_EALIs_zum_AMS_Algorithmus.pdf
    (5) https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=57590 (PDF-Seiten 341-344)
    (6) https://futurezone.at/netzpolitik/ams-gibt-gruenes-licht-fuer-bewertung-von-arbeitslosen-durch-algorithmus/400607894
    (7) https://wien.orf.at/stories/3017383
    (8) https://www.streifzuege.org/2019/ein-scharlachroter-buchstabe-fuer-arbeitslose

  3. Im Artikel oben steht “ Studien haben gezeigt, dass Menschen die von automatisierten Systemen vorgeschlagenen Resultate selten in Frage stellen und in der Regel übernehmen.“

    Mich würden Details und Setup dieser Studien interessueren. Ist es möglich Links beizufügen?

    Vielen Dank! :)

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.