Österreichs Jobcenter richten künftig mit Hilfe von Software über Arbeitslose

In Österreich teilt ab nächstem Jahr ein Algorithmus alle Jobsucher in Kategorien. Wer schlecht abschneidet, dem werden Zukunftschancen verbaut. Die Behörden bejubeln das als Effizienzsteigerung mit modernsten technischen Mitteln. Experten warnen hingegen vor automatisierter Diskriminierung.

Arbeitslose im Berlin der 1920er-Jahre. Sie hätten sich wohl nicht träumen lassen, dass eines Tages Maschinen die Verteilung von Ressourcen beeinflussen könnten. CC-BY-SA 3.0 Wikimedia/Bundesarchiv

220.000 Menschen sind nach neuesten Zahlen in Österreich arbeitslos. Damit möglichst viele davon schnell wieder einen Job finden, finanziert der Staat ähnlich wie in Deutschland Maßnahmen zur Weiterbildung. Wer eine solche Schulung bezahlt bekommt, entscheidet das Arbeitsmarktservice (AMS), das österreichische Gegenstück zu den Jobcentern in Deutschland. Bereits ab Januar hilft den Beratern des AMS ein algorithmisches Empfehlungssystem, wie nun bekannt wurde.

Die Software teilt künftig Arbeitssuchende in drei Gruppen ein: Hohe Chancen, mittlere Chancen, niedrige Chancen. Wer in letzterer Kategorie landet, kriegt eher keine teure Ausbildung bezahlt. Die Arbeitsvermittler erhoffen sich von der Software raschere Entscheidungen – mehr Effizienz für weniger Geld. „Wir setzen derzeit öfter geförderte Beschäftigungsprojekte bei ganz Schwachen ein und sind dann oft unglücklich, dass wir zu sehr hohen Kosten im Vergleich relativ wenige Arbeitsaufnahmen bei dieser Personengruppe haben“, sagt Behördenchef Johannes Kopf. Die Software soll dabei helfen, die „Schwachen“ in billigere Kurzzeitprogramme zu stecken. „Die Technik trifft keine Entscheidung, sondern weist nur die Arbeitsmarktchancen aus“, betont Kopf. Ab Januar 2019 testen die Arbeitsämter die Software der Firma Synthesis Forschung. Ab 2020 soll sie regulär zum Einsatz kommen.

Alte und Ausländer abgestuft

Beratungsgespräch laut Eigenwerbung des AMS - Alle Rechte vorbehalten AMS/Fotostudio B&G

Das algorithmische Entscheidungssystem stützt sich auf Daten zu Beruf, Ausbildung und bisherige Jobs. Es bezieht aber auch Alter, Geschlecht und Nationalität ein. Unter-25-Jährige kommen nie in die schlechteste Kategorie, für sie gilt in Österreich eine Ausbildungsgarantie. Alte und Nicht-Österreicher hingegen gelten als häufiger von Arbeitslosigkeit gefährdet und werden vom algorithmischen Entscheidungssystem darum schlechter eingestuft. Das stellt aus Sicht des AMS aber keine Benachteiligung der Betroffenen dar. Eine Diskriminierung läge nur dann vor, wenn die Software direkt selbst entscheide, sagt AMS-Pressesprecherin Beate Sprenger auf Anfrage von netzpolitik.org. Das sei aber nicht der Fall: „Die Letztentscheidung hat der Berater.“

Ohnehin gibt es für die Angaben der Software keine Gewähr: Das algorithmische Entscheidungssystem hat nach offiziellen Angaben eine Trefferquote von 85 Prozent – das heißt, jede siebte seiner Entscheidungen ist falsch.

Von Kunden zu Verdächtigen

Datenexperte Wolfie Christl sieht das Programm als Schritt hin zu einem System, in dem wirtschaftlich Schwache und Benachteiligte mehr und mehr von Algorithmen und Maschinen verwaltet werden. Aus zahlreichen Untersuchungen sei bekannt, dass Empfehlungen der Software von Menschen kaum verändert würden. „Einerseits macht der Glaube an die heilige Quantifizierung blind, andererseits werden sich AMS-BetreuerInnen für jede ‚Hochstufung‘ rechtfertigen und erklären müssen, warum sie etwas besser wissen wollen als der Computer“, sagt Christl. In einem derartigen System würden Arbeitslose nicht wie bisher als Kunden, sondern pauschal als Verdächtige behandelt.

Arbeitnehmervertreter äußern bereits Skepsis an dem System. Gernot Mitterer, ein Arbeitsmarktexperte der Arbeiterkammer, sieht die Gefahr eines automatischen Richterspruchs über Beschäftigungslose. „Wir bemühen uns daher, wirksame Vorkehrungen gegen eine Dominanz des Algorithmus in der täglichen Arbeit in den AMS-Geschäftsstellen beim Roll-out dieses ‚Profilings‘ zu verankern“, schrieb Mitterer auf Anfrage von netzpolitik.org per E-Mail. Der Experte verweist auf die große Arbeitslast von AMS-Mitarbeitern, die schneller zu Fehlentscheidungen führt. In Österreich müsse ein Jobcenter-Berater mehr als 250 Arbeitslose mit längerer als dreimonatiger Arbeitslosigkeit betreuen. In Deutschland liege dieses Verhältnis etwa bei 1:100. Das algorithmische Entscheidungssystem dürfe persönliche Beratung höchstens ergänzen, nicht ersetzen.

Unsoziale Big-Data-Maßnahmen

Österreich setzte zuletzt bereits unsoziale Maßnahmen. Die rechte Regierung in Wien führte zuletzt den 12-Stunden-Tag ein und lockerte deutlich die Rechte von Beschäftigten. Zugleich verpflichtete die Regierung die Krankenkassen dazu, in sensiblen Gesundheitsdaten nach möglichem Missbrauch von Kassenleistungen zu fahnden.

International sorgte zuletzt Amazon mit seinem umstrittenem Umgang mit Arbeiternehmerdaten für Aufregung. Der Onlinehandel- und Datenkonzern, der nach einem legendären Stamm von Kriegerinnen benannt ist, musste die Diskriminierung von Frauen durch sein durch Künstliche Intelligenz-gestützten Rekrutierungsystem eingestehen. Amazon schaffte das experimentelle Tool inzwischen wieder ab. Die Bedenken gegen von Algorithmen gelenkten sozialen Systemen bleiben aber bestehen.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

18 Ergänzungen

  1. >Eine Diskriminierung läge nur dann vor, wenn die Software direkt selbst entscheide, sagt AMS-Pressesprecherin Beate Sprenger auf Anfrage von netzpolitik.org.
    >Das sei aber nicht der Fall: „Die Letztentscheidung hat der Berater.“

    Hmm, auf welcher Basis wird „der Berater“ wohl entscheiden? Ein schlechter Witz.

    1. Eben. Selbst wenn der Mensch versucht, völlig objektiv zu bleiben – ein (auch unterbewusstes) Restrisiko besteht immer.

      Über den Aufbau eines Algorithmus kann man sicherlich streiten – so er sich den nicht von den Parametern auf Papier oder in der händisch kompilierten EDV abweicht.

      Ansonsten ist eine Formel natürlich neutraler und objektiver, als es ein Mensch per Design je sein kann.

      Und da es sich hier lediglich um eine Entscheidungshilfe handelt und nicht um ein autonomes System, kann ich auch die Doomsday-/Terminator-Fantasien nur sehr begrenzt nachvollziehen …

  2. Wenn ein Mensch die selben Kriterien zur Einstufung verwenden würde wie die Software-Maschine, wäre das Ergebnis dann signifikant anders? Würde ich bezweifeln, nach erster Überlegung.

    Was mMn. jedoch eher eine interessante Diskussion wäre: Wen kann man für die Entscheidung oder das Handeln einer Software verantwortlich machen?

    Auf der anderen Seite kann man die Software nicht mit persönlichen Unterstellungen (Rassist, Homophob, Linksgrünversifft etc.) oder Drohungen (Doxing, Facebookpranger etc.) verunsichern.
    (vgl. Paper verdienstunterschieden zwischen Mann und Frau UBER: „The Gender Earnings Gap in the Gig Economy: Evidence from over a Million Rideshare Drivers“ By Cody Cook, Rebecca Diamond, Jonathan Hall, John A. List, Paul Oyer, January 2018Working Paper No. 3637)

    1. Das hängt davon ab, wer die sog. Algorithmen entwickelt hat, Denn von alleine werden diese ja nicht tätig. Was mich aber tief betroffen macht, wie heute schon so viele Menschen, eine Gleichgültigkeit zeigen, die wohl auch sehr stark mit der Digitalisierung von vielen zu tun.

      Aber wen wundert es noch, wenn heute schon Algorithmen entscheiden, wer ein potentieller „Feind“ und zum Abschuss frei gegeben, sprich zum töten und ermorden? Wie steuern, und sei jedem ins Stammbuch geschrieben auf die total Überwachung zu. Was mit der angeblichen „Terror Gefahr“ im Westen einhergeht. Obwohl die Zahlen das nicht her geben, denn es ist wahrscheinlicher einem Blitzschlag zum Opfer zu fallen, als einem Terror Anschlag.

      Aber was erwartet man im Westen? Wenn die Verantwortlichen selber die größten Terroristen sind? Denn alleine in den letzten 27 Jahren, hat der Westen den Orient in die Steinzeit zurück gebombt, mit Millionen Getöteten auf Grund von Lügen. Die Gleichgültigkeit darüber im Westen, ist einfach nur noch erschreckend.

  3. Wird in D auch kommen. Keine Sorge. Einige JC zeigen bereits reges Interesse an OLAP bzw. „Big Data“.
    (No worries, alles super datenschutzkonform *schmunzel*)
    Ich werde bei Zeiten berichten…

  4. Die reine Subsumtion kann eine Maschine sicher unbeeinflussbarer als einMensch durchführen Deswegen kein Grund zur Besorgnis.
    Kritisch wird es bei der Anwendung von ausfüllungs- und auslegungsbedürftigen Begriffen. Da wäre zu prüfen, wer was dazu in der Maschine hinterlegt hat und ob der Entscheider davon abweichen kann.

  5. Die Verantwortlichkeit im Verwaltungsrecht ist klar geregelt: die entscheidende Behörde. Und deren Verwaltungsakt ist voll gerechtlich überprüfbar.

  6. das „betreuungsverhältnis“ liegt bei 1:100 in der theorie. die praxis ist auch hier in deutschland eine ganz andere! real „betreut“ ein arbeitsvermittler hier eher auch 250/300 oder gar mehr menschen, im fallmanagment sind es 1:150/200.

  7. Wir brauchen endlich ein Bedingungsloses Grundeinkommen als Antwort auf die Digitalisierung ansonsten enden wir damit das die souverantität gerade der niedrigeren Bevölkerungsklassen durch Digitale Technologien immer weiter eingeschränkt wird.

    1. Leider ist die Menschheit noch nicht bereit. Der deutsche Michel braucht seinen Bullshit-Job um sich als „Leistungsträger“ fühlen zu können.

    2. Das BGE ist der vollkommen falsche Weg. Es ist – wie schon die Einführung der Sozialversicherungen zu Kaisers Zeiten – nur ein Trostpflaster um die Revolution zu verhindern. Es würde das jetzige System des Neokapitalismus sogar zementieren. Und das kann nun wirklich niemand wollen.

  8. „Die Software soll dabei helfen, die „Schwachen“ in billigere Kurzzeitprogramme zu stecken. „Die Technik trifft keine Entscheidung, sondern weist nur die Arbeitsmarktchancen aus“

    Sollte man nicht gerade den „Schwachen“ eine besondere Förderung zu kommen lassen, um ihre Chancen auf dem Arbeitsmarkt zu verbessern? Stattdessen lese ich etwas von „billigen Programmen“.

    Seine unglückliche Wortwahl fällt dem Herren wohl nicht einmal selbst auf.

    Es geht nur einmal mehr um Statistikkosmetik und Kostenersparnis – das sollte allen klar sein.

    Im internen Jargon der dt. JC bezeichnet man jene „Kunden“-Kategorie auch gerne als „Langläufer“.
    Jenen Personenkreis bis zum Stichtag aus der Statistik zu fegen ist die hohe Kunst in der Branche.

  9. „Datenexperte Wolfie Christl sieht das Programm als Schritt hin zu einem System, in dem sozial Schwache und Benachteiligte mehr und mehr von Algorithmen und Maschinen verwaltet werden.“

    Es sind nicht „sozial schwache“ Menschen, sondern finanziell schwache Menschen… Solange das nicht in den Köpfen ankommt, ist der Sinn solcher Artikel fraglich.

    1. D.h. von nun an bekommt man das Geld vom Finanzamt? Und die Steuern entrichtet man beim Sozialamt!

      ;D

      Das war nur Spaß. Das folgende ist ne ernste Frage:
      Wird es durch das Umbenennen besser, die Sache oder der Mensch?

      Umbenennen kann viele Gründe haben, um es politisch korrekt zu machen, oder weil etwas sachlich falsch ist, oder weil ein Euphemismus besser klingt, oder weil Begriffe in der Öffentlichkeit tabu sind.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.