NGO-BerichtWie Gewerkschaften weltweit gegen unfaire Algorithmen kämpfen

Gewerkschaften sind essenziell, um in einer automatisierten Arbeitswelt die Rechte aller Beschäftigten zu schützen. Bisher mangelt es aber an praktischen Ratschlägen für Arbeitende und ihre Vertreter:innen, bilanziert ein neuer Bericht von AlgorithmWatch.

Ein Handy mit der Uber-App klemmt in einer Halterung neben dem Lenkrad.
Wenn ein Algorithmus der Chef ist (Symbolbild, Bearbeitung: netzpolitik.org) – Alle Rechte vorbehalten Imago / Bihlmayerfotografie

Ob bei Amazon oder in der Plattform-Ökonomie – immer mehr Menschen werden bei ihrer Arbeit durch Algorithmen beeinflusst. Sie vergeben Aufträge, bemessen das Gehalt, beurteilen die Leistung und entscheiden über Jobs. Weltweit beginnen Gewerkschaften und Arbeitende, sich gegen potenziell unfaire Algorithmen zu wehren.

So veröffentlichte etwa die spanische Gewerkschaft Comisiones Obreras 2020 einen Leitfaden mit dem Titel „Tarifverhandlungen und Digitalisierung“. Der Leitfaden soll Arbeitende und ihre Vertreter:innen informieren und bei Verhandlungen unterstützen. Die Gewerkschaft fordert darin unter anderem ein „Recht auf Erklärung“ für Arbeiter:innen, wenn automatisierte Entscheidungssysteme (ADM) über eine Einstellung entscheiden.

2021 hatten Foodpanda-Fahrer:innen in Hongkong genug von ihren Arbeitsbedingungen. Sie organisierten sich ohne große Unterstützung durch etablierte Gewerkschaften über Facebook und Messengerdienste selbst – und erstritten zumindest kleine Erfolge.

Diese und viele weitere Beispiele stehen in einem neuen Bericht von AlgorithmWatch, der vom Internationalen Gewerkschaftsbund (IGB) in Auftrag gegeben wurde. Die NGO möchte zeigen, wo und wie sich Gewerkschaften und andere Initiativen schon jetzt für die Rechte von Arbeitnehmer:innen einsetzen, die bei ihrer Arbeit mit ADM konfrontiert werden. Denn Abermillionen von Menschen, über „Kontinente, Länder, Industrien und Sektoren“ hinweg, spüren die Folgen eines zunehmend automatisierten Arbeitsalltags. Das ist nicht notwendigerweise schlecht, aber geht oft mit steigender Kontrolle und Überwachung einher – wodurch die Rechte von Arbeitnehmenden gefährdet sein könnten.

Dr. Anne Mollen von AlgorithmWatch ist die Hauptautorin der Studie. Es würden sich bereits viele Gewerkschaften mit den „Risiken der Automatisierung am Arbeitsplatz“ befassen. Aber die Debatte finde oft zu abstrakt und theoretisch statt: Laut Bericht sind „praktische Tools“ wie der Leitfaden von Comisiones Obreras bisher eher Mangelware. Hier muss nachgebessert werden: Es benötige mehr „Ratschläge und Leitlinien“ für Arbeitende und Gewerkschaftsvertretende, bilanzieren die Autor:innen. Gewerkschaften sollen „von der Reflexion über Grundsätze zur praktischen Umsetzung übergehen und sich damit befassen, wie Arbeitnehmer und ihre Vertreter ihre Interessen sinnvoll in die Planung, Entwicklung und Umsetzung algorithmischer Systeme einbringen können“, ergänzt Tim Noonan vom IGB.

Was sollten Gewerkschaften machen?

Um den Sprung von der Theorie zur Praxis zu schaffen, empfiehlt die Studie den Gewerkschaften, ihren Fokus speziell auf algorithmische Transparenz und Rechenschaftspflicht zu legen und zu analysieren, inwiefern Transparenz und Rechenschaftspflichten der Arbeitgeber:innen Arbeitende schützen können. Denn bisher beschäftigten sich die Gewerkschaften sehr breit mit Digitalisierung und Automatisierung. Aber je klarer und eingegrenzter das untersuchte Themenfeld, desto „detaillierter und nuancierter“ würden auch die Lösungsvorschläge.

Nicht hilfreich sei es hingegen, diffus und abstrakt über Automatisierung zu diskutieren, um im Anschluss den technologischen Fortschritt pauschal abzulehnen. Zumal das Beispiel der Foodpanda Fahrer:innen aus Hongkong zeige, dass Arbeitende Technologie durchaus auch zu ihrem Vorteil einsetzen können.

Die Gewerkschaften sollten zudem auch nationales Recht untersuchen, etwa die „Rechtsgrundlage, die verwendet wird, wenn eine Entscheidung automatisch getroffen wird, ohne menschliches Eingreifen oder Aufsicht“. Aus diesen praxisbezogenen Untersuchungen können dann konkrete Maßnahmen abgeleitet werden, heißt es in der Studie.

Die Autor:innen definieren zwei Zielgruppen, an die sich die Maßnahmen richten. So sollen die Gewerkschaften zum einen Konzepte und Leitfäden erarbeiten, an denen sich Arbeiter:innen sowie Gewerkschaftsvertreter:innen gleichermaßen orientieren können – im Arbeitsalltag oder in Tarifverhandlungen. Nicht immer können sich Gewerkschaften direkt für betroffene Arbeitende einsetzen, wie das Beispiel aus Hongkong verdeutlicht. Umso wichtiger sind praxisbezogene und für alle Arbeiter:innen zugängliche Leitfäden.

Zum anderen sollen Gewerkschaften aber auch häufiger Empfehlungen für die Politik direkt erarbeiten. Erste Schritte gebe es hier schon. So hätten in der EU „mehrere Gewerkschaften auf den von der Europäischen Union vorgeschlagenen AI Act [reagiert], indem sie sich auf Arbeitsfragen und Fragen der Transparenz und Rechenschaftspflicht konzentrierten.“ Ähnliche nationale Gesetzgebungsprozesse spielen sich aktuell in vielen Ländern ab, so die Autor:innen. Gewerkschaften müssten jetzt handeln und mit „spezifischen Forderungen“ auf Gesetzgebungsprozesse einwirken, solange es hier noch Spielraum gebe. Dabei sollten Regierungen die Gewerkschaften unterstützen.

Plattformarbeiter:innen als Vorbild

Die Studie identifiziert noch weitere Problemfelder. So gebe es derzeit nur wenig aktive Kampagnen auf dem „shop-level“, also bei den Betroffenen, den Beschäftigten selbst. Eine weitere Aufgabe für die Gewerkschaften muss es daher sein, mehr Bewusstsein unter den Arbeitenden für Automatisierung zu schaffen, schlussfolgern die Autor:innen. Schließlich sollte die „Zukunft der Arbeit“ kein reines Expert:innenthema sein.

Ein anschauliches positives Beispiel hierfür ist ein Leitfaden des Trade Unions Congress aus Großbritannien (UK). Der gewerkschaftliche Dachverband gibt in dem Leitfaden Tipps für Tarifverhandlungen – vor allem aber erklärt das Dokument zunächst, wie sich das Arbeiten durch eine zunehmende Automatisierung verändert und wie darauf reagiert werden kann. Auch die britische Gewerkschaft Prospect hat einen solchen Leitfaden publiziert.

Wenn Gewerkschaften indes lernen wollen, wie sie Arbeiter:innen mobilisieren könnten, dient die Plattformindustrie als Vorbild, so die Autor:innen. Denn sogenannte Gig-Worker:innen hätten bereits oft in eigener Organisation, außerhalb etablierter Gewerkschaftsstrukturen, progressive Forderungen nach algorithmischer Transparenz und Rechenschaftspflicht aufgestellt.

26 Länder, 265 Gewerkschaften

Der Bericht schlüsselt für 26 Länder die Aktivitäten von 265 Gewerkschaften auf. Auch über Deutschland gibt es ein kleines Kapitel. 2018 gründete das Arbeitsministerium die Denkfabrik Digitale Arbeitsgesellschaft. Der Thinktank soll für das Ministerium laut dem Bericht „neue Lösungsansätze für die Arbeitsgesellschaft der Zukunft“ entwickeln. Hier werden Transparenz und Rechenschaftspflicht als ein Mittel thematisiert, um die Rechte von Arbeiter:innen zu schützen, wenn ADM eingesetzt werden. Zusätzlich beschäftigten sich „Forscher in der Gewerkschaftsbewegung“ mit „KI und Automatisierung“.

Der Deutsche Gewerkschaftsbund (DGB) und ver.di beschäftigen sich laut Bericht derweil mit den Auswirkungen einer automatisierten Arbeitswelt insgesamt. Beide Gewerkschaften legen dabei aber auch einen Schwerpunkt auf Transparenz, entsprechen also bereits teilweise den Empfehlungen des Berichts. Der DGB unterstreicht etwa, dass alle Betroffenen bei der Planung und Umsetzung von „KI-Systemen“ beteiligt werden sollten. Auch ver.di betont besonders transparente Strukturen für alle Fälle, in denen ADM zum Einsatz kommen. Ver.di publizierte hierzu auch konkrete Richtlinien, die bei Verhandlungen unterstützen sollen, und die alle betroffenen Parteien mit involvieren.

Letztlich ist es essenziell, „Mythen um die Automatisierung von Arbeit“ zu entlarven – die Gewerkschaften müssen sicherstellen, dass angebliche Effizienzsteigerungen durch „scheinbar billige technische Lösungen“ niemals auf dem Rücken der Beschäftigten ausgetragen werden, fordern die Autor:innen. AlgorithmWatch hat in der Vergangenheit immer wieder, auch außerhalb des Arbeitskontextes, vor Überwachung und Diskriminierung durch automatisierte Entscheidungsfindungen gewarnt und Berichte sowie Ratgeber publiziert.

0 Ergänzungen

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.