Die Vermittlungsgespräche zwischen Meta und einer Gruppe von kenianischen Content-Moderator:innen sind gescheitert. Das teilte die britische Tech-Organisation Foxglove mit, die die Gruppe vor Gericht unterstützt.
184 ehemalige Moderator:innen hatten gegen Meta und zwei Subunternehmen geklagt, die im Auftrag des Konzerns Inhalte auf Facebook moderierten. Sie wurden Anfang des Jahres von einem der Subunternehmen, Sama, entlassen, nachdem sie angekündigt hatten, eine Gewerkschaft zu gründen. Als Meta den Auftrag daraufhin einem anderen Subunternehmen übertrug, sollen sie auf einer Sperrliste gelandet sein, um von diesem nicht übernommen zu werden.
Die Moderator:innen waren zuvor in einem Büro von Sama in der kenianischen Hauptstadt Nairobi beschäftigt und überprüften Beiträge von Facebook-Nutzer:innen aus Ostafrika. Ihre Aufgabe war es auch, illegales oder auf der Plattform unzulässiges Material zu löschen.
Bessere Bedingungen und Entschädigung
Im August hatte das kenianische Gericht die Parteien aufgefordert, sich außergerichtlich zu einigen. Die Unternehmen seien jedoch kaum auf die Forderungen der Moderator:innen eingegangen und hätten auf Zeit gespielt, sagt Mercy Mutemi, der Rechtsanwalt der Gruppe.
Die Kläger:innen fordern einen Entschädigungsfonds in Höhe von 1,46 Milliarden Euro. Das Geld soll sie für psychische Schäden entschädigen, die sie laut eigenen Aussagen durch die Arbeit erlitten haben. Zugleich wollten sie von Meta ein Eingeständnis, dass die Rechte von Arbeitnehmer:innen in Zukunft gewahrt werden und Moderator:innen sich einer Gewerkschaft anschließen und Betriebsräte gründen können. Meta solle für seine Angestellten bei Subunternehmen in Kenia die gleichen Strukturen psychischer Unterstützung bieten wie in den beiden Unternehmenssitzen im kalifornischen Menlo Park und der irischen Hauptstadt Dublin.
Laut der Mitteilung von Foxglove hätten die Unternehmen auch seit Monaten keine Gehälter ausgezahlt – trotz Anordnungen des Gerichts, dass alle Entlassenen für die Dauer des Verfahrens weiter bezahlt werden sollten. Als Reaktion auf den Rechtsstreit soll Meta derweil auch Majorel den Auftrag entzogen haben. Der Konzern lasse seine Inhalte in Ostafrika nun von einem neuen, unbekannten Subunternehmen moderieren.
„Die Wahl eines Anbieters, der derzeit nicht vor einem kenianischen Gericht steht, um Facebook-Inhaltsmoderationsdienste in Kenia und Ostafrika zu erbringen, ist ein offensichtlicher Versuch, die kenianische Gerichtsbarkeit und die eindeutige Bedeutung der Gerichtsanordnung zu umgehen“, schreibt Foxglove. Der nächste Verhandlungstermin vor Gericht ist für den 31. Oktober angesetzt.
Outsorcing-Sektor soll wachsen
Das Platzen der Gespräche fällt in eine Zeit, in der die kenianische Regierung angekündigt hat, den Outsourcing-Sektor im Land massiv vergrößern zu wollen. Insgesamt soll die Branche in dem Land auf eine Million Jobs anwachsen, sagte kürzlich Kenias Handelsminister Moses Kuria.
Erst im September war Präsident William Ruto zu Besuch im Silicon Valley und warb dort unter Tech-Unternehmen für sein Land als Standort. Kenia sei Afrikas Knotenpunkt für das sogenannte „Business Process Outsourcing“. Während sich in Staaten des Globalen Nordens also langsam die Erkenntnis durchsetzt, dass viele Online-Dienste ohne die schlecht bezahlte Handarbeit von Digitalarbeiter:innen im Globalen Süden nicht zu betreiben wären, forciert Kenia den Ausbau dieser Industrie.
Auch Sama kündigte in diesem Zuge erst kürzlich an, 2.100 neue Jobs in Kenia schaffen zu wollen. Statt im Bereich der klassischen Content-Moderation sollen sie allerdings in der Datenannotation angesiedelt sein. Mit diesen Daten werden Modelle sogenannter Künstlicher Intelligenz wie etwa der Chatbot ChatGPT gebaut.
Dass dies nicht notwendigerweise weniger problematisch ist, hatte das Time Magazine Anfang 2023 am Beispiel von ChatGPT gezeigt. Einer Recherche zufolge beschäftigte OpenAI, das Start-up hinter dem Textgenerator, mit Hilfe von Sama zahlreiche schlecht bezahlte Datenarbeiter:innen. Sie mussten, ohne ausreichende psychologische Betreuung, unter anderem Texte über Vergewaltigungen und Kindesmissbrauch lesen und kategorisieren.
ihr nutzt ki generierte bilder. das stärkt das leid der menschen in der sog dritten welt, die für ki- clickwork ausgenutzt werden. warum?
Wie groß ist der CO2-Abdruck/Energiebedarf eines KI-generierten Bildes, inklusive der Herstellung von Varianten zur gefälligen Auswahl?
Ist dem gegenüber eine Suche in Bilddatenbanken mehr klimaschädlich?
Möchte die Redaktion von netzpolitik.org seiner Leserschaft das Gefühl vermitteln, dass sie on top of the hype reitet?
Bei Bequemlichkeit bitte ankreuzen:
[ ] „Unseren Kunden/Lesern gefällt das.“
[ ] „Wir steigern damit unsere Reichweite.“
[ ] „Damit steigen unsere Vergütungen.“