Jede Menge Nutzer:innen reden derzeit über und mit ChatGPT. Der mächtige Text-Generator lässt sich in Dialoge verwickeln, erstellt auf Anfrage Essays zu den entlegensten Themen, Gedichte verschiedener Stilrichtungen, komplexe Programmcodes und vieles mehr. Nun zeigt eine Recherche des US-amerikanischen Time Magazine, welche Rolle schlecht bezahlte Arbeiter:innen aus Kenia bei der gehypten Anwendung spielen.
ChatGPT stammt von OpenAI, einem US-Unternehmen mit Sitz in Kalifornien. Nachdem OpenAI das Programm im November vergangenen Jahres veröffentlicht hatte, verzeichnete es schon nach nur einer Woche eine Million Nutzer:innen. Innerhalb kurzer Zeit stieg OpenAI zu einem der wertvollsten KI-Firmen weltweit auf. Neben ChatGPT bietet OpenAI den Bild-Generator DALL-E-2 an. In naher Zukunft will das Unternehmen darüber hinaus Anwendungen anbieten, die Videos und menschliche Stimmen generieren.
Der Erfolg von ChatGPT beruht nicht nur auf Codezeilen und Datenbanken, sondern auch auf mühsamer Handarbeit. Denn bevor Millionen Nutzer:innen mit ChatGPT ins Gespräch kamen, haben Arbeiter:innen in Kenia unter prekären Bedingungen die Anwendung optimiert. Sie haben dazu beigetragen, dass die Antworten des Text-Generators „weniger toxisch“ ausfallen, wie aus der Times-Recherche hervorgeht.
Dass auch sogenannte „Künstliche Intelligenz“ nicht ohne menschliche Hilfe auskommt, ist zunächst nicht neu oder überraschend. Auch Konzerne wie Google setzen dafür Menschen ein. Der neue Bericht liefert allerdings einen eindrücklichen Einblick in die Arbeitsbedingungen hinter den Kulissen. Die Tätigkeit wird dabei nicht etwa zum US-Mindestlohn im Silicon Valley verrichtet, sondern verstärkt in den globalen Süden ausgelagert – mit schlechten Arbeitsbedingungen. In diesem Fall hat das von OpenAI beauftragte Unternehmen Samasource die Zusammenarbeit vorzeitig beendet.
Für die Recherche hat das Time Magazine Hunderte Seiten interner Dokumente von Samasource und OpenAI geprüft und vier Mitarbeitende interviewt, die an dem Projekt gearbeitet haben.
Zwei US-Dollar pro Stunde
Wie OpenAI hat die auch als Sama bekannte Firma ihren Hauptsitz in San Francisco. Samas Angestellte leben dagegen vorwiegend in Kenia, Uganda und Indien, wo sie unter anderem Daten kennzeichnen und kategorisieren. Nach eigenen Angaben habe Sama dabei geholfen, mehr als 50.000 Menschen aus der Armut zu befreien.
Im Auftrag von OpenAI beschäftigte Sama seit November 2021 rund drei Dutzend Arbeiter:innen in Kenia. Ihre Aufgabe bestand darin, Textausschnitte auf schädliche Inhalte hin zu lesen und zu markieren. Die entsprechenden Passagen wurden dann in ein Datenset übertragen, mit dem OpenAI einen Sicherheitsmechanismus auf KI-Basis trainierte. Die sogenannten pre-training filter dienen dazu, schädliche Textpassagen aus den Trainingsdaten von ChatGPT zu entfernen. Die Grundlage für diese Trainingsdaten bilden Texte, die OpenAI zuvor massenhaft aus dem Internet geschürft hatte.
Die Arbeitskräfte müssen also Inhalte sichten und aussortieren, weil spätere ChatGPT-Nutzer:innen von ähnlichen Inhalten verschont werden sollen. „Die Klassifizierung und Filterung von schädlichen [Texten und Bildern] ist ein notwendiger Schritt, um die Menge an gewalttätigen und sexuellen Inhalten in den Trainingsdaten zu minimieren und Werkzeuge zu entwickeln, die schädliche Inhalte erkennen können“, so ein Sprecher von OpenAI gegenüber dem Time Magazine.
In einer neunstündigen Schicht mussten die Arbeiter:innen bis zu 250 Textpassagen von einer Länge bis zu 1.000 Wörtern lesen, wie aus der Recherche hervorgeht. Zum Vergleich: Dieser Text enthält rund 800 Wörter. Im Gegenzug erhielten die Arbeiter:innen – je nach Dienstalter und Leistung – einen Stundenlohn zwischen 1,32 und 2 US-Dollar. Das entspricht laut Times in etwa dem Gehalt einer Empfangsangestellten in einem Hotel in Nairobi.
OpenAI bezahlte Sama einen vertraglich festgelegten Stundensatz in Höhe von 12,50 Dollar – und damit bis zu neun Mal mehr als die Arbeiter:innen pro Stunde bekamen. Dieser Betrag habe jedoch sämtliche Kosten des Unternehmens abdecken müssen, rechtfertigt ein Sama-Sprecher die Differenz.
„Vom ständigen Nachdenken verstört“
Für ihr Gehalt mussten die Arbeiter:innen mitunter Beschreibungen lesen, die lebhafte Darstellungen unter anderem von sexueller Gewalt, Suiziden und Tierquälerei enthielten. „Das war Folter“, sagte einer der Arbeiter gegenüber dem Time Magazine. „Man liest im Laufe der Woche etliche solcher Beschreibungen. Und wenn es dann Freitag wird, ist man vom ständigen Nachdenken darüber verstört.“
Um die zum Teil traumatisch wirkenden Darstellungen zu verarbeiten, hätten die Arbeiter:innen um psychologische Unterstützung gebeten. Diese habe Sama ihnen aber nur eingeschränkt gewährt. Das Unternehmen widerspricht dieser Darstellung, wie das Time Magazine berichtet: Es habe für die Arbeiter:innen „jederzeit“ die Möglichkeit bestanden, sowohl an therapeutischen Gruppensitzungen als auch an Einzelgesprächen mit professionellen Therapeut:innen teilzunehmen.
Im Februar 2022 beauftragte OpenAI Sama mit einem weiteren Projekt, das die Kategorisierung von Bildern vorsah, heißt es im Bericht. Einige der Bilder sollen demnach Gewalt an Kindern, Morde und Vergewaltigungen gezeigt haben. Unter US-amerikanischem Gesetz soll der Inhalt einiger der Darstellungen verboten gewesen sein.
Wenige Wochen später löste Sama den Vertrag mit OpenAI vorzeitig auf, acht Monate vor dessen Ablauf. Das heißt, die Arbeiter:innen müssen seitdem nicht länger verstörende Daten für OpenAI sichten. Allerdings mussten die meisten von ihnen daraufhin weniger gut bezahlte Tätigkeiten übernehmen, berichtet das Magazin, andere verloren ihre Anstellung. Sama hat nach eigenen Angaben inzwischen seine Leitlinien überarbeitet. Kürzlich gab das Unternehmen bekannt, aus dem Geschäft mit Inhaltemoderation auszusteigen.
„Nach eigenen Angaben habe Sama dabei geholfen, mehr als 50.000 Menschen aus der Armut zu befreien.“
Und, äh, was machen die, wenn sie nicht mehr für Sama arbeiten?
„löste Sama den Vertrag mit OpenAI vorzeitig auf“ – habe ich das richtig verstanden: Der Auftragnehmer kündigte den Vertrag, nicht der Auftraggeber? Sind der Firma etwa Skrupel gewachsen? Und gibt es eine offizielle Begründung oder Erklärung dafür?
Die stelle hat mich auch überrascht. Aber danach heißt es das Sama aus dem „Geschäft“ mit Inhaltsmoderation aussteigen wolle.
Da liegen wohl zwei mögliche Gründe am nächsten.
1. Zu wenig Profit weil die Betreuung der Klickarbeiter zeit und Geld kostet.
2. Saubermann-Image pflegen oder wieder herstellen. Weil „aus der Armut befreien“ und „Ausbeutung“ ja nun so gar nicht zusammen passen.
Vielleicht sind’s auch beide Gründe. Frage ist: Was machen sie danach?
Im Originalartikel von Time steht, dass die Zusammenarbeit beendet wurde, nachdem das Time Magazin eine Recherche über Facebooks Subcontracting-Aufträge veröffentlicht hat: https://time.com/6147458/facebook-africa-content-moderation-employee-treatment/
Kommen Trainingsdaten (die?) wirklich aus einer Non-Profit-Konstruktion via „fair use“?
Wurden nur drei Dutzend Sama Arbeiter:innen benoetigt, um die Ausgaben von ChatGPT „manuell zu reinigen“?
Das scheint mir sehr wenig, fuer eine Anwendung, die mehere Millionen Nutzer:innen hat.
Die Ausgaben von ChatGPT wurden nicht bereinigt, sondern die Trainingsdatensätze. Es spielt also keine Rolle wieviele Nutzer der Dienst hat, sondern nur, mit wie vielen Datensätzen trainiert wurde.
Sie mussten ja nicht die Texte der Anwender, sonder bevor ChatGPT Online ging, spezielle Texte durchlesen, damit diese später von der KI aus dem Lernprozess ausgesondert werden können, fallse sie auftreten.
Sowas ist durchaus ein oft genutzter und notwendiger Bestandteil bei der KI Entwicklung und benötigt nicht so viele Mitarbeiter, weil man keine allzugroße Datenmenge hat.
Sie mussten ja nicht die Texte der Anwender, sonder bevor ChatGPT Online ging, spezielle Texte durchlesen, damit diese später von der KI aus dem Lernprozess ausgesondert werden können, fallse sie auftreten.
Sowas ist durchaus ein oft genutzter und notwendiger Bestandteil bei der KI Entwicklung und benötigt nicht so viele Mitarbeiter, weil man keine allzugroße Datenmenge hat.
„Sowas ist durchaus ein oft genutzter und notwendiger Bestandteil bei der KI Entwicklung und benötigt nicht so viele Mitarbeiter, weil man keine allzugroße Datenmenge hat.“
Richtig, wobei für die Unternehmen nicht mehr als Clickworking und 2$/Stunde drinnen zu sein scheinen. Wären das gemeinnützige Veranstaltungen, könnten Schüler das zwischendurch machen, und Arbeitslose. Aber so weit zu gehen und etwa 5$ zu zahlen, oder womöglich noch Essen bereitzustellen, das wollte man sich nun weiß Gott sparen, so dass das einer der sicherlich folgenden kommunistischen Regierungen umzusetzen vorbehalten bleibt.
Es ist keine Zwangsarbeit, diese Art Lektorat zu machen und der Stundenlohn ist nicht unangemessen niedrig gemessen am Lohnniveau des Herkunftslandes.
Bei uns gibt es Polizeibeamte, deren Hauptberuf es ist, Kinderpornografie zu bekämpfen. Auch sie tun das freiwillig und wir müssen dankbar dafür sein. Auch bei Facebook und Tiktok gibt es solche menschlichen Content-Moderatoren. Nur weil die in Irland oder China sitzen und nicht in Afrika sind sie weniger ausgebeutet?
Wer so eine Arbeit nicht tun will, muss sie nicht tun. Ich finde den Ausbeutungskontext daher herbei konstruiert.
Sie konstruieren den Ausbeutungskontext aber auch wiederum weg.
„Es ist keine Zwangsarbeit, diese Art Lektorat zu machen und der Stundenlohn ist nicht unangemessen niedrig gemessen am Lohnniveau des Herkunftslandes.“
Ja, aber es ist keine Befreiung. Job weg, Befreiung weg. Gehässig wer es mit Prostitution vergleicht (nur abstrakt bzgl. des genannten Aspektes)!
2$ sind ein Scheiß, und bedeuten indirekt Ausbeutung des eigenen Landes, sowie aller weiter entwickelten Länder mit höherem Lohnniveau, die den Dienst der Software in Anspruch nehmen. Eher so. Beim Lohnniveau ist auch zu beachten, wie weit das denn so reicht, und ob man da meint einen Unterschied zu machen, von wegen Befreiung und so.
„Bei uns gibt es Polizeibeamte, deren Hauptberuf es ist, Kinderpornografie zu bekämpfen. Auch sie tun das freiwillig und wir müssen dankbar dafür sein.“
Das ist ein Strohmannargument. ChatGPT hat keine gesellschaftliche (positive) Rechnung, derzeit, die Polizei schon.
„Auch bei Facebook und Tiktok gibt es solche menschlichen Content-Moderatoren. Nur weil die in Irland oder China sitzen und nicht in Afrika sind sie weniger ausgebeutet?“
Entzerrt von der Polizei liest es sich besser. Gegenüber dem Polizeigehalt von hier, ist das womöglich kreuzweise Ausbeutung?
„Wer so eine Arbeit nicht tun will, muss sie nicht tun. Ich finde den Ausbeutungskontext daher herbei konstruiert.“
Westliche Unternehmen zahlen „Lohnniveau“ in einem Land ohne Arbeitsschutz o.ä. … vielleicht doch eher Ausbeutung? Das nur als Zufallsbeispiel, es gibt ja mehrere Aspekte, aber der „nicht Ausbeutung“ scheint mir gar nicht so schlagend.
Und dann noch mal Annahmen beiseite, denn Artikel: „Das entspricht laut Times in etwa dem Gehalt einer Empfangsangestellten in einem Hotel in Nairobi.“
Tja, das ist wieder eine typische Pseudoeinordnung, die primär den Klassismus der bürgerlichen Redaktion demonstriert.
„Das entspricht laut Times in etwa dem Gehalt einer Empfangsangestellten in einem Hotel in Nairobi.“
Und, wo liegt das im lokalen Vergleich? Das soll wohl wenig klingen, aber ist es das? Und was für ein Hotel?
Bei einem internationalen Businesshotel in einer Weltstadt ist das idR eine ausgebildete Hotelfachkraft, mehrsprachig.
Fragen über Fragen. Stützen Fragen Behauptungen?
Also zur Relativität:
1. Aus Armut befreien darf man nur sagen, wenn man es auch macht. Da ist Nachhaltigkeit ein Kriterium.
2. Man weiß ja nicht mal wie viele Stunden die Menschen dort arbeiten durften. Bei Vollzeit wären sie vielleicht bis zu 30% über dem Mindestgehalt in Nairobi. Das ist nicht nichts, ganz klar. Von einem westlichen Unternehmen bedeutet das allerdings, sich den Preis zunutze zu machen, wo z.B. auch die Lebenserwartung von ca, 67 Jahren, Krankenversicherung u.ä. zu bedenken ist.
3. Natürlich ist das kein Sklavenschiff, es sei dann Kenia wäre ein Sklavenschiff der USA, oder der westlichen Welt, oder der internationalen Unternehmen. Das ist es wohl nicht. Dennoch ist konvenient, dass die Lebenshaltungskosten bei allerlei nicht enthaltender (auch gesellschaftl.) Infrastruktur so niedrig sind.
4. Ausbeutung von Resourcen ist nun mal auch ein Begriff. Die eigentliche Ausbeutung ist eben, sich die billigste Arbeitskraft weltweit zu suchen, ohne dort lokal strukturelle Verbesserung herbeizuführen (bzw. falls), oder auch einfach nur weit unter dem Wert der Arbeit zu bezahlen (ja das ist dann Absolut, bzw. relativ zum Einsatzort des Produktes). Billige Arbeit zu nutzen hat vielleicht einen Win-Win Anteil, ist aber in der Regel doch so gebaut, dass die „Ausbeuter“ mehr davon haben und vorne weg bleiben. Dazu passen sich letztlich die Löhne über lange Zeit an, wenn es denn effektiv keine Sklavenhaltung ist, so dass die Geschäftsmodelle plötzlich nicht mehr tragfähig sind (sofern nicht der andere Begriff zutrifft, dass man exorbitant über Wert verkauft). Ist nicht der Job von Unternehmen, aber darum heißt es ja auch Ausbeutung und nicht „den Job verfehlen“ o.ä.
„Primär … stützt“ – was allerdings im letzten Absatz stand. Alles davor war ohne Kenntnis des Zitats aus dem Artikel geschrieben. Cherrypicking fürs Topping?
Sie haben sich da aber den wichtigsten Punkt herausgenommen! So würde ich es auch machen, wenn ich erfolg haben will. Chapeau!
„Bei einem internationalen Businesshotel in einer Weltstadt ist das idR eine ausgebildete Hotelfachkraft, mehrsprachig.“
Das macht das Gehalt allerdings nicht dicker. Je nach (gezählter) Stundenzahl landen wir da irgendwo von grob 30% um den Mindestlohn in Nairobi herum. Das kann man schön finden, ist aber keine tolle Bezahlung für Mehrsprachigkeit o.ä. Hinzu die Frage, auf Welcher Basis wie vielen welches Gehalt gezahlt wurde.
Lokal: Was ist enthalten (Krankenversicherung, Arbeitsinhalt, Rente, „schädliche Inhalte“…).
Global: Ein Produkt für den Absatz in Industrieländern möglichst billig herstellen [was den Abstand vergrößert, nicht verringert]. Klagevermeidung und massive Kosteneinsparung für das Abhandeln „schädlicher Inhalte“.
Ich glaube vom Klassismus bleibt nicht so viel übrig, oder haben Sie da noch eine Lehrmeinung zu?
Und „Mindestlohn im Silicon Valley“? Ich kann es nicht ganz einschätzen, aber das Valley ist einer der teuersten Orte der Welt zum Leben, Maßstab ist immer das entsprechende Land. Dafür scheint es nicht unüblich zu sein, die Arbeit ist vielleicht psychisch belastend, wobei das individuell sicherlich unterschiedlich bewertet wird, aber zumindest körperlich recht einfach und niemand wird gezwungen da zu arbeiten. Für höhere Gehälter bin ich jederzeit zu haben in diesen Regionen, wäre auch bereit dafür mehr zu zahlen, wenn es denn bei den richtigen ankommt, ab skandalös finde ich die Arbeit in diesem Kontext eigentlich nicht.
Wenn man alle Randbedingungen ignoriert, kann man immer alles machen. Ist doch auch viel einfacher!
„Maßstab ist immer das entsprechende Land.“ Ja, und der Arbeitsschutz, wieviel übrig bleibt, Abfindungen, etc. pp. Ausbeutung gibt es hier wie dort, wie auch drüben.
Die KI ’spiegelt‘ ja nur wieder, wie wir medial im Internet kommunizieren. Das ist da eigentlich verstörende. Denn das ist ja auch das, was Recipienten in ihrer Auswahl wahrnehmen und verarbeiten. Das ist das beunruhigende. Das ‚Mist‘ eben in diesem Maße existiert. Den dann fehlen die sozialen Mechanismen der sozialen Kontrolle und ein Verständnis dafür was ein kooperatives, konstruktives Zusammenleben zum Wohle von sich und allen anderen ausmacht. Und einer der Punkte dahin ist ja ‚was‘ wir ‚wie‘ kommunizieren, den die Worte und GEschichten bestimmen das Denken, das Denken irgendwann Emotionen und Handln. Die Frage wie man das für die KI lösen kann ist dann auch die Frage nach den Mechanismen des Umgangs damit. Und da sind wir bei den Mechanismen des Informations- und Darstellungsmanagemens, zu finden bei Geheimdiensten, in der Werbung, bei Sekten, Religionen, politischen Gemeinschaften und in der Psycholgie… Ich denke anstatt Empörung wäre hier eine qualifizierte psychologische Betreuung angebrachter, Arbeitsbeschränkungen (z.B. max. 4 Wochen), ermitteln in universitären Kontexten auch hier bei uns und eine Auswertung was man noch mit diesen dann klassifizierten Daten zur Vermeidung anfangen kann. (Eigentlich ist es ein Problem, seit es erzählende Menschen gibt)