DatenarbeitWie Millionen Menschen für die KI schuften

Milagros Miceli erforscht, was Tech-Unternehmen gerne unter den Teppich kehren: Wie Arbeiter:innen hinter den Kulissen von ChatGPT & Co. schuften, und das für eine Handvoll Dollar. Im Interview erklärt die Forscherin, wie viel menschliche Arbeit hinter der angeblich „künstlichen“ Intelligenz steckt.

Schwarzweiß-Bild einer Frau mit Dutt, um Hintergrund endlose Bildschirme
Der Hintergrund zu diesem Bild wurde vom Generator DiffusionBee erstellt. Hinter solchen KI-Modellen stehen Legionen von Arbeiter:innen. – Alle Rechte vorbehalten Porträt: privat; Hintergrund: Diffusion Bee; Montage: netzpolitik.org

Starten wir mit etwas Erfreulichem: Diese Zeilen hier wurden nicht mit ChatGPT geschrieben, ausnahmsweise, muss man in diesen Tagen fast sagen. Es ist fast unmöglich, der Anwendung des US-amerikanischen Start-ups OpenAI noch zu entkommen, jenem Chatbot, der auf Befehl ausgefeilte Texte ausspuckt. Mehr noch: Der Hype um generative KI ist in den vergangenen Wochen auf einem neuen Höhepunkt angekommen. Solche Anwendungen erschaffen nicht nur neue Texte, sondern auch Bilder und Code – in einer Qualität, die man vor kurzer Zeit nur Menschen zugetraut hätte.

Doch während die Öffentlichkeit debattiert, wann Künstliche Intelligenz etwa Journalist:innen, Anwält:innen oder Illustrator:innen überflüssig macht, können Wissenschaftler:innen wie Milagros Miceli darüber nur den Kopf schütteln.

Miceli leitet ein Team am Berliner Weizenbaum-Institut und forscht seit Jahren zur Arbeit hinter KI-Systemen, unter anderem zur Datenannotation. So nennt man es, wenn Menschen Datensätze sichten, sortieren und mit Etiketten versehen, damit Maschinen sie verstehen. Bevor zum Beispiel eine Bilderkennung das Foto einer Katze erkennen kann, müssen Menschen reihenweise Bilder mit Katzen kennzeichnen. Mit solchen Datensätzen lassen sich dann KI-Systeme trainieren.

Micelis Forschung zeigt: Die Arbeit von Menschen verschwindet in Zeiten von vermeintlich autonomen KI-Modellen wie DALL-E 2 oder ChatGPT sicher nicht. Hinter den Kulissen leisten Legionen von Menschen die Drecks- und Fleißarbeit, ohne die man solche Technologien gar nicht bauen könnte.

Wenn sich Menschen als KI ausgeben

Das passt nicht zur Erzählung von Unternehmen, dass sich mit KI alles wie von selbst erledigt; es passt nicht zur Geschichte vom neuen Zeitalter und dem nächsten großen Ding, das uns demnächst alle in den Ruhestand schicken wird. Die Arbeit dieser Menschen bleibt oft versteckt – zumindest wenn alles nach Plan läuft.

Ein Gespräch mit Miceli in ihrer hellen Büroetage in Berlin Mitte ist deswegen aufregend und erleichternd zugleich. Sie entzaubert die Erzählung von revolutionären Super-KIs. Ihren Blick richtet sie nicht auf die reichen Gründer:innen und Ingenieur:innen im Silicon Valley. Stattdessen erzählt Miceli von den Menschen in Kenia, Argentinien und Bulgarien, von Aufsteiger:innen und Geflüchteten und von ihrer profanen Arbeit im Maschinenraum der großen KI-Systeme.

netzpolitik.org: Seit dem Hype um ChatGPT häufen sich weltweit Berichte darüber, ob sich bald ganze Berufszweige durch KI-Systeme ersetzen lassen. Sind das die richtigen Fragen?

Milagros Miceli: Wir reden viel darüber, was diese Dinge sein könnten. Doch wir versäumen es, darüber zu reden, was sie sind. Sie sind Technologie, das ist unbestreitbar, aber sie sind auch von Menschenhand betriebene Werkzeuge. Das ist der Teil, über den ich gerne mehr sprechen würde.

netzpolitik.org: Was meinen Sie damit?

Miceli: Hinter den Anwendungen stehen Millionen von Menschen, die Inhalte moderieren und Trainingsdaten etikettieren. Sie helfen auch dabei, die Daten überhaupt zu generieren, indem sie Bilder hochladen und Worte einsprechen. Es gibt sogar Mitarbeiter:innen, die sich gegenüber Nutzer:innen als KI ausgeben.

netzpolitik.org: Wie bitte, es gibt KI-Systeme, die gar keine sind?

Miceli: Ja, smarte Kameras sind ein gutes Beispiel dafür. Einige dieser Systeme werden als KI-gesteuert verkauft, aber die Technologie ist noch nicht so weit. Wenn man hinter den Vorhang schaut, handelt es sich nur um eine Gruppe von Menschen, die rund um die Uhr Kameras überwachen. Diese Menschen sind unterbezahlt und arbeiten in der Regel unter furchtbaren Bedingungen, etwa in Afrika oder Süd- und Mittelamerika. Mein Forscherkollege Antonio Casilli hat gerade einen solchen Fall aus Madagaskar vorgestellt: 35 Menschen leben in einem Haus mit nur einer Toilette. Diese Menschen stecken in Wahrheit hinter einem vermeintlich intelligenten Kamerasystem.

Wofür braucht OpenAI so viel Geld?

„Jeder will ethische KI“

netzpolitik.org: Ist das nicht Betrug?

Miceli: Ich würde es nicht als Betrug bezeichnen. Manche finden das skandalös. Aber es ist kein Fehler im System, es ist Teil davon.

netzpolitik.org: Für ChatGPT haben Arbeiter:innen in Kenia gewalttätige, rassistische und anderweitig toxische Inhalte gesichtet, wie eine Recherche des US-Magazins TIME zeigte. Ist das gängige Praxis?

Miceli: Ja, das ist ein Fall wie aus dem Lehrbuch. Heutzutage will jeder ethische KI. Die Unternehmen wissen, dass sie einen Shitstorm ernten, wenn das Modell diskriminierende Ergebnisse liefert. Also versuchen sie verzweifelt, es unter Kontrolle zu bekommen. Und so stellen sie eine Armee von Arbeiter:innen ein, die gewalttätige und unangemessene Inhalte kennzeichnen. Aber dazu müssen sie mit diesen Inhalten konfrontiert werden – und das ist sehr schädlich für ihre psychische Gesundheit.

netzpolitik.org: Kann menschliche Arbeit überhaupt verhindern, dass KI einen Bias, also Voreingenommenheit hat?

Miceli: Nichts kann frei von Vorurteilen sein. Schon hinter der Gestaltung eines KI-Systems stecken die Annahmen und Präferenzen derjenigen, die sie entwickelt haben. Ich selbst spreche deswegen inzwischen gar nicht mehr von Bias, das ist nur eine Ablenkung. Unternehmen sollten ehrlich sein und offenlegen, auf welchen Annahmen ihre Systeme beruhen – und was ihre Systeme nicht können, weil sie dafür kein Geld ausgegeben haben.

netzpolitik.org: Wie sehr sparen die Unternehmen bei den Arbeiter:innen, die zum Beispiel Trainingsmaterial für einen Chatbot sichten?

Miceli: Diese Menschen sind unterbezahlt und arbeiten unter furchtbaren Bedingungen. Viele werden nicht für ihre Arbeitszeit bezahlt, sondern für ihre Leistung. Das heißt, für einen soliden Stundenlohn müssen sie wöchentlich Tausende Textpassagen bearbeiten.

netzpolitik.org: Die Antworten von ChatGPT sind verblüffend menschenähnlich. Wenn ich heute mit dem Chatbot schreibe, sind dann immer noch Arbeiter:innen beteiligt, oder antwortet mir wirklich nur die Software?

Miceli: Die Technologie muss ständig aktualisiert, verbessert und neu trainiert werden. Das heißt, selbst jetzt werten Menschen die Ergebnisse von ChatGPT aus. Dabei kann es sich um dieselben Personen handeln, die schon die Trainingsdaten etikettiert haben. Aber vor allem geht es hier um die unbezahlte Arbeit der Nutzer:innen. Jedes mal wenn man ChatGPT nutzt, hilft man dabei, das Modell zu perfektionieren. Das ist auch Arbeit, wird aber selten als solche anerkannt.

Hilfe oder Ausbeutung?

netzpolitik.org: Wie finden Tech-Unternehmen die vielen Angestellten, die für niedrigen Lohn arbeiten?

Miceli: Hier gibt es vor allem drei Möglichkeiten. Erstens gibt es Plattformen wie Mechanical Turk von Amazon. Sie vermitteln zwischen Unternehmen und Arbeiter:innen. Das ist besonders billig und schnell. Oft wenden sich Unternehmen dorthin zuerst. Wünscht sich ein Unternehmen dann mehr Qualität gibt es externe Dienstleister, sogenannte BPOs. Das steht für „Business Process Outsourcing“. Die sind schon etwas teurer. Und schließlich, wenn ein Unternehmen besondere Expertise benötigt – etwa zur Beschriftung medizinischer Daten –, dann versucht es, die Aufgaben intern zu erledigen.

netzpolitik.org: Erforschen Sie all diese Bereiche?

Miceli: Ich habe mich auf eine besondere Art von BPO spezialisiert, und zwar auf Impact-Sourcing-Unternehmen. Sie bewegen sich zwischen Gewinnorientierung und Gemeinnützigkeit. Ihre Story ist: Wir helfen Menschen und bringen Arbeit in arme Regionen. Aber zur Wahrheit gehört auch: Durch die geringen Lohnkosten haben die Unternehmen dann eine gute Position auf dem Markt.

netzpolitk.org: Das klingt nach dem Unternehmen aus der Recherche des TIME-Magazins. Die kenianischen Arbeiter:innen waren bei Sama beschäftigt, das seinen Sitz in San Francisco hat.

Miceli: Ja, Sama ist ein solches Unternehmen.

Geflüchtete als Billigarbeiter:innen

netzpolitik.org: Können Sie mir mehr über die Menschen erzählen, die für solche Unternehmen arbeiten?

Miceli: Argentinien und Bulgarien sind zwei Länder, in denen ich Feldforschung gemacht habe. In den argentinischen BPOs waren es Jugendliche aus den Armenvierteln der Stadt. Einige von ihnen haben die Schule nicht abgeschlossen. Die Väter arbeiten auf dem Bau, die Mütter putzen Häuser. Für die Jugendlichen ist so ein Schreibtischjob im Büro beeindruckend.

In Bulgarien war die Situation anders. Das Unternehmen, in dem ich forschte, hatte es auf Geflüchtete aus dem Nahen Osten abgesehen, vor allem aus Afghanistan, Irak und Syrien. Sie sollten Menschen in Krankenhäusern via Kamera überwachen und einen Alarm auslösen, etwa wenn jemand aus dem Bett fiel oder Hilfe brauchte. Sie wurden mit etwa einem US-Dollar pro Aufgabe bezahlt. Einige dieser Aufgaben haben dann bis zu zwei Stunden gedauert. Manche Arbeiter:innen arbeiteten auch direkt von Syrien aus.

netzpolitik.org: Trotz Krieg arbeiten die Unternehmen auch in Syrien?

Miceli: Ja, es gibt kleinere BPOs direkt in Syrien. Andere Arbeiter:innen arbeiten in Syrien für Unternehmen, die ihren Sitz in der Türkei oder Bulgarien haben.

„Das ist der Teil, den viele nicht hören wollen“

netzpolitik.org: Betrachten die Arbeiter:innen ihre Jobs als Ausbeutung?

Miceli: Diese Menschen werden ausgebeutet, das ist unbestreitbar. Die Bezahlung ist sehr niedrig. Manchmal heißt es, ein US-Dollar pro Stunde sei in Ländern wie Bulgarien oder Kenia viel Geld. Aber das ist es nicht. Dennoch sagen die meisten Arbeiter:innen: Diese Tätigkeit ist ihnen lieber als ein anderer Job, zum Beispiel als Reinigungskraft. Das ist der Teil, den viele nicht hören wollen, wenn sie die Ausbeutung der Arbeiter:innen anprangern.

netzpolitik.org: Von welchen Missständen in der Branche haben Sie noch erfahren?

Miceli: Da gab es eine Anwendung, die automatisch gefälschte Ausweise erkennen sollte. Sie sollte in eine Plattform ähnlich wie eBay integriert werden. Um diese Anwendung zu trainieren, sollten Arbeiter:innen nicht bloß Bilder von echten und gefälschten Ausweisen kennzeichnen. Sie sollten auch neue Daten beschaffen. Das heißt, die Arbeiter:innen sollten ihre eigenen Ausweise fotografieren, und sie sollten sich die Aufnahmen von fünf weiteren Ausweisen besorgen, etwa von Freund:innen und Familie. Dann sollten sie die Aufnahmen manipulieren, zum Beisiel den Namen ändern.

Prekäre Klickarbeit hinter den Kulissen von ChatGPT

„Privatsphäre ist ein Problem der ersten Welt“

netzpolitik.org: Das ist ein extremer Eingriff in die Privatsphäre der Arbeiter:innen und ihrer Angehörigen.

Miceli: Ja, aber Arbeitnehmer:innen in einem Land wie Argentinien kümmern sich weniger um die Privatsphäre als Angestellte in Deutschland. Wenn man mit den Leuten über Datenschutz spricht, sagen sie: Privatsphäre ist ein Problem der Ersten Welt. Zuerst müssen sie etwas zu essen auf den Tisch kriegen.

netzpolitk.org: Wenn man die vielen Arbeiter:innen miteinbezieht, welche Kosten stecken wirklich hinter KI-Anwendungen wie ChatGPT oder DALL-E-2?

Miceli: Ich schätze, die Rechenleistung macht etwa 80 Prozent der Kosten aus, die menschliche Arbeitskraft 20 Prozent. Und das Geld für die menschliche Arbeitskraft fließt zu 90 Prozent an die Ingenieur:innen im Silicon Valley, während Arbeiter:innen etwa in Venezuela oder Kenia fast nichts bekommen.

netzpolitik.org: Können strengere Gesetze die Arbeitsbedingungen verbessern?

Miceli: Ich bin da etwas skeptisch. Die Arbeiter:innen in Argentinien erhielten zum Beispiel einen Mindestlohn und waren angestellt. Sie bekamen Krankenversicherung und Altersversorgung. Das war eine große Sache für sie. Aber der Mindestlohn in Argentinien liegt unter der Armutsgrenze. Regulierung muss die Besonderheiten jedes Ortes, jedes Unternehmens und jeder Tätigkeit berücksichtigen.

„Der Mythos von selbstständigen Technologien“

netzpolitik.org: Was hilft den Arbeiter:innen am meisten?

Miceli: Wenn sie sich selbst organisieren. Das haben auch unsere Gespräche mit den Arbeiter:innen gezeigt. Man muss die Besonderheiten vor Ort berücksichtigen, aber auch die internationale Solidarität fördern. Dann können Arbeiter:innen in anderen Ländern selbst entscheiden, welche Errungenschaften ihnen weiterhelfen können.

netzpolitik.org: Wofür haben die Arbeiter:innen in Argentinien gekämpft?

Miceli: Zuerst war es eine feste Anstellung. Dann kämpften sie dafür, auch von zu Hause aus arbeiten zu dürfen. Einige konnten bei Regen nicht ihr Haus verlassen, weil es in ihrer Gegend dann sehr schlammig wird. Aber das Unternehmen wollte ihnen keine Laptops leihen. Dann kam Corona, und sie mussten von zu Hause aus arbeiten. Heute dürfen sie das zweimal pro Woche.

netzpolitik.org: Glauben Sie, KI-Unternehmen wie OpenAI verbergen absichtlich, wie viele Arbeiter:innen hinter ihrer bahnbrechenden Technologie schuften?

Miceli: Auf jeden Fall. Die Unternehmen verkaufen den Mythos von völlig selbstständigen Technologien. Der Mythos verliert seine Kraft, wenn man zugibt, dass schlecht bezahlte Arbeiter:innen die Technologie am Laufen halten.

„Das ist keine Kleinstarbeit“

netzpolitik.org: Können Arbeiter:innen in Impact-Sourcing-Unternehmen auch aufsteigen?

Miceli: Die Arbeiter:innen sammeln viel Fachwissen. Sie sind sie Expert:innen im direkten Umgang mit Daten, weil sie tagtäglich damit zu tun haben. Niemand hat das Handwerk besser einstudiert, nicht einmal die Ingenieur:innen. Aber ihre Leistung wird bloß anhand von Zahlen bewertet. Bei den Anbietern, die ich mir angesehen habe, gibt es nicht einmal eine Chat-Funktion, über die Arbeiter:innen Fragen stellen können. Wenn sie es dennoch versuchen, stuft ein Algorithmus das als Jammern ein und bewertet ihrer Leistung schlechter. Manchmal werden Arbeiter:innen dann ohne weitere Erklärung von einem Projekt ausgeschlossen.

netzpolitik.org: Wie könnte das besser laufen?

Miceli: Die Arbeiter:innen sollten als Menschen mit Fachkenntnissen verstanden werden. Ich glaube, ihre Ideen und Anmerkungen können die Technologie besser machen. Unternehmen sollten diese Expertise als Qualität betrachten und dafür auch höhere Preise verlangen.

netzpolitik.org: Oft wird diese Art von Arbeit als „Mikroarbeit“ bezeichnet.

Miceli: Ja, solche Begriffe sind Teil der Erzählung von der komplett automatisierten KI. Die Branche erweckt gerne den Eindruck, dass die Expert:innen nur im Silicon Valley sitzen. Aber wenn man sich acht Stunden am Tag Bilder von missbrauchten Kindern ansieht, ist das keine Kleinstarbeit. Ich würde sagen, das ist etwas Großes.

12 Ergänzungen

  1. Als sehbehinderter Zuhörer ist diesem Artikel sehr schwierig zu folgen gewesen. 49 Doppelpunkt Innen machen diesen Artikel zu einem Alptraum.

    1. Ich habe mir den Artikel gerade mit den OS X-Standardtools vorlesen lassen (also nichts Teures, Seltenes oder ganz Besonderes) und die lesen den Doppelpunkt einfach als Pause, genau so, wie ein Mensch das machen würde. Ich war jetzt neugierig, weil man ja genau deswegen den Doppelpunkt nimmt, damit Screenreader nicht Arbeiter Sternchen innen draus machen. Funktioniert bei mir auch genau so. Vielleicht Screenreader wechseln oder anders einstellen?

      1. Wer mit seinem Rolli den Bordstein nicht hochkommt, faehrt auch nur den falschen Rolli, genau.

        1. Warum so unfreundlich? Ich habe den Kommentar als freundlichen Hinweis und nicht als belehrend wahrgenommen.

  2. Ich feiere Sie gerade dafür, dass Sie nicht das grausige Wort „Narrativ“ verwendet haben, das gerade so inflationär in den Medien verwendet wird. Sie schreiben einfach „Erzählung“ oder „Geschichte“, so wie man es früher schon getan hat. Danke :)

  3. Eine ziemlich banale Erkenntnis, dass für annotierte Trainingsdaten Menschen Daten annotieren müssen. Und dass das nicht großartig vergütet wird, weil kein Studium nötig ist, um ein Katzenbild als „Katze“ zu beschreiben. Im übrigen glaube ich nicht, dass es Jobs gibt, wo man sich „acht Stunden am Tag Bilder von missbrauchten Kindern ansieht“, abgesehen vielleicht von bestimmten Schwerpunkt-Staatsanwaltschaften. KIs verwenden normalerweise keine regelrechten Kinderpornographiesammlungen, sie verwenden u.a. Internet-Scrapings, wo natürlich der übliche Müll drin ist. Grundsätzlich sehe ich in dem Artikel den scheinmoralischen Impetus, dass es besser wäre, die Leute in Kenia und Argentinien hätten nicht diese Jobs und würden (für weniger) putzen oder betteln gehen. Dann wären wir ethisch sauberer.

    1. Guter Kommentar. Hier in Südamerika gibt es natürlich viele solcher Jobs, die oftmals von Studenten erledigt werden. Die Jobs brauchen sie, um ihr Studium zu bezahlen und um sich nebenbei noch etwas hinzuverdienen zu können. Da ist nichts Schlimmes dabei, keine Ausbeutung, kein Drama und kein Jammern auf hohem Niveau wie in Deutschland. Aber es scheint wirklich so zu sein, dass man in Ländern wie Deutschland es lieber sehen würde, dass die Menschen zum Beispiel in Südamerika auf dem Feld arbeiten oder als „Putze“ bei KFC oder McD*. Na ja, und was die „Käfighaltung“ angeht…. das ist ein typisch europäisches Problem. Hier leidet Niemand, wenn auf 25 qm 8 oder 10 Personen zusammensitzen und arbeiten.

    2. Was für ein arroganter Kommentar! Es geht hier nicht darum sein eigenes Gewissen reinzuwaschen, sondern zu zeigen was hinter der angeblich so tollen Technologie steckt. Es geht auch nicht darum die Menschen in andere minderbezahlte Jobs zu schicken, sondern die Arbeit adäquat zu bezahlen. Ganz einfach, eigentlich, sollte man meinen…Sind Menschen, die kein Studium haben, weniger wert? Sie würden doch in ihrem Job auch nicht gerne nur 1€ die Stunde verdienen, während der Großkonzert mit dem Ergebnis Ihrer Arbeit, Milliarden einstreicht. Das Problem ist ein generelles in unserem globalisiertem System. Milliardäre werden nur so reich, weil ihre Arbeit von vielen erledigt wird, die kaum dafür bezahlt werden. Das dann als altruistischen Akt hinzustellen und zu behaupten, was sollten sie denn ohne diese Jobs machen, ist schlichtweg der falsche Ansatz. Die Frage ist doch auch, warum geht es den Menschen in den Orten so schlecht und warum sind sie auf solche ausbeuterischen Arbeiten angewiesen? Und wie sollen sie dort wieder herauskommen mit einem Dollar Tagessatz?
      Zudem ist zu „glauben“ es würde nicht viele Jobs geben, in denen Menschen Missbrauchs- und Gewaltbilder ansehen müssen, als Antwort auf eine wissenschaftliche Studie, das traurige Zeichen unserer Zeit in der die persönliche Meinungsbildung vor Faktenwissen steht. “ Alles was wir nicht glauben/sehen, gibt es nicht“… und die Erde ist wohl doch eine Scheibe…

  4. Klickarbeiter, Textscreener, AI-Breeder…auch schlimm ist, dass die Arbeit quasi keine Berufsqualifikation bietet. Bitte nicht falsch verstehen. Die Leute sind und werden durch die Arbeit hochqualifiziert. Doch niemand weist ihnen das nach. Es gibt keine Zeugnisse, die den Inhalt der Digitalarbeit festhalten. Es fehlen die Nachweise, um Karrieren eingehen zu können, erst recht nicht in anderen Ländern.
    Keine Gewerkschaften, Innungen oder Verbände. Kaum Gesetze zur Regulierung, wie für die angesprochene seelische Belastung. Die Unternehmen müssen auch selber keine Qualifikationen oder Akkreditierungsstandarts erfüllen, selbst in den Industrieländern nicht. Es werden ja keine Leute bei den KI-Unternehmen eingestellt, sondern „Werksarbeit“ gekauft.
    Das Lieferkettengesetz muss sich auch auf die Digitalarbeiter ausweiten! Informationen sind auch ein Rohstoff, der durch Ausbeutung gewonnen wird. Natürlich glauben manche Leute, dass der PC-Arbeitsplatz besser ist als putzen. Bis sie dann in die Käfighaltung kommen. Ähnliches gibt es auch in Deutschland mit großen Call-Centern. Büroarbeitsplatz…toll, mit einem Lärmpegel und Augenbelastung wie in einer Dauerdisko. In asiatischen Ländern werden diese Digitalarbeiter mitunter auch lange Zeit nicht bezahlt. Wie auch schon angesprochen, der Weg zu Kriminalität ist bei dieser Arbeit auch nicht weit weg.

    1. Deine Ergänzungen und den Zuspruch zu diesem Artikel finde ich Wichtig und kann da nur Zustimmen. Natürlich handelt es sich um ein „First World Problem“, sich diese Missstände auf denen unser Lebensstil fußt, bewusst zu machen und sich für bessere Bedingungen einzusetzen. Denn die Großen Technik-Unternehmen versuchen das Maximum an Rentabilität zu erreichen und solange unser Eins das billigend in Kauf nimmt… fein!

    2. „Keine Berufsqualifikation“

      Das ist auch der schlangenhafte Aspekt mit KI-Generatoren und vielleicht KI allgemein – wobei ich in erster Linie an KI-Systeme denke, die nur in der Cloud trainiert werden können, auf Basis von menschengenerierten Daten, und zu allererst noch solche, die nur in der Cloud funktionieren bzw. angeboten werden.

      Nutzer halten auch nichts in der Hand, und die Skills z.B. für „Prompt-Engineering“ wechseln mit zukünftigen Versionen oder bedeuten einfach mal nichts. Es droht damit eine massive Machtverschiebung auf Basis der Daten aller, also quasi das vollständige diametrale Gegenteil von Gemeinnützigkeit.

      Es heißt dann so im Nebensatz gerne mal, auch bzgl. Ausbildungskontexten: der Faule werde mit KI noch fauler bzw. schlechter und der Tüchtige werde noch besser und hänge die anderen noch weiter ab. Das klingt nicht nach dem Sinn eines Bildungssystems oder einer modernen Gesellschaft, dass man – KI oder nicht – Overlords züchtet, die dann alle anderen Knechten [können].

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.