KI ist ein Marketingbegriff, den in den frühen 2010er-Jahren vor allem die großen Technologieunternehmen wiederbelebt haben. Der Begriff ist einer von vielen, die man zur Beschreibung daten- und rechenzentrierter statistischer Modelle wählen kann. Er entstammt einem Sammelsurium akademischer Bezeichnungen – von Kybernetik über Automatentheorie und Informationsverarbeitung bis hin zu maschinellem Lernen.
Diese Bezeichnungen wurden in den vergangenen 75 Jahren auf ein heterogenes Kontinuum militärisch geprägter Forschung und Entwicklung angewandt. Sie alle sind getrieben von dem Wunsch nach rechnerischer Kontrolle und automatisierter Entscheidungsfindung.
Den Begriff „Künstliche Intelligenz“ prägte der Kognitions- und Computerwissenschaftler John McCarthy in den 1950er Jahren. McCarthy tat dies nicht, um die Eigenschaften der Systeme zu beschreiben, die er baute oder um sich herum beobachtete, sondern aus viel banaleren Gründen. In einem Interview räumte er ein, dass er „den Begriff ‚Künstliche Intelligenz‘ erfunden hat […], weil wir etwas tun mussten, als wir versuchten, im Jahr 1956 Geld für einen Sommer-Workshop zu bekommen.“ Er erhielt das Geld, und das Dartmouth Summer Research Project on Artificial Intelligence kam ins Rollen.
Der kleinteilige Kampf um ein Revier
Diejenigen, die mit der akademischen Vergabe von Fördermitteln vertraut sind, werden McCarthys Bedürfnis nach einem Oberbegriff verstehen. Dieser Oberbegriff sollte rhetorisch die Arbeit derjenigen einschließen, die er zur Mitarbeit einladen wollte, und all jene ausschließen, die er nicht einladen wollte. Und er sollte gleichzeitig das Interesse von Geldgebern wecken. Und natürlich ist die Erfindung eines neuen Begriffs ein probates Mittel, um sein Revier abzustecken und zu verteidigen – ein weiteres akademisches Gebot.
McCarthy wollte nämlich Norbert Wiener nicht einladen, dessen Begriff „Kybernetik“ damals ein Großteil des Fachgebiets prägte. „Ich selbst“, sagte er einige Jahre später in einem Interview, „habe den Begriff ‚Künstliche Intelligenz‘ unter anderem deshalb erfunden, um der Assoziation mit ‚Kybernetik‘ zu entgehen. […] Ich wollte vermeiden, dass Norbert […] als Guru akzeptiert wird oder ich mich mit ihm auseinandersetzen muss.“
Wer ein Fachgebiet begründet und damit einen konzeptionellen Rahmen setzt, kann damit auch Geldmittel und Prestige sammeln. Wichtig ist auch, dass die Schöpfer des Feldes als Erfinder auftreten, nicht als dessen Weiterentwickler. Neuartigkeit ist in der Wissenschaft, wie auch anderswo, ein Fetisch. Marvin Minsky, Claude Shannon und natürlich McCarthy – die Männer, die wir als die Väter der Künstlichen Intelligenz ansehen sollen – erlangten diesen Status sowohl durch ihre Arbeit als auch durch ihre schiere Präsenz, als dieser Begriff erfunden wurde.
Gewiss, ein Name ist nicht alles, aber ich frage mich oft, wo wir heute stünden, wenn der Name Kybernetik sich durchgesetzt hätte. Oder wenn der Begriff Informationsverarbeitung in seiner beschreibenden Langweiligkeit noch bestünde. Und wenn damit das Wort „Intelligenz“ – mit seiner ganzen düsteren Geschichte und seinen eugenischen Anklängen – nicht jedes Mal wiederholt würde, sobald wir uns auf die unternehmens-, daten- und rechnerzentrierten KI-Modelle beziehen.
Ich führe diese kurze Etymologie unter anderem deshalb an, um zu verdeutlichen, dass der Begriff KI ein höchst kontingenter Begriff ist. Und dass er mindestens ebenso viel mit den Erfordernissen des akademischen Wettbewerbs und den Anforderungen von Geldgebern zu tun hat wie mit der Natur der Technologie, die dieser Begriff zu beschreiben versucht.
Angesichts der Tatsache, dass der Begriff KI im Laufe seiner über 70-jährigen Geschichte auf ein breites Spektrum heterogener Techniken angewandt wurde, sollten wir uns fragen: Warum hat KI – der Begriff und die damit verknüpfte Mythologie – in den frühen 2010er-Jahren plötzlich erneut an Popularität gewonnen? Warum verzeichnen wir diese Wiederkehr nach einer langen Flaute?
Die Geschichte der vernetzten Datenverarbeitung
Die vernetzte Datenverarbeitung begann als militärische Initiative – zumindest in den Vereinigten Staaten – und wurde weitgehend von der US-Regierung finanziert, die auch die Computerindustrie während eines Großteils ihrer Geschichte unterstützte. Die Ängste vor dem Kalten Krieg waren dabei eine treibende Kraft. In den frühen 1990er-Jahren wurde die Infrastruktur für vernetzte Datenverarbeitung – oder das „Internet“ – privatisiert und kommerzialisiert. Damals erfolgte die Hinwendung zu einer neoliberalen Politik, begleitet von dem festen Glauben der Clinton-Ära, dass „Hightech“ Balsam für eine kränkelnde Wirtschaft sei.
Hier stütze ich mich auf die hervorragende Arbeit von Matthew Crain, dessen Buch „Profit Over Privacy“ eine wichtige Quelle für das Verständnis der damaligen Dynamik ist.
Als die Privatisierung dieser einst öffentlich finanzierten universitären und militärischen Infrastrukturen voranschritt, beauftragte die Clinton-Regierung verschiedene Regierungsstellen mit der Bewertung ihrer Risiken und Vorteile. Und aus heutiger Sicht zeigt sich deutlich, dass das Geschäftsmodell der Überwachung weder ein Fehler noch ein Zufall oder eine Zukunft war, die niemand vorausgesehen hat. Im Gegenteil: Die Gefahren und Schäden, die uns heute durch die geballte Macht der Massenüberwachung in den Händen einiger weniger privater Akteure drohen, waren vorausgesehen worden. Nur wurden die Warnungen damals ignoriert.
Das Geschäftsmodell der Überwachung
Akademiker:innen, zivilgesellschaftliche Organisationen und mehrere Regierungsbehörden schlugen Alarm: Es könnte massiv schaden, wenn man privaten Unternehmen erlauben würde, sich bei Datenschutzfragen selbst zu regulieren. Doch die Warnungen stießen auf neoliberale Ohren und der Zeitgeist setzte sich durch. Und der lautete: Gewinne privatisieren und Kosten kollektivieren.
Die Clinton-Regierung zog die Ansichten der Tech- und Werbeindustrie – darunter jene von bekannten Big-Tech-Akteure wie Eric Schmidt – ihren eigenen Expert:innen vor. Letztlich ermöglichte sie damit eine Kommerzialisierung, die der Überwachung und der Datenanhäufung durch die aufstrebende Technologiebranche keinerlei Grenzen setzte.
Auf diese Weise konnte sich das Geschäftsmodell der Überwachung ungehindert ausbreiten. Es geriet durch trial and error, den Dot-Com-Boom und die Dot-Com-Pleite in ein unruhiges Gleichgewicht, bevor es sich zu der heutigen konsolidierten monopolistischen Landschaft entwickelte. Crain gibt die Entwicklung ungeschönt so wieder: „Der wirtschaftliche Erfolg der Branche beruht auf der praktisch uneingeschränkten Monetarisierung der Verbraucher:innenüberwachung“. Und Überwachung – angetrieben von Werbung – ist nach wie vor die Grundlage der heutigen Technologiebranche.
Dieses Modell hat die plötzliche Verbreitung sogenannter „kostenloser“ Internetdienste ermöglicht und gefördert – von der Websuche über E-Mail bis zu sozialen Netzwerken. Für diese Produkte und die damit verbundene wertvolle Datenerfassung haben die führenden Unternehmen kontinuierlich massive Recheninfrastrukturen und Techniken aufgebaut. Sie haben gewaltige Summen investiert, um riesige Datenmengen schnell verarbeiten und speichern zu können.
Die Tendenz zum „natürlichen Monopol“
Dies bringt uns zu einem wichtigen Punkt: Das Geschäftsmodell der Überwachung tendiert zur Konsolidierung – oder in der Sprache der Wirtschaftswissenschaftler: zum „natürlichen Monopol“. Die Technologieunternehmen, die das Geschäftsmodell der computergestützten Überwachung frühzeitig verfeinert haben, bauten massive Infrastrukturen, riesige Datenspeicher und große Nutzerbasen auf. Konkurrenten konnten das nicht einfach nachahmen oder kurzerhand einkaufen. Auf diese Weise verstärkte sich das System selbst. Die früh daran beteiligten Unternehmen zählen heute fast zu all jenen Firmen, die wir als „Big Tech“ bezeichnen.
Anfang der 2010er Jahre hatten sich die Big-Tech-Gewinner etabliert. Sie begannen, ihre Marktdominanz zu festigen. Mehr und mehr verhielten sie sich mehr wie die aktionärsgesteuerte Megakonzerne, die sie ja auch waren. Dabei legten sie auch den Anschein des technokratischen Außergewöhnlichen langsam aber sicher ab, der ihren Aufstieg zu Beginn noch prägte.
Die Grundlagen des KI-Booms
Zurück zu unserer Ausgangsfrage: Warum ist KI zu diesem Zeitpunkt wieder aufgetaucht? Das ist kein Zufall. Daten – je mehr davon, desto besser –, Recheninfrastruktur und Marktreichweite machen auch den jüngsten KI-Boom aus. Es gibt eine große Schnittmenge zwischen diesen Faktoren und den Infrastrukturen, die aufgebaut wurden, um das Geschäftsmodell der Überwachung zu ermöglichen.
Das „Neue“ an der KI in den frühen 2010er-Jahren waren nicht Innovationen beim maschinellen Lernen. Diese Methoden stammen großteils aus den 1980er-Jahren. Neu waren hingegen zum einen die beträchtlichen Datenmengen, die zum Trainieren von KI-Modellen verwendet wurden. Zum anderen gab es nun eine leistungsfähige Recheninfrastruktur, um diese Modelle zu trainieren und zu kalibrieren. Und all diese Ressourcen lagen in den Händen einiger weniger privater Technologieunternehmen.
Vor diesem Hintergrund besteht die Hauptaufgabe von KI darin, die riesigen Mengen der von den Tech-Konzernen gesammelten und gespeicherten Überwachungsdaten besser nutzbar zu machen. Mit Hilfe der Magie und des Marketings der KI können diese Daten dazu verwendet werden, Modelle unserer „Realität“ zu erstellen. Diese Modelle nutzen die Unternehmen für weit mehr als nur für Werbung. Sie treffen damit unter anderem Vorhersagen zu fast allen Bereichen des menschlichen Lebens – vom Verkehr über die Bildung bis hin zur Medizin. Dadurch entstehen intime Daten über jeden Einzelnen von uns. Und diese Daten haben, selbst wenn sie durch Vorhersagemodelle und nicht durch direkte Überwachung und Datenerfassung entstehen, einen Einfluss auf uns und unser Leben.
Kurz gesagt, das Marketing-Narrativ der KI dient dazu, das Geschäftsmodell der Überwachung im Herzen der Technologiebranche zu mystifizieren, zu festigen und zu erweitern.
KI braucht Arbeit
Bevor ich fortfahre, möchte ich auf etwas Wesentliches eingehen. Denn all dies entsteht nicht automatisiert. Vielmehr braucht es dafür Menschen, die arbeiten – genauer: es braucht viele Menschen, die viel arbeiten. Das gilt sowohl für die Entwicklung von KI-Systemen als auch für ihren Einsatz, um verschiedene Rollen und Aufgaben zu „automatisieren“.
In beiden Bereichen hilft das Narrativ der intelligenten Automatisierung jenen Unternehmen, die diese Systeme entwickeln. Sie profitieren davon, ihren Status als Spitzen-Innovatoren zu behaupten und ihren Systemen die Fähigkeiten zuzuschreiben, die sie in Wirklichkeit den Arbeiter:innen verdanken.
Und obwohl Emily Denton, Timnit Gebru, Veena Dubal, Alex Hannah, Adrienne Williams und viele andere ausführlich darüber geschrieben haben, bleibt die Arbeit hinter der KI meist unerwähnt und damit verborgen.
Das Beispiel ImageNet
Lassen Sie mich dazu das Beispiel des ImageNet-Datensatzes und der ImageNet Large Scale Visual Recognition Challenge anführen, die seit 2010 alljährlich als Wettbewerb durchgeführt wird. Dabei stütze ich mich auf einen wunderbaren Artikel von Dr. Emily Denton und ihren Kolleg:innen. Der Text beleuchtet die Geschichte von ImageNet und seine Bedeutung für den aktuellen Aufschwung der KI. ImageNet zeigte als erster großer öffentlicher KI-Datensatz, dass alte Techniken mit gewaltigen Datenmengen und Rechnern neue Dinge tun können.
ImageNet ist eine umfangreiche Sammlung von etwa 14 Millionen Bildern, die von Flickr, der Bildersuche und verschiedenen Webplattformen stammen und in etwa 20.000 Kategorien auf der Grundlage der WordNet-Taxonomie geordnet sind.
Die zufällig ausgewählten Bilder wurden nicht einfach so kategorisiert, sortiert und beschriftet. Und das Projekt scheiterte fast an der Frage, wie man eine riesige Sammlung von Zufallsbildern in einige allgemein akzeptierte Etiketten zwängen kann. FeiFei Li, der Leiterin von ImageNet, hat damals darüber nachgedacht, das Projekt einzustellen, nachdem ihr bewusst geworden sei, dass es wohl Jahre und erhebliche Mengen an Geld brauchen würde, um die Daten zu organisieren und zu labeln. Jia Deng, ein Mitarbeiter von ImageNet, schätzte, dass es 19 Jahre dauern würde, wenn nur Studierende diese Arbeit übernähmen.
Laut einem Interview, das ich 2017 mit Li führte, war es jedoch ein zufälliges Gespräch mit einem Studierenden auf dem Flur, das das weitere Schicksal bestimmte und die Arbeitspolitik von ImageNet neu ausrichtete. Irgendwann im Jahr 2005 oder 2006 erwähnte dieser Studierende gegenüber Li, dass Amazon vor kurzem eine „Crowd Work“-Plattform namens Amazon Mechanical Turk ins Leben gerufen hatte. Es sei möglich, das Beschriften der Bilder an die gering bezahlten Arbeiter:innen dieser Plattform auszulagern.
Genau das hat das ImageNet-Team getan. Es zerlegte den Datensatz in kleine Teile und entwarf einen Prozess, wonach jene „Labels“ akzeptiert wurden, die mehrere Amazon-Turk-Arbeiter:innen zuvor bestätigt hatten. So übernahmen schließlich 49.000 Arbeiter:innen aus 167 Ländern die Organisation und das Labeling der Daten.
Man kann also zurecht behaupten, dass es ImageNet und möglicherweise den darauf folgenden KI-Boom ohne die prekäre Akkordarbeit, die Amazon Turk vermittelt hat, heute nicht geben würde.
Menschliche Arbeit ist unausweichlich
Und obwohl diese Arbeiter:innen für das Projekt von existenzieller Bedeutung gewesen sind, werden sie Denton und ihren Mitautor:innen zufolge nirgends als Mitwirkende genannt. Und das, obwohl ihr Wissen und ihre Erkenntnisse erheblich dazu beitrugen, die ImageNet-Datenbank zu produzieren – und damit auch KI-Modelle, die mit dieser Datenbank trainiert werden.
Das überrascht nicht sonderlich, wenn wir ein wenig herauszoomen. Denn der Mythos der „intelligenten Maschine“ ist schwer aufrechtzuerhalten, wenn wir benennen würden, wo diese Intelligenz herkommt – nämlich von zehntausenden Arbeiter:innen und deren Fähigkeiten, mit dem sie Millionen von Bildern beschrifteten. Und auch die Bilder selbst wurden von nicht namentlich genannten Mitarbeiter:innen gemacht.
Dieses Beispiel könnte veraltet wirken. Es könnte den Eindruck erwecken, dass generative KI oder was auch immer nächstes Jahr der Trend sein wird, eine Fluchtgeschwindigkeit entwickelt hat, die stark genug ist, um menschliche Arbeitskraft überflüssig zu machen. Aber seien Sie versichert: Menschliche Arbeitskraft wird auch in Zukunft erforderlich sein.
Traumatisierende Tätigkeiten
Um ein weitere Beispiel zu nennen: Billy Perrigo von der Time hat aufgedeckt, dass OpenAI und GPT auf kenianische Arbeiter:innen angewiesen sind, die weniger als 2 Dollar pro Stunde verdienen.
Diese Mitarbeiter:innen mussten zehntausende Texte lesen und darauf überprüfen, ob sie düstere Beschreibungen von sexuellem Kindesmissbrauch, brutale Gewalt, Selbstmord, Folter oder Selbstverletzung enthalten. Es ist der Müll aus den verstörendsten Ecken des Internets, aus denen OpenAI einen Teil seiner Trainingsdaten für GPT bezieht.
Die Mitarbeiter sollten die entsprechenden Texte kennzeichnen, um GPT darüber zu informieren, wie unzulässige Daten aussehen. Auch diese Arbeit braucht es. Ohne diese Arbeiter:innen und die Traumata, die sie erleiden, gäbe es keinen Markt für GPT. Diese Systeme replizieren und spiegeln die Daten, auf die sie trainiert wurden. Das bedeutet, dass sie ohne Intervention häufig rassistische, verstörende und ekelerregende Inhalte ausspucken. Und nur wenn man Systemen wie GPT die Grenzen eines akzeptablen liberalen Diskurses beibringt, kann ein solches System als intelligent und nützlich vermarktet werden.
Die traumatische Art dieser Arbeit hat dazu geführt, dass mehrere Arbeiter:innen sich beschwerten und ernsthafte psychische Probleme bekamen. Schließlich kündigte die Firma, die OpenAI als Subunternehmer für diese Arbeit engagiert hatte, den Vertrag. Es lohnt sich, diesen Fall zu studieren. Erst kürzlich haben die Beschäftigten dieser und anderer Firmen in Afrika für die Gründung der African Content Moderators Union gestimmt. Sie wollen darauf aufmerksam machen, wie prekär und schädlich diese Arbeit ist.
Die extraktive Logik hinter der KI
Menschliche Wahrnehmung und menschliches Wissen fließen also in die Entwicklung von KI-Systemen ein. Große Unternehmen extrahieren dieses Wissen und die Erfahrung schlecht bezahlter Arbeiter:innen, die in der Regel im Globalen Süden leben. Deren Erkenntnisse werden dann entmenschlicht, repliziert und durch automatisierte Systeme neu zusammengesetzt, die sich dabei auf die Daten stützen, denen diese Arbeiter:innen erst Bedeutung verliehen haben.
Diese extraktive Logik spiegelt sich auch in der wahllosen Abschöpfung künstlerischer Arbeiten wider, die die Grundlage für generative Bildsysteme wie Midjourney und Dalle-E bilden. Die Vision und die künstlerischen Fähigkeiten von Millionen von Künstler:innen werden extrahiert und in die Maschine verlagert, ohne dass diese dafür Anerkennung erhalten.
Extraktive Logik bestimmt auch, wie KI-Systeme am Arbeitsplatz angewendet werden. Behauptungen über technologische Innovationen, übersteigerte Vorstellungen von deren Fähigkeiten und die Gebote der Arbeitgeber:innen verschmelzen in der Vorstellung, dass KI-Systeme die Arbeitnehmer:innen ersetzen können. Diese Behauptung trifft fast nie zu. Aber sie muss auch nicht einmal den Fakten entsprechen, um Auswirkungen zu haben.
Denn die Degradierung von Arbeiter:innen entsteht nicht durch Systeme, die tatsächlich in der Lage sind, diese zu ersetzen. Vielmehr entfalten sie bereits Wirkungen, wenn man die Menschen glauben lässt, dass solche Systeme Arbeiter:innen ersetzen können. Und indem man die Menschen, die mit den Systemen arbeiten müssen, als gering qualifiziert abstempelt und so eine geringe Bezahlung rechtfertigt.
Als Hoffnungsträger gegen diesen Trend möchte ich auf den Streik der Writers Guild of America verweisen. Ich betrachte diesen Streik als die vorderste Front im Kampf für eine sinnvolle und humane KI-Regulierung.
Die WGA ist die Gewerkschaft der Hollywood-Autor:innen und erinnert an die Kämpfe der Industriearbeiter:innen im Großbritannien des 18. und 19. Jahrhunderts, die für die Macht über ihren Arbeitsplatz und eine Beteiligung an den Gewinnen der Automatisierung kämpften. Sie streiken für ein Mitbestimmungsrecht, ob – und wenn ja, wie – KI in ihrem kreativen Prozess eingesetzt wird.
Die Autor:innen haben erkannt, dass KI nicht zu Kreativität befähigt ist. Allerdings kann die Technologie den Studios einen Vorwand dafür liefern, den Einfluss der Arbeitnehmer:innen und ihren Lebensunterhalt einzuschränken. Sie könnten beispielsweise Autor:innen entlassen und Sozialleistungen kürzen. Dieselben Leute würden dann wieder als „KI-Redakteur:innen“ eingestellt, wahrscheinlich über ein Gigwork-Modell, das geringere Stabilität, Sozialleistungen und Löhne bietet. Die Führungskräfte könnten dies den Aktionär:innen dann als kostensenkende Maßnahme verkünden.
Neuralink will die Menschheit reparieren
Wenden wir uns nun der Frage zu, wer die Welt definieren darf, in der wir leben. Eine Frage, für die sich auch KI-Unternehmen sehr interessieren.
Hierzu möchte ich Neuralink näher betrachten, Elon Musks Unternehmen, das KI-System und Menschen mithilfe von Gehirnimplantaten verknüpfen will. Die US-amerikanische Gesundheitsbehörde FDA hat vor Kurzem – aus welchen Gründen auch immer – dem Vorhaben, Chips in die Schädel von Menschen zu implantieren, offiziell die Genehmigung erteilt. Dies geschah trotz der Kritik, wonach Neuralink zahlreiche Affen, Schweine und Schafe verstümmele und töte, um seine Produkte im Vorfeld der FDA-Zulassung zu testen.
Nun entwickelt Neuralink Gehirnimplantate, die in den Schädel eingebettet werden, und Elektroden direkt ins Gehirn einführen sollen. Warum sollten wir das wollen? Elon Musk erklärt, dass der Mensch ohne sie der Übermacht der KI nicht gewachsen sei und wir zurückblieben: „Auf der Ebene der Spezies ist es wichtig herauszufinden, wie wir mit fortgeschrittener KI koexistieren und eine Art KI-Symbiose erreichen können.“ Neuralink verspricht, uns mit dieser Superintelligenz über „direkte, verzögerungsfreie Interaktionen zwischen unseren Gehirnen und externen Geräten“ zu vereinen. Die Mythologie der KI-Intelligenz – und ihrer Überlegenheit – ist das Fundament, mit dem diese invasive Technologie gerechtfertigt wird.
In einem Werbevideo aus dem Dezember 2020 behauptet Musk, dass Neuralink eine Vielzahl von Problemen lösen wird: „Die Realität ist, dass fast jeder Mensch im Laufe der Zeit Probleme mit dem Gehirn und der Wirbelsäule entwickelt“. Im Hintergrund des Videos sehen wir die Worte „Gedächtnisverlust, Hörverlust, Blindheit, Lähmung, Depression, Angst, Sucht, Schlaflosigkeit, Gehirnschäden“. Musk rühmt sich, dass: „ein implantierbares Gerät diese Probleme tatsächlich lösen kann.“
Hier präsentiert Musk eine Vision der Menschheit, in der die Zukunft besser ist, weil behinderte Menschen ausgelöscht sind. Sie werden „repariert“, indem man sie in eine normative Version eines nicht eingeschränkten Menschen verwandelt.
„Alles über uns ohne uns“
Wir sollten uns darüber im Klaren sein, dass dies eine eugenische Vision ist. Musk und Neuralink beanspruchen implizit das Recht für sich, zu definieren, was „normal“, „intelligent“ und „ideal“ ist.
Auf diese Weise kehren Neuralink – wie auch die vielen weniger invasiven KI-Systeme, die uns und unsere Welt beurteilen, vorhersagen und bewerten sollen – den Slogan der Behindertenrechte um: „Nichts über uns ohne uns.“ Neuralink baut stattdessen an etwas, das sich als das Gegenteil dessen beschreiben lässt: „Alles über uns ohne uns.“
Der Aktivist und Wissenschaftler Eli Clare betont in Reaktion darauf mit Verweis auf gehörlose Menschen: „Viele Gehörlose betrachten sich nicht als behindert, sondern als sprachliche Minderheit. Sie sehen den Grund für ihre Probleme nicht in ihrer Unfähigkeit zu hören, sondern in der mangelnden Bereitschaft der nicht gehörlosen Welt, die Gebärdensprache zu lernen und zu benutzen.“ Mit anderen Worten: Die Gehörlosengemeinschaft begrüßt keine Technologien, die in Clares Worten, „die Hoffnung der nicht-gehörlosen Welt mit sich bringen, sowohl die Gehörlosigkeit als Krankheit als auch das Gehörlosensein als Identität auszurotten.“
Anders ausgedrückt: Nicht jeder möchte der Version von Normalität entsprechen, die Elon Musk oder eine KI aufstellen. Und auch nicht jeder teilt diese beunruhigende Weltanschauung, die den Menschen als Problem und die Technologie der Konzerne als Lösung darstellt.
Sterblichkeit und Krankheit als lösbare Probleme
Der ehemalige Präsident von Neuralink, Max Hodak, beschreibt sich selbst auf seiner Website als „eine allgemeine Intelligenz, die in San Francisco lebt“. Er glaubt an Musks Fantasie einer Symbiose zwischen Mensch und KI und beschreibt Neuralink als „einen ungewöhnlichen Kniff“, der die Menschen in eine Art übermenschliche Spezies verwandeln könne. In einer Twitter-Umfrage aus dem Jahr 2021 fragte Hodak in Bezug auf die Versprechen von Neuralink: „Was hätte eine größere Auswirkung auf Sie: ein fotografisches Gedächtnis, eine ideale Aufmerksamkeitskontrolle, eine ideale emotionale Kontrolle oder die Kontrolle über das Tempo der Zeit?“
Hier sehen wir, wie eine allzu bekannte Perspektive auf körperliche Einschränkungen noch einen Schritt weiter vorangetrieben wird: Das medizinische Modell von Behinderung betrachtet den Wissenschaftlerinnen Sara Hendren und Mara Mills zufolge diese „als eine Beeinträchtigung, Krankheit oder Störung, die dem Individuum innewohnt“. Dieser Gedanke wird von Neuralink auf die unvollkommene Menschlichkeit als solche angewandt. Ja, nicht nur unsere körperlichen Bedürfnisse, sondern die Sterblichkeit selbst werden dabei als zu lösende Probleme betrachtet.
In dieser neoliberalen Betrachtungsweise wurzeln soziale Probleme darin, dass Individuen scheitern: Wir sind kaputt und bedürfen einer Reparatur. Und für das Problem, ein Mensch mit einem begrenzten Leben und Einschränkungen zu sein, verkauft Neuralink uns die „Lösung“. Damit beansprucht das Unternehmen das Recht, die Maßstäbe zu setzen, an denen unsere Menschlichkeit gemessen werden soll – und damit die Autorität, uns und unsere Welt zu definieren.
KI bestimmt schon jetzt darüber, wer Zugang zu Ressourcen erhält
Auch jenseits der Debatten um neuronale Technologie finden wir diese neoliberale Argumentation wieder, etwa mit Blick auf KI-Produkte in unserem Leben.
Denn Künstliche Intelligenz bestimmt schon jetzt darüber, wer Zugang zu Ressourcen und Chancen in ganz unterschiedlichen Bereichen erhält. Die Liste reicht vom Bildungswesen über die Strafjustiz, das Gesundheitswesen sowie Immobilien und Vermietungen bis hin zur Überwachung und der Beurteilung von Arbeitnehmern.
Und ganz gleich, was das Marketing auch verspricht: Diese Systeme werden von Unternehmen erstellt, die auf Profit und Wachstum abzielen. Und sie sollen Bedürftigkeitsprüfungen, Überwachung, Sparmaßnahmen und andere Formen der sozialen Kontrolle erleichtern. Die Nutzer dieser Systeme sind aber nicht die Menschen, die von diesen Systemen gerastert und bewertet werden. Zudem sind die Funktionen dieser Systeme nicht auf die Bedürfnisse der betroffenen Menschen eingerichtet.
Das ist auch der Grund, warum ich mich als Präsidentin der Signal Foundation dieser Entwicklung entgegenstelle. Die KI-Unternehmen wünschen sich eine Welt, in der sie die Privatsphäre, die Autonomie sowie die Fähigkeit zur Selbstdarstellung und Selbstbestimmung in ernste Gefahr bringen. Signal verteidigt diese von den Unternehmen bedrohten Werte.
Und natürlich sind jene Technologien, die wir KI nennen, grundsätzlich datenschutzfeindlich. Denn sie setzen es voraus, das technische Überwachungsmodell auszuweiten und zu verfestigen – indem sie immer mehr Daten erfassen und immer weitere Befugnisse für sich beanspruchen, um so unsere Welt mit Hilfe von KI-Systemen zu definieren.
Unsere Gedanken, unsere Psyche und unsere Körper?
Neuralink und andere kommerzielle KI-Systeme müssen wir in ebendiese Landschaft einordnen. Und wir müssen uns der Risiken gewahr werden, wenn in Zukunft eine Handvoll privater Unternehmen unser Leben, uns selbst sowie unsere Gefühle und Reaktionen vermessen will. Letztendlich wollen diese profitgetriebenen Unternehmen unsere Gedanken, unsere Psyche und unseren Körper besser interpretieren als wir es selbst vermögen.
Um sich darüber bewusst zu werden, wie folgenreich dies sein kann, genügt ein Blick zurück auf die 1960er Jahre. Damals kam es zu einem politischen Missbrauch der Psychiatrie. Jonathan Metzel hat dokumentiert, wie Änderungen am Diagnostischen und Statistischen Manual Psychischer Störungen (DSM) dazu führten, dass schwarze Bürgerrechtsführer:innen damals als „schizophren“ diagnostiziert wurden. Diese Diagnose beruhte weitgehend darauf, dass ihr Aktivismus pathologisiert wurde.
Oder richten wir den Blick auf das Jahr 1973. Bis dahin listete das DSM Homosexualität als psychische Störungen auf. Oder auf das Jahr 2012, als es noch Transsexualität als Krankheit auflistete. Viele Extremisten in den USA und im Vereinigten Königreich kämpfen derzeit mit allen Mitteln dafür, diesen Status wiederherzustellen.
KI und die epistemische Autorität
Lassen Sie mich eines klar sagen: Ich sehe keinerlei Beweise dafür, dass solche Technologien, die das Gehirn auslesen können, möglich sind oder dass etwaige Behauptungen stichhaltig wären. Ich möchte an dieser Stelle auf die Arbeiten von Luke Stark, Javon Hudson und anderen verweisen. Sie haben die Grenzen jener KI-Systeme aufgezeigt, die aktuell behaupten, die Emotionen, die Charakterzüge und die Fähigkeiten von Menschen „auslesen“ zu können.
Allerdings – und das ist der entscheidende Punkt in Bezug auf die epistemische Autorität – müssen diese Technologien nicht einmal funktionieren, wie behauptet wird, damit sie den Zielen der Unternehmen und Investoren zuträglich sind. Und wenn wir uns den aktuellen KI-Hype anschauen, dann erkennen wir das Bild von jener Zukunft, die die Unternehmen anstreben.
Der Fall Neuralink veranschaulicht deutlich, dass es den Willen gibt, die Welt bis in unser persönlichstes Inneres hinein zu gestalten. Unternehmen wollen sich die Fähigkeit der Menschen aneignen, ihre Gedanken, Gefühle und Wahrnehmungen frei zu äußern, ohne dass diese dabei von einem Computersystem gesteuert werden, dessen Perspektive immer die Ziele jener Unternehmen widerspiegelt, die diese Systeme produzieren und einsetzen.
Dem Hype entschieden entgegentreten
Eben das ist es auch, was der aktuelle Hype um das existenzielle Risiko der KI meiner Meinung nach erreichen soll: Zum einen soll er die Unausweichlichkeit und den Ausnahmecharakter dieser Technologie etablieren. Zum anderen soll der Hype von den unternehmerischen Zielen beim Einsatz der KI-Systeme ablenken. Gerade aus diesem Grund halte ich es für unerlässlich, dem Hype entschieden zu begegnen.
Es gibt keinerlei Beweise dafür, dass die KI an der Schwelle zur bösartigen Superintelligenz steht – oder jemals stehen wird. Francois Chollet ist Forscher auf dem Feld der Künstlichen Intelligenz und mitverantwortlich für eine der zentralen KI-Entwicklungsinfrastruktur. Er bringt es unverblümt auf den Punkt: „Um es klar zu sagen: Zum jetzigen Zeitpunkt und in absehbarer Zukunft gibt es kein KI-Modell und keine KI-Technik, die ein Aussterberisiko für die Menschheit darstellen könnte. Nicht in der Entstehungsphase und auch dann nicht, wenn man die Fähigkeiten durch Skalierungsgesetze in die ferne Zukunft extrapoliert.“
Allerdings ist es überaus fesselnd dieses existenzielle Risiko zu betonen – es erhöht das Adrenalin und schafft Ehrfurcht. Und es ist zugleich eine implizite Werbung für die KI-Systeme. Sie werden als besonders fähig dargestellt, gar als den Menschen überlegen. Noch einmal: Das muss nicht einmal der Wahrheit entsprechen, um die Welt zu beeinflussen.
KI-Mythen entlarven
Wie Sun-Ha Hong in seinem exzellenten Aufsatz Prediction as Extraction of Discretion feststellte, „übersteigen die sozialen Auswirkungen von Technologien […] in der Regel ihre tatsächlichen Fähigkeiten oder ihre Umsetzung“. Das ist möglich, weil die Geschichten über diese Technologien unser Verständnis darüber prägen, was möglich und was unvermeidlich ist. Und sie beeinflussen die Politik, unsere Gewohnheiten und unsere Werte.
Der von der Industrie vorangetriebene KI-Hype, der auf die Einführung der ChatGPT-Schnittstelle durch Microsoft im Januar folgte, trägt dazu bei. Er macht empirisch nicht fundierte Vorhersagen über die Fähigkeiten der KI und formt damit unsere Wahrnehmung dieser Technologie. Dies wiederum beeinflusst unser Handeln in der Gegenwart – mit Blick auf mögliche Regulierungen, auf die Art und Weise, wie diese Technologien entwickelt werden, und drauf, ob und wie Arbeitnehmer:innen geschützt werden.
Das ist auch einer der zentralen Gründe, warum die Unternehmen und ihre Verbündeten das existenzielle Risiko von KI geradezu herbeifantasieren. Sie hoffen offenbar, die öffentliche Meinung und politische Lösungsansätze auf die ferne Zukunft auszurichten, statt den Status quo zu regulieren.
Gerade deshalb ist es so wichtig, diese Erzählung der KI-Unternehmen zu korrigieren. Nicht nur weil wir in der Sache Recht haben wollen. Sondern weil wir unsere Entscheidungen auf einer realitätsnahen Grundlage treffen sollten. Es ist daher von entscheidender Bedeutung, dass wir die Geschichten über eine vermeintlich übermenschliche KI als das entlarven, was sie sind: Mythen.
Meredith Whittaker ist Präsidentin der Signal Foundation. Sie hat den Thinktank AI Now Institute mitgegründet und war Professorin an der New York University. Bis 2018 arbeitete sie bei Google, wo sie die Abteilung Google Open Research gründete. Sie protestierte gegen Googles Militärkooperation im Zusammenhang mit dem Project Maven und war eine der Hauptorganisatorinnen des Google Walkouts, bei denen Mitarbeiter:innen gegen sexuelle Belästigung und Diskriminierung innerhalb des Unternehmens protestierten.
Der vorliegende Text beruht auf der Rede, die Meredith Whittaker auf der re:publica 2023 gehalten hat.
Offenlegung: Die re:publica wurde von Markus Beckedahl mitgegründet; unser Kollege Ingo Dachwitz hat in diesem Jahr ehrenamtlich im Track-Team „Politik und Gesellschaft“ der Veranstaltung mitgewirkt.
Es werden viele – zumindest für mich – beunruhigende Themen angesprochen.
Wie kann ich mich vor den Beeinflußungen schützen und trotdzem das „Internet“ weiter nutzen?
Querverweis: https://www.spiegel.de/netzwelt/web/30-jahre-www-tim-berners-lee-sorgt-sich-um-seine-erfindung-a-1257392.html
>> akademischen Vergabe von Fördermitteln <<
Akademisch ist an der Vergabe nichts, und akademisch sind Fördermittel auch nicht.
Richtig hingegen ist: Fördermittel für Forschungsprojekte
Ich kann die Anmerkung als Korrekturhinweis verstehen, aber ich habe das dennoch im Text nicht korrigiert, denn ich denke, die Formulierung ist so verständlicher, denn es meint die Vergabe von Fördermitteln im akademischen Raum. Semantisch mag das ein Unterschied sein, ja, aber den Verbesserungsvorschlag empfinde ich nicht wirklich als besser.
s/als dieser Begriff erf[strong]i[/strong]nden wurde/als dieser Begriff erfunden wurde/
Danke, ist nun korrigiert.
Tja also, die technische Notwendigkeit im kapitalistischne Kontext, ist also dass du deines Anteils am Interaktionsraum beraubt wirst, was den Eigentumsaspekt im weiteren Sinne betrifft, wir also somit gewissermaßen ein „neue“ Form gefunden haben, von…
– Totalitärer Ausbeutung?
– Kommunismus?
– „Wir sind die Guten?“
>> … als gering qualifiziert abstempelt und so eine geringe Bezahlung rechtfertigt.
… als gering qualifiziert abstempelt, um so eine geringe Bezahlung rechtfertigen zu können.
Danke für den Hinweis, aber habe ich nicht korrigiert, da die jetzige Formulierung aus meiner Sicht okay ist.
Wer zu den konzeptionellen und begrifflichen Gründen des KI-Hypes weiterlesen mag, dem sei dieser Artikel ans Herz gelegt: The Language Labyrinth: Constructive Critique on the Terminology Used in the AI Discourse, a Chapter from the book: Verdegem, P. 2021. AI for Everyone?: Critical Perspectives, https://www.uwestminsterpress.co.uk/site/chapters/e/10.16997/book55.f/
Die Analysen von Meredith Whittaker sind immer eine Bereicherung, obwohl oder gerade weil sie viele dystopische Entwicklungen und Tendenzen der Digitalisierung des Kapitalismus aufzeigen.
Am Ende bleibt aber auch hier immer die zentrale Frage unbeantwortet im Raum: Was können wir eigentlich ganz konkret tun, wenn wir nicht wollen, dass die digitale Dystopie unsere Leben, unsere Individualität, unsere Gesellschaft und letztlich unsere Demokratie zerstört?
Einfach so auf irgendwelche Regulierungen zu vertrauen erscheint leider ungenügend. Ohne Regulierungen sind wir natürlich komplett der Macht einzelner Akteur*innen ausgesetzt, weshalb es sie braucht. Aber Regulierungen, wie sie beispielsweise die EU umsetzt, bedeuten in der Regel, dass bestimmte schlimme Entwicklungen dadurch erst legalisiert werden und dass zusätzlich zu den Tech-Konzernen auch autoritäre „Sicherheits“-Politiker*innen, EU-Kommissar*innen bzw. deren „Kompetenzzentren“ etc. ein Stück vom Kuchen abbekommen. Bürger- und Freiheitsrechte und demokratische Teilhabe geraten/bleiben damit weiterhin unter den Rädern.
>> Am Ende bleibt aber auch hier immer die zentrale Frage unbeantwortet im Raum: Was können wir eigentlich ganz konkret tun, wenn wir nicht wollen, dass die digitale Dystopie unsere Leben, unsere Individualität, unsere Gesellschaft und letztlich unsere Demokratie zerstört?
Wer ist denn „wir“ in einer fragmentierten und polarisierten Gesellschaft, die sich zu all dem auch noch einen aktuellen Kulturkampf leisten will?
Letztlich sind BürgerInnen, WählerInnen, VerbraucherInnen als verantwortlich handelndes Individuum gefragt, das bereit ist sich in einer persönlichen und nachhaltigen Suffizienz einzurichten.
Digitalisierung darf nicht als Selbstzweck betrieben werden, um Wachstum zu generieren. Digitalisierung ist nur sinnvoll, wenn damit ein Netto-Nutzen erzielt werden kann. Mit klimaneutralen Rechenzentren würde auch die Überwachung einen gehörigen Dämpfer bekommen. Und man kann sich entscheiden, Produkte zu nutzen, die keine oder kaum Überwachung ermöglichen. Und man kann sich Werbung vollständig entziehen.
Sehr gute Beleuchtung in vielen Aspekten. Den Anreißer teile ich allerdings nicht.
Das Konzept Super-KI ist vielleicht nicht Immanent, aber nicht dadurch vom Tisch, dass man keine Anzeichen sieht. Zumindest sind wir an der Schwelle dazu, Systeme machen zu lassen, die wir nicht vollständig verstehen. Das gibt gewissen Grund zur Sorge. Hier sollte man trennen zwischen CEO Nr. 12 und Wissenschaftlern, die warnen.
Zudem gibt es bereits KI-basierte Systeme, z.B. bei Social Media intern, deren negative Auswirkungen wir nicht verstehen, oder die „wir“ aus Profitgier geheimhalten. An der Copyrightfrage und „fair use“ sieht man ja schon, dass hier diktiert werden soll, wo es langgeht. Das sollte aus Prinzip an die Wand gepappt werden. Die Warnung vor Folgen von Jobverlust ist auch real, denn warum sollen wir Sachen aufgeben, die wir gerne tun, und für die wir keine KI von Gnaden Konzern 123 brauchen? Ich vermische den Aspekt aus jenem Papier mal mit dem strategischen Monopolproblem. Eine Welt, abhängig von der doch so fernen Wolke… Opiumkrieg voraus?
Hier drohen allerlei nicht nachhaltige Entwicklungen, weil es 1. gerade sowieso alles knapp wird, 2. die Konkurrenz sich international verschärft und 3. wir vermutlich menschliche Arbeit vorschnell ersetzen werden, auf Basis von „billiger, nicht besser“ und 4. wir tatsächlich Fähigkeiten verlieren könnten, wenn wir nicht verstehen, wie Systeme gebaut sind, diese aber weite Verbreitung finden. Am Ende gehen die Systeme ein, stagnieren oder man hat keine Trainingsdaten mehr, dann bleiben wir auf Grundschulniveau.
Wir brauchen kein europäisches Google, wir brauchen eine trackingfreie und funktionierende Suchmaschine, aber mehr noch Forschung und offene Modelle, mittels derer wir jederzeit in der Lage sind von Nichts aus wieder Anwendungen zu bauen, die uns besser machen. Langfristig hat China mehr Arbeiter und mehr KI. Also mehr billige Cloudplastikschaufeln?
Ich empfehle die englische Wikipedia-Seite zum Thema existenzielles Risiko durch künstliche Intelligenz. Und konkret den Perspektiven-Teil (https://en.wikipedia.org/wiki/Existential_risk_from_artificial_general_intelligence#Perspectives). Dort werden viele unterschiedliche Sichtweisen zitiert. Das kann dabei helfen, sich selbst in diese Fragestellungen einzulesen.
Dort wird meiner Ansicht nach deutlich: Es gibt bisher keine eindeutige Position unter Forschenden in Bezug auf existenzielles Risiko durch künstliche Intelligenz. Es handelt sich jedoch weder um eine Nischenposition noch einzig und allein um eine Hype-Position, die von Big Tech transportiert wird, um von deren eigentlichen Interessen abzulenken. Sehr wahrscheinlich spielt ein Gewinnmaximierungsinteresse in Meinungsäußerungen hinein, aber es ist nicht der einzige und auch nicht bei jedem der wahrscheinlichste Grund für solche Äußerungen.
Ich denke dennoch, dass die Keynote von Frau Whittaker einige sehr wichtige Punkte anspricht, gerade in Bezug auf die Machtverteilung und wie damit umgegangen werden sollte. Oder dass Künstliche Intelligenz (so wie Menschen auch) nicht von Äußerlichkeiten auf Charakterzüge schließen kann, da äußere Informationen eben nicht ausreichen.
„von Äußerlichkeiten auf Charakterzüge schließen“
Gerade mit KI ist das sehr interessant, wenn Menschen z.B. in der Lage sind, sich zu
ändern, aber einer sich ständig an eine „gemachte Vergangenheit“ rückgekoppelt sehen. Da ändere man sich mal frei…
Meiner Meinung nach ein Grund, das Zeug so weit wie möglich aus allem Alltäglichen rauszuhalten (betrifft Vorschläge, Einschätzungen etc.). Stattdessen KI, die ad-hoc auf Basis meiner Vorgaben justieren und unterstützen kann, wobei ich kontrolliere ob und wenn ja welche Historie mit einfließen soll.
„Ebenso wenig sind die Funktionen dieser Systeme nicht auf die Bedürfnisse der betroffenen Menschen eingerichtet.“
Das ’nicht‘ müsste da weg, oder?
Danke für den Hinweis, ist korrigiert
Es wertet den Artikel stark ab, dass er in der Mitte, wo es um Neuralink und die Frage nach der Heilung/Beseitigung von Defiziten wie Gehörlosigkeit geht, in Spekulationen abdriftet. die üblicherweise aus der esoterischen Szene bekannt sind. Die Unterstellung, dass eine Heilung für Gehörlosigkeit nicht etwa eine medizinische Errungenschaft, sondern eine Anmaßung totalitär denkender gieriger Konzerne sei, ließe sich nahtlos auf Antibiotika oder Impfungen übertragen. Auch in diesen Kreisen wird der Versuch, Gebrechen oder Krankheiten zu heilen oder zu verhindern, als übergriffiger Akt einer gierigen Industrie gesehen, die uns alle als krank deklarieren will, um Profite zu machen. Das Feindbild Großkonzern, gerne gewürzt mit dem auch im Artikel als Kampfbegriff großzügig verwendeten „Neoliberalismus“, ist aus diesen esoterischen Kreisen wohlbekannt und berüchtigt. Ein wesentlicher Unterschied zwischen der Heilung von Corona oder der Heilung von Taubheit, die durchaus ebenfalls krankheitsbedingt sein kann (z.B. durch eine Röteln-Infektion), ist für mich nicht erkennbar.
Schade, denn der Artikel spricht an sich viele wichtige Punkte an, auch und gerade die Überschätzung der Fähigkeiten der KI. Aber der Mittelteil nimmt ihm viel an Glaubwürdigkeit. Hinzu kommt, dass die Spekulationen über die Absichten der Großkonzerne eben genau das sind: unbelegte Spekulationen, vorgetragen als selbstverständliches Wissen. Mag sein, dass es einen Teil der Leserschaft gibt, für die die Triggerworte „Großkonzern“ und „neoliberal“ bereits Argument genug sind, um jede noch so böswillige Absicht sofort als gegeben anzunehmen, aber sachlich fundiert ist das nicht.
Ganz meiner Meinung. Danke für deinen Kommentar. Wenn ich gehörlos bin, will ich wieder hören können. Ich will mir nicht vorschreiben lassen, dass ich gehörlos zu bleiben habe und mich gefälligst damit abfinden soll. Wie grausam ist das denn?
„Das „Neue“ an der KI in den frühen 2010er-Jahren waren nicht Innovationen beim maschinellen Lernen.“
Da würden einige widersprechen. Die Lösung des https://en.wikipedia.org/wiki/Vanishing_gradient_problem durch Activation functions wie ReLU war ausschlaggebend, um das Training neuronaler Netze mit vielen Schichten (Deep Learning) überhaupt zu ermöglichen.
Wäre es nicht ganz entscheidend, zur ‚Programmierung‘ von menschlicher oder künstlicher oder jeglicher Intelligenz, erstmal über grundlegendste (wissenschaftliche) Maßstäbe für Verantwortlichkeit nach-zu-denken:
* vernünftig die Folgen im Ganzen zu bedenken und das aufs Ganze gesehen Sinnvolle anzustreben… (vgl. „Postconventional Level“ in der Entwicklungs-Psychologie…);
* statt Diskussion darüber, ob Gehörlose ihr Nicht-Hören anstelle einer Behinderung eher als Element bunterer Vielfalt verstehen möchten, mehr darüber zu diskutieren, ob Menschen Nein sagen dürfen, wenn von ihnen verlangt wird, (herrschaftliche) Steuer-Ruder in unverantwortliche Hände zu geben… (— wie sieht das aus bei den Staaten? wo wird Menschen das Recht zugestanden, vor Anerkennung einer Herrschaft erstmal richtig gefragt zu werden und mit globalen Verantwortungs-Gründen überzeugt zu werden – und sonst Nein sagen zu können?…)
Wenn über die Bedeutung und Maßstäbe von Verantwortlichkeit gar nicht richtig reflektiert wird, wie gut kann der Missbrauch von KI (oder allem anderen) für militärische oder Profit-Zwecke oder Schaffung eines China-Kontroll-Systems vermieden werden?…
Zitat aus der Bibel: „Ihr siebt Mücken aus, und schluckt Kamele…“