Bullshit-BustersEindringliche Warnung vor der „Ultra-Hyperpower-Bummkrachpeng-Future-KI-6.000“

Das meistgehypte Technologie-Thema des Jahres ist eine siedend heiße, sprudelnde Bullshit-Quelle. Sogenannte „Künstliche Intelligenz“ benebelt die mächtigsten Köpfe der Welt. Wir halten dagegen und brauchen dafür Eure Spenden.

Who you gonna call? Bullshit-Busters! Wir räumen auf mit Mythen, Lügen und falschen Versprechungen. Tagein, tagaus bekämpfen wir den Bullshit der digitalen Welt. Und wir kämpfen für Eure Grund- und Freiheitsrechte. In den kommenden Wochen berichten wir Euch in kurzen Beiträgen, welchen Bullshit wir dieses Jahr aufgedeckt und bekämpft haben. Im Folgenden schildert Sebastian, wie er gegen den Mythos einer gefährlich-intelligenten „KI“ kämpft.

Endlich bricht die Science-Fiction-Zukunft an, auf die uns Star Wars, Star Trek und The Terminator all die Jahrzehnte lang vorbereitet haben. ChatGPT ist nur die Spitze des Eisbergs. Jeden Tag erscheinen Dutzende neue gehirnwegpustende KI-Anwendungen, die zuerst Deine Produktivität ins Unermessliche steigern und Dich danach in einen Zustand unendlicher Glückseligkeit versetzen. Spring jetzt auf den Hype-Zug auf, sonst wirst Du vom rasenden Fortschritt zermalmt!

So – oder so ähnlich – ist der Sound des KI-Hypes, der seit der Veröffentlichung von ChatGPT durch Wirtschaft, Politik und Medien dröhnt. Tech-Konzerne lassen Milliarden fließen, Staaten liefern sich ein Wettrennen um die schnellste KI-Regulierung, Medienmacher*innen befeuern den Hype mit eigens eingerichteten KI-Newslettern und Podcasts, und vermeintliche Fachleute schreiben den Weltuntergang herbei.

Zocken gegen den Bullshit

Als leidenschaftlicher Star-Trek-Gucker habe ich ja ein Herz für solche Erzählungen. Aber nur solange man unterscheiden kann, was Fiktion und was Realität ist. Das Hype-Theater um moderne Chatbots lenkt von den realen Gefahren durch KI-Systeme ab – und genau das dürfte im Interesse jener Tech-Milliardäre sein, die gerade mit ihren neuen Diensten um Marktmacht ringen.

Diese drei Bullshit-Mythen rund um sogenannte KI gehören gründlich „gebustet“:

  • Mythos #1: „Künstliche Intelligenz“ – Okay, einige von Euch werden sich jetzt vielleicht denken, hier hat sich Sebastian wohl vertippt. Da fehlen doch Wörter! Aber nein: Der bloße Begriff „Künstliche Intelligenz“ ist schon Bullshit. Bereits 1955 setzte ihn ein Forscher als Marketing-Trick zur Selbst-Profilierung ein. Seitdem ist „KI“ ein Label, um Leute zu beeindrucken. Es beschreibt vor allem Rechenprogramme, an die wir uns noch nicht gewöhnt haben. Oder wer würde es heute noch als „KI“ bezeichnen, wenn man eine Textnotiz nicht ins Handy tippt, sondern kurz per Spracherkennung diktiert? Im Jahr 2017 ging das als KI durch. Auch der gehypte Text-Generator ChatGPT ist ein Rechenprogramm: Er berechnet Worte auf Grundlage von Wahrscheinlichkeiten. Wie Autocomplete, nur viel besser. Die Software hat aber kein Bewusstsein und erst recht keine Seele. Und ob sie Intelligenz hat, hängt sehr von der Definition ab – auf jeden Fall ist es nicht die Intelligenz von Data, C3PO oder HAL 9000, die wir aus der Popkultur kennen. Die Bullshittigkeit hinter dem Begriff würde uns wohl mehr ins Auge springen, wenn wir statt „KI“ konsequent Hokus-Pokus-Fidibus-Denkomat sagen. Oder eben Ultra-Hyperpower-Bummkrachpeng-Future-KI-6.000.
  • Mythos #2: „KI ist gefährlich.“ Das ist so irreführend, dass es Bullshit in Reinform ist. Denn Technologie ist nur so gefährlich wie die Menschen, die sie einsetzen. Und hier gibt es tatsächlich Grund zur Sorge. Zum Beispiel, wenn Staaten mit asylfeindlicher Politik per Gesichtserkennung an der Grenze Menschen aussortieren, denen sie keinen Schutz gewähren wollen. Oder wenn Angehörige einer weißen, männlichen, ableisierten Mehrheitsgesellschaft ein KI-System entscheiden lassen, welche Job-Bewerbung in die engere Auswahl kommt. Oder wenn Autopiloten bewaffnete Drohnen steuern, bevor sie angebliche Feinde in die Luft sprengen. Alarmistische Berichte darüber, wie GPT-4 versucht, ein Captcha zu lösen, muten dagegen eher wie Produktwerbung an. Und Warnungen vorm vermeintlichen Weltuntergang durch KI sind vor allem heiße Luft mit Marketing-Effekt. Leider dominieren solche Berichte die Schlagzeilen. Viel wichtiger ist die unangenehme Frage, wie KI-Systeme schon jetzt im Kontext von Machtverhältnissen entwickelt und eingesetzt werden.
  • Mythos #3: „Die Gefahren von KI können wir technisch lösen.“ Auch Bullshit. Das Thema KI lädt dazu ein, soziale Probleme zuerst technologisch zu beschreiben und dann auch noch technologisch lösen zu wollen. Ja, Bildgeneratoren wie Midjourney sind auch Werkzeuge für Desinformation – und das ist vor allem ein Problem der Medienkompetenz. Ja, durch Text-Generatoren wie ChatGPT lässt sich so manche menschliche Arbeit auch von der Maschine erledigen – und das ist vor allem ein Problem der fairen Verteilung von Geld. Ja, Gesichtserkennung durch die Polizei kann unter anderem People of Color benachteiligen – und das ist vor allem ein Problem von Rassismus. Solche Probleme lassen sich mit technischen Audits, Transparenz-Berichten oder virtuellen Wasserzeichen allenfalls eindämmen. An der Wurzel packen lassen sie sich aber nur mit dem unermüdlichen Engagement für Grund- und Menschenrechte. Dafür setzen wir uns bei netzpolitik.org ein.

Eure Spenden machen unsere Arbeit bei netzpolitik.org erst möglich. Unterstütze jetzt unseren Einsatz für digitale Freiheitsrechte.

Dieser Artikel ist Teil unserer diesjährigen Spendenkampagne Bullshit-Busters.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

3 Ergänzungen

  1. >>> Mythos #2: „KI ist gefährlich.“ Das ist so irreführend, dass es Bullshit in Reinform ist. Denn Technologie ist nur so gefährlich wie die Menschen, die sie einsetzen.

    Hi Buster – gilt das auch für Schusswaffen und Nukleartechnologie?
    Gesellschafltich ist leider immer noch die erste Frage: „Was passiert, wenn wir es JETZT über DIESER Gesellschaft auskippen?“

  2. Weil Du Star Trek & Co erwähnst: Ich habe gerade erst „Transcendence“ gesehen, der Film ist aus heutiger Perspektive sehr interessant (auch wenn er technisch natürlich abstruser Quatsch ist)- nicht nur, weil Musk einmal eingeblendet wird. Der Film versucht mit seinem Ende quasi, eff. Altruism und eff. Acc. zu versöhnen, indem es die böse gewordene KI (die Menschen bspw. heilt, aber auch zu „Drohnen“ macht) als wohlwollend, aber etwas zu überambitioniert darstellt.

  3. Zusammengefasst heißt das doch nur
    #1 Das „Intelligenz“ muss man streichen, übrig bleibt „Künstlich“. Nicht neu!
    #2 Nicht KI ist gefährlich – sondern Machtmenschen. Bekannt!
    #3 Soziale u.a. Menschenprobleme durch Technik lösen wollen. Übliche Nebelkerze!

    NICHTS davon ist neu, nicht mal die Methode des Versprechens das durch KI als neuen Problemlösungs-Gottheit lösen zu wollen. Das ist als ob sich ein Präsidentschaftskandidat hinstellt und schreit „Gebt mir die Macht, ich löse alle eure Probleme“. Da weiß man auch nicht ob er danach ein Durchgeknallter Diktator wird oder… gibt es da wirklich alternativen?

    Und eigentlich sollten ALLE Menschen endlich mal verinnerlichen das nichts umsonst ist und man sich keine Illusionen machen sollte über irgendwelche Versprechungen.
    Ist etwas umsonst zahlt jemand anderes und der will auch was, z.b. deine Daten. Ist es zu schön um wahr zu sein dann ist es gelogen. Das Problem ist nicht jemandem Macht zu geben, sondern seinen Gebrauch zu kontrollieren und sie ihm wieder zu nehmen (siehe Trump, Kapitol). Aber Geld fließt heutzutage nach oben, die Sche*** aber weiterhin nach unten. Diesen „Fluß“ sollte man vielleicht mal als erstes umkehren. Das würde m.E. die anderen Probleme auch positiv beeinflussen. WIR ALLE hätten diese Macht, durch eine bewusste Wahlentscheidung die nicht auf lügen rein fällt. Es fehlt nur… ein Kandidat der Evidenzbasiertes Handeln „anbietet“. :-/

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Bitte keine reinen Meinungsbeiträge! Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.