Gedankenkontrolle, Transhumanismus, Superintelligenzen: Das ist eigentlich der Stoff aus Science-Fiction-Romanen und Verschwörungserzählungen. Und doch haben diese Zukunftsvorstellungen mehr mit unserer gegenwärtigen Welt gemein, als wir ahnen. Denn einflussreiche Unternehmer aus der Tech-Branche arbeiten daran, die damit verbundenen Ideologien zum Mainstream zu machen.
Auf der re:publica 25 schlugen Aline Blankertz und Rainer Mühlhoff in ihrem Vortrag „Digitaler Faschismus: Wie KI-Ideologie die Demokratie untergräbt und wie wir sie verteidigen können“ den großen Bogen von Tech-Ideologien über akademische KI-Philosophie bis zum faschistoiden Potenzial der Alt-Right-Bewegung, die Donald Trumps Politik bestimmt.
Ihr Fazit: Faschistische KI-Ideologien schleichen sich zunehmend in den Mainstream ein. Deswegen sollten wir wachsam verfolgen, wo sie bereits wirksam werden und welches Ziel sie verfolgen. Und wir sollten die Tech-Konzerne, insbesondere die KI-Branche, weitaus strenger regulieren und so ihren Einfluss auf Politik und Gesellschaft begrenzen.
Wie lässt sich Faschismus frühzeitig erkennen?
Aline Blankertz ist Tech Economy Lead beim Verein Rebalance Now, Rainer Mühlhoff lehrt als Professor für Ethik und Kritische Theorien der KI an der Universität Osnabrück. Beide verstehen Faschismus als „Lust an Gewalt als politischem Mittel“, um Rechtsstaat und Demokratie zu zerstören. Dabei spiele KI eine zentrale Rolle, denn sie bestimme die öffentliche Debatte um technologischen Fortschritt. Und die Branche verstehe es, KI als Lösung für gesamtgesellschaftliche Probleme zu vermarkten.
KI-Technologie führe nicht zwangsläufig zu digitalem Faschismus, so Blankertz und Mühlhoff. Doch die Logik, die KI als „Menschensortier-Technologie“ zugrundeliegt, sei mit menschenverachtenden, antidemokratischen und faschistischen Haltungen kompatibel. Schon heute entscheiden KI-Systeme etwa an den EU-Außengrenzen über das Schicksal von Migrant*innen. Wer KI also unkritisch als Meilenstein des technologischen Fortschritts verkaufe, spiele damit jenen in die Hände, die diese Technologie als politisches Machtinstrument betrachten.
Der CEO-Staat
Die radikalste Form der Alt-Right-Bewegung sehen Blankertz und Mühlhoff im politischen Spektrum des Dark Enlightenment, zu Deutsch: die dunkle Aufklärung. Ihre Anhänger*innen wollen Errungenschaften der politischen Moderne rückgängig machen. Das bedeutet etwa, Rechtsstaat, Demokratie und die Gleichheit vor dem Gesetz abzuschaffen.
Der Informatiker Curtis Yarvin und der Philosoph Nick Land würden darin einen Ausweg aus ihrem „Frust mit der Demokratie“ sehen, die ins „Menschheitsverderbnis“ führe. Ihr Ziel sei die Rückkehr zur Monarchie, an deren Spitze aber kein*e Erbkönig*in, sondern ein CEO stehen soll, der den Staat wie ein privatwirtschaftliches Unternehmen führt. In dieser Staatsform soll es dann keinen demokratischen Souverän mehr geben, sondern nur noch Kunden. Ihr Recht besteht dann nurmehr darin, das Land zu verlassen, wenn sie mit der Staatsführung durch den CEO unzufrieden sind. Die Vision: Staaten sollen global wie Wirtschaftsunternehmen miteinander konkurrieren.
Einfluss gewinne die Ideologie des Dark Enlightenment auch durch Prominente aus dem Silicon Valley, so Blankertz und Mühlhoff. Unter ihnen ist der Tech-Milliardär und Palantir-Mitgründer Peter Thiel. Yarvins Philosophie stützten Thiels libertäre Ansichten und dessen Kampf gegen die Demokratie. Bereits in einem 2009 veröffentlichten Essay hält Thiel Freiheit und Demokratie für „nicht miteinander kompatibel“. Der Unternehmer gilt als Förderer von US-Vizepräsident J. D. Vance und verfügt so mutmaßlich über eine direkte Verbindung ins Weiße Haus.
Die Wurzeln des digitalen Faschismus
Die rechte Alt-Right-Bewegung in den USA verschmelze mit der Ideologie des Dark Enlightment und verwandten Philosophien mit faschistoiden Wurzeln. Dazu würden laut Blankertz und Mühlhoff unter anderem der Transhumanismus zählen. Der Ideologie zufolge sollten Menschen danach streben, ihre Schwächen mittels Technologie zu überwinden. Die Theorie stammt vom Evolutionsbiologen Julian Huxley aus den 1950er Jahren. Huxley gilt als einer der prominentesten Vertreter der Eugenik des vergangenen Jahrhunderts. Der Philosoph Nick Bostrom habe den Transhumanismus wieder populär gemacht, so Blankertz und Mühlhoff in ihrem Vortrag.
Darüber hinaus übe die Strömung des Effektiven Altruismus (EA) aus Oxford großen Einfluss in der Tech-Welt aus. Sie beschreibt eine Ethik, wonach Menschen nicht nur Gutes tun sollen, sondern ihre Mittel dazu möglichst effektiv und effizient einsetzen sollten. So müssten sie etwa nicht automatisch Menschen in akuter Not helfen, sondern könnten stattdessen gezielt begabte Menschen fördern, die dann später im Leben Großes bewirken.
Eine Weiterentwicklung des Effektiven Altruismus besteht laut Blankertz und Mühlhoff im sogenannten Longtermismus. Der Begriff steht für eine philosophische Theorie, die das Leben der Menschen in einer weit entfernten Zukunft ethisch als ebenso bedeutsam einschätzt wie das der derzeit lebenden Generationen.
Die Ideen des Longterminismus würden sich auch in den Debatten um sogenannte Künstliche Intelligenz wiederfinden. Ihre Vertreter*innen gehen davon aus, dass es in Zukunft eine Superintelligenz geben kann. Sie könnte die Menschheit dann entweder existenziell bedrohen oder ihr das Paradies auf Erden bescheren. Weil nur das Letztere anzustreben sei, sollten wir Systeme Künstlicher Intelligenz schon heute in Entscheidungsprozesse über den Fortlauf unserer Gesellschaft einbeziehen, so die Forderung der Longtermisten.
In Europa angekommen
Solche Debatten finden längst nicht nur in den Vereinigten Staaten, sondern mehr und mehr auch in Europa statt, wie Aline Blankertz und Rainer Mühlhoff auf der re:publica zeigten. So hat die EA-Bewegung einen eigenen gemeinnützigen Verein in Deutschland, der sich klar zum Longtermismus bekennt.
Außerdem seien sie unter anderem an den Universitäten Osnabrück, Mannheim oder Aachen mit eigenen Angeboten für Studierende vertreten. An mindestens zwei Unis könnten Studierende sich den Besuch entsprechender Veranstaltungen als Leistung für ihr Studium anrechnen lassen.
Auch sei das Future of Life Institute in Europa aktiv. Die Einrichtung steht der EA-Bewegung nahe und setzt sich laut Website für eine Technologie ein, die allen Menschen nutzt und existenzielle Risiken minimiert. Das Institut lädt regelmäßig Mitglieder der EU-Kommission oder des EU-Parlaments ein. Es werde unter anderem vom Unternehmer Elon Musk gefördert, so Blankertz und Mühlhoff. Und auch Vitalik Buterin, Softwareentwickler und Erfinder der Kryptowährung Ether, zähle zu den Unterstützer*innen.
Zwar halten KI-Forscher*innen wie Timnit Gebru eine Super-KI für ausgeschlossen. Doch einflussreiche Tech-Unternehmer wie Sam Altman vermarkten das KI-Narrativ von der Artificial General Intelligence (AGI) mit Erfolg, also eine allgemeine KI, deren kognitive Fähigkeiten dem menschlichen Gehirn entsprechen. In der longtermistischen Philosophie ist die AGI eine Stufe vor der Superintelligenz.
Für mehr KI-Regulierung
Das Rennen um die AGI lässt auch in Europa die Sorge anwachsen, nicht mit der technologischen Entwicklung mithalten zu können. So führte etwa der EU-Politiker Axel Voss (CDU) auf der re:publica ein Streitgespräch mit dem ehemaligen Bundesdatenschutzbeauftragten Ulrich Kelber über Regulierung im KI-Zeitalter. Voss äußerte die Sorge vor Überregulierung: „Wollen wir den digitalen Fortschritt oder wollen wir ihn nicht?“ Dabei sagt Voss auch, dass KI nicht Entscheidungen über Menschen fällen darf.
Blankertz und Mühlhoff plädierten in ihrem Vortrag für eine strenge KI-Regulierung. Außerdem müssten wir dem Glauben widerstehen, dass wir der Technologie ausgeliefert seien. KI mit dem Ziel zu entwickeln um damit gesellschaftliche Disruption zu verfolgen – wie es Altman, Musk oder Thiel tun -, nütze am ehesten den mächtigen Unternehmern und letztlich auch den Faschist*innen. Als Gesellschaft sollten wir uns stattdessen die Frage stellen, welche Form der KI wir wollen. Keinesfalls aber dürften wir diese Entscheidung den KI-Unternehmen überlassen.
An dieser Stelle kann ich auch nur den kurzweiligen Vortrag zum Longtermismus von Max Franz Johann Schnetker auf dem letzten CCC empfehlen, der das Thema finde ich sehr gut umreißt: https://media.ccc.de/v/38c3-longtermismus-der-geist-des-digitalen-kapitalismus
(Der Artikel zu Schnetkes Vortrag ist im Text oben verlinkt.)
1. KI-Technologie und Faschismus gleichzusetzen ignoriert, dass KI auch für demokratische Zwecke (Medizin, Bildung) genutzt wird.
2. Nicht alle Tech-CEOs oder Transhumanisten vertreten autoritäre Ideen (z. B. Open-Source-Bewegung).
3. Heutige KI-Unternehmen sind keine staatlichen Akteure mit Vernichtungsabsicht.
4. Viele KI-Kritiker wie Timnit Gebru, AlgorithmWatch) sind aus linken und progressiven Kreisen.
5. Die Behauptung, „Existential Risk“-Debatten seien nur Ablenkung, unterschlägt, dass KI-Sicherheit auch von Demokraten diskutiert wird.
6. Die Behauptung, effektiver Altruismus sei eine „Trojaner-Pferd“-Ideologie für Eugenik, passt nicht dazu, dass typische Maßnahmen der Eugenik wie staatliche Eingriffe und Zwangssterilisationen nicht mit dem Effektiven Altruismus vereinbar sind.
7. Wer Elon Musk für seine 13 Kinder als Eugeniker bezeichnet, kann froh sein, dass Musk nicht hier in Deutschland wohnt, wo diese Behauptung mindestens eine üble Nachrede wäre.
8. Der Vortrag stellt KI als ein faschistisches Werkzeug dar und gleichzeitig wird darin gefordert, sie nicht zu „hypen“ – aber ohne klare Alternative.
Argumente zur Widerlegung
9. KI ist politisch neutral. Die Systeme reflektieren die Werte ihrer Entwickler und Faschismus entsteht nicht durch Technologie allein, sondern durch politische Macht
10. Der Fakt framed den Begriff „Transhumanismus“ faktenwidrig als „rechts“, obwohl viele Transhumanisten feministisch oder links geprägt sind. Außerdem thematisieren auch Gewerkschaften und NGOs die soziale Ungleichheit durch KI.
TL;DR: Der Vortrag bedient (von den Rednern unbemerkt) das Vorurteil, dass es in den soft sciences zu sehr um Ideologie und zuwenig um Wissenschaft gehe.
Danke, diese Punkte haben genau die Qualität, die dem Artikel völlig abgeht.
„…KI-Technologie und Faschismus gleichzusetzen“
Das geschieht nicht. Im Text wird zitiert: „KI-Technologie führe nicht zwangsläufig zu digitalem Faschismus“
Ähnlich ist es mit den meisten der von dir erwähnten Punkten. Man kann nicht von Einzelfällen auf eine Allgemeinheit schließen. Z.B im Text steht „In dieser Staatsform soll es dann keinen demokratischen Souverän mehr geben, sondern nur noch Kunden.“. Das ist die Agenda der meisten Unternehmen (in denen ich arbeitete). Natürlich wollen die Unternehmen die Demokratie in der Regel nicht abschaffen. Doch deren primäres Ziel ist es, Geld zu verdienen. Alles wird dem Untergeordnet und muss dem untergeordnet werden, um nicht pleite zu gehen.
Aus meiner Sicht ist – rein mathematisch betrachtet – die Stärke von KI die Diskriminierung. Das macht es zu einem gefährlichen Werkzeug für die, die zu eigenem Machterhalt und Vorteil diskriminieren. Der zu einfache Glaube an die KI, an Superintelligenz und „Fortschritt“ ist ohne den logischen und mathematischen Hintergrund das Mittel der Manipulation. Eine KI-Regierung wäre fürchterlich, eine KI-gestütze Regierung bedeutete in der Tat Faschismus (warum? Sorry, kein Platz hier)
Es ist nicht so einfach. Doch ich meine, der Argumentation von Blankertz und Mühlhoff halbwegs folgen zu können. Wenigstens ist darüber nachzudenken. Es geht nicht um Wissenschaft. Es geht um Macht.
> Natürlich wollen die Unternehmen die Demokratie in der Regel nicht abschaffen. Doch deren primäres Ziel ist es, Geld zu verdienen. Alles wird dem Untergeordnet und muss dem untergeordnet werden, um nicht pleite zu gehen.
Mag ja sein, dass Unternehmen primär an Profit interessiert sind. Doch ihre Handlungen, wie die Entwicklung und der Einsatz von KI, können unbeabsichtigt oder absichtlich antidemokratische Tendenzen verstärken. Die Konzentration von Macht in den Händen weniger Unternehmen, die über Algorithmen entscheiden, welche unser Leben beeinflussen, untergräbt demokratische Prinzipien. Die Aussage, Unternehmen würden die Demokratie nicht abschaffen wollen, ist irrelevant, solange sie es durch ihre Handlungen indirekt tun.
> Das macht es zu einem gefährlichen Werkzeug für die, die zu eigenem Machterhalt und Vorteil diskriminieren.
Technologie ist neutral und Faschismus entsteht nicht durch Algorithmen, sondern durch politische Systeme. Die NS-Bürokratie nutzte keine KI, sondern Propaganda und Bürokratie. Zudem heißt das Ziel von (Tech-)Unternehmen nicht Macht, sondern Marktanteile. Dasselbe galt für Auto- oder Pharmakonzerne, deren Regulierung auch nicht zum Faschismus geführt hat.
KI kann genauso missbraucht werden wie jede Technologie, aber sie ist nicht zwangsläufig ein Werkzeug des Faschismus. Und Regulierung ist notwendig – aber nicht, weil KI böse ist, sondern weil Menschen Verantwortung brauchen.
> Es geht nicht um Wissenschaft. Es geht um Macht.
KI-Entwicklung basiert auf Mathematik und Informatik und folgt wissenschaftlichen Methoden und keiner „Machtlogik“. Außerdem ignoriert diese Aussage, dass gerade wissenschaftliche Transparenz (z.B. Open-Source-Modelle, Peer-Review) Machtmissbrauch verhindern kann.
Ja, ja, neutral. Es geht darum, welchen Einschlag das Lenkrad kriegt, wenn man die neutrale Technologie einfach mal so auskippt.
„wenn man die neutrale Technologie einfach mal so auskippt.“
Gutes Bild: „Mit beiden Händen bei der Sache…“
> KI-Entwicklung basiert auf Mathematik und Informatik und folgt wissenschaftlichen Methoden und keiner „Machtlogik“.
Also für Forschung an deutschen Universitäten kann das z.T. schon dann nicht mehr hinkommen, wenn Drittmittel entscheidend sind bzw. wären. (Fiktives Beispiel.)
OpenAI (Realer Gegenbeweis, 360).
An der Art und Weise, wie die Machwerke von OpenAI gestrickt sind, ist ALLES Machtlogik. Schnittstellen- und Systemdesign, Training im Billiglohnland, Verträge zur Verwendung, not actually open, etc. p.p. Da muss man schon naiv sein.
Gegenposition betrifft internationale Forschung. Ja klar, zu Teilen. Aber schon bei den nicht so gehypten Anwendungen ist man schnell im proprietären Zirkel drinnen.
Auch dass die „Techkonzerne“ da an vorderster Front sind, bedingt sich wodurch? Warum nicht Sony Ericson, oder Toyota? Was ist daran Tech? Richtig, Macht. Steuervergünstigung, und geopolitischer Vorteil gegenüber Verbündeten, Dysfunktion der Märkte. 360 that is.
Man kann sowieso momentan gespannt sein, wie die ganze KI-Thematik weitergeht, gerade im Hinblick auf OpenAI und ihrem Streit mit der New York Times bzw der Forderung sämtliche Chatverkäufe dauerhaft zu speichern, auch wenn der Nutzer auf löschen gedrückt hat.
https://openai.com/index/response-to-nyt-data-demands/
bzw
https://www.theverge.com/news/681280/openai-storing-deleted-chats-nyt-lawsuit
u.a.
Wahrscheinlich läuft da Politikern und Strafverfolgern schon das Wasser im Mund zusammen, haben sie doch endlich noch eine neue Form der VDS gefunden…
Beispiel für „wie“:
https://www.tagesschau.de/wirtschaft/verbraucher/ki-geldanlage-boerse-100.html
‚Künstliche Intelligenz und Geld KI für die eigenen Finanzen nutzen?
Künstliche Intelligenz verändert den Alltag und die Arbeit. Auch in die Finanzwelt hat KI längst Einzug gehalten. Soll man ihr vertrauen, wenn es um die private Geldanlage geht? Von Andreas Braun. mehr‘
Also im Artikel geht es um tatsächlich auf Finanz spezialisierte Systeme, aber der Anreißer zeigt, was schiefgeht: Es wird einfach „Hurra/vielleicht KI“ rausgehauen, und dabei der Datenaspekt völlig ausgeklammert. „Ist ja klar!“, nee nee. Frag mal zuerst: „Würdest Du Wildfremden all deine Finanzdaten in den Rachen schütten, wenn du weißt, dass diese oder das darin enthaltene bzw. damit konstruierbare Wissen verkauf und gegen dich eingesetzt werden?“
Bei Tools „für Endkunden“ oder „für Berater“ muss bedacht werden, wo der Haken ist. Man bekommt nicht plötzlich die Kronjuwelen „jetzt mit KI“ ausgehändigt. Eher umgekehrt!
Natürlich können spezialisierte Systeme, und in Grenzen auch allgemeine LLMs, u.a. beim Screening und Sammeln von Informationen hilfreich sein. Risiken bestehen u.a. bei Korrektheit, sowie bei Konformität („Alle lesen den Artikel über die 10 interessantesten BLA im Economist“), Blinde Flecken etc. p.p. Im Vergleich zu nichts, kann es allerdings ein großer Sprung sein. Doch auch da werden womöglich vergiftete Daten bestehen. Man muss wohl davon ausgehen, dass die allgemein verfügbaren Tools von den professionellen Händlern bzw. den großen Verwaltern antizipiert und gegebebenenfalls bespielt werden. Nicht alle schlafen immer.
KI-Übersetzung in der Masse (Youtube/auto) ist allerdings eine klare Sache: Scheiße
Toll wäre sie, wenn sie korrekt wäre, und zwar bei Sprachen, die ich nicht kann. Real, sinds zu oft 180°, Überschriften ganz schlimm.
Typisch ist die Hudelei mit Sachen wie…
– Aufzählung was „KI“ schon alles kann. Macht. (Denkt?)
– Verweis auf „was alles“ KI wohl dann etwas später sicherlich alles und wirklich ALLES können wird.
– Verweis darauf, dass die KI später sicherlich viel besser sein wird. Nicht etwa kommerzieller, süchtigmachender, oder jobwegnehmender.
– Eingeständnis, dass es jetzt eigentlich in vielen Bereichen noch unklug wäre, auf Korrektheit zu vertrauen. (Hier meißt LLMs, aber nicht nur.)
Es ist ja ein weites Feld, irgendwas mit KI. Vielleicht kann man sagen, dass wenn es (zu groß) draufsteht und nicht für Experten gedacht ist, es wahrscheinlich irgendeine Form von Abzocke darstellt?
Sowas, vielleicht…
„Beispiel für „wie“:
https://www.tagesschau.de/wirtschaft/verbraucher/ki-geldanlage-boerse-100.html
‚Künstliche Intelligenz und Geld KI für die eigenen Finanzen nutzen?“
Generell stimme ich da zu, mein Zweifel bezog sich allerdings auf die ewige Speicherung der Daten (am Bsp von Openai).
Wer erzählt denn bitte einer KI etwas über seine eigenen Finanzen, wenn er (jetzt am Beispiel von Chatgpt) davon ausgehen muss, dass dieser Gesprächsverlauf bis in alle Ewigkeit auf einem System gespeichert wird?!
Vor diesem Streit wusste man: Der Verlauf wird irgendwann gelöscht.
Mit ewiger Speicherung… kann der Chat im Zweifelsfall auch 20 Jahre danach gegen einen verwendet werden.
Da muss man schon richtig blöd sein, um so einem System etwas über seine eigenen Finanzen zu erzählen
Ja, es ist eben leider nicht ganz wie vorhergesagt. Denn…
– Die gesellschaftliche Singularität kommt vor der KI-Singularität.
– Die Datenapokalypse kommt vor der KI-Apokalypse.
Ich hoffe das verwässert es nicht zu sehr. „Im Namen von KI“ werden offensichtlich Datenkreuzzüge geführt…
„Mit ewiger Speicherung… kann der Chat im Zweifelsfall auch 20 Jahre danach gegen einen verwendet werden.“
Vgl. Judenregister. Same thing, just technically.
Nachtrag zu meinem Kommentar 14. Juni 2025 um 08:49 Uhr
Und das gilt natürlich auch für alle anderen kritischen Themen sowie für Dateiuploads (je nachdem, was in der Datei drinsteht)
Guter Artikel!
Letztendlich sind wir nicht Technologien ausgeliefert, sondern den Akteuren, die darüber verfügen. Das sind gerade bei der Digitalisierung große Konzerne, autoritäre oder zumindest un- oder postdemokratische Entitäten wie z.B. die Trump-Regierung der USA, das autokratische System Chinas oder das neoliberale postdemokratische System der Europäische Union.
Regulierungen können hierbei ein zweischneidiges Schwert sein, wenn sie Macht zwar irgendwie eingrenzen könnten, andererseits diese Macht aber erst bestimmten Akteuren gewähren und verfestigen. Und es reicht keineswegs, nur die Technologie bzw. deren Nutzung zu regulieren. Es müssen schon die strukturellen und systemischen Ursachen, die deren antidemokratische und autoritäre Nutzung erst bedingen, behoben werden. Denn Regulierungen lassen sich auch wieder aufheben und zum Schlechte(re)n verändern, was Axel Voss sicherlich bald im Bezug auf die DSGVO mit Freuden bestätigen wird.
(Will meinen: die minderwertige Qualität über die Menschen zu kippen und zu hypen, „DAS ist Faschismus!“)
In „die Logik, die KI als „Menschensortier-Technologie“ zugrundeliegt“ mit den Anführungszeichen um Menschensortier-Technologie haarscharf an der Selektionsrampe in Auschwitz vorbeigeschrammt. Unfassbar, diese Geschichtsvergessenheit!
Oder ist genau das intendiert und war es dann der Verfasserin einfach ein bissl zu offensichtlich, diese Holocaust-Relativierung ohne Anführungszeichen …?
Leute, ihr verharmlost damit den historischen Faschismus, auch den in der dt. Ausprägung des Nationalsozialismus, wenn ihr solche Sprachkeulen benutzt. Geht bitte mal in euch!
Moment!
Historischer Faschismus verharmlost? Was ist mit dem heutigen, morgigen?
Das ist eine klare Linie, die der Artikel da zeichnet. Harmlos ist daran real und jetzt: nichts.
Auschwitzkeulen verwässern die Analyse. Es IST genau das: Menschensortieren. So wie Datenschutz den Schutz von Menschen zum Ziel hat.
Die Anführungszeichen sind vielleicht deplatziert, aber offensichtlich nicht in Auschwitz. Die Ähnlichkeiten sind immanent vorhanden, und sollten nicht ignoriert werden. Auschwitz ist ein Teil der Krone jenes „historischen Faschismus“, das Fundament aber bilden immer wieder Ausgrenzung und Sortierung.