Elon Musk ist wohl so etwas wie der bekannteste Polit-Influencer. Er hat massiv Geld in den Wahlkampf für Donald Trump gepumpt. Millionenfach wurde in den Sozialen Medien sein Auftritt auf der Wahlkampfbühne geteilt: Musk im Sprung, das T-Shirt hochgerutscht und auf dem Kopf ein schwarzes Cappy mit der Aufschrift „Make America Great Again“, kurz MAGA.
Doch Amerika groß machen, das reicht dem Tech-Milliardär nicht. Musk ging weiter und bekannte sich offen zu „Dark MAGA“. Damit spielt er auf eine demokratiefeindliche Strömung der Alt-Right-Bewegung in den USA an, die sich „Dark Enlightenment“ nennt, also „Dunkle Aufklärung“. Sie ist wiederum eine Form des Longtermismus, einer rechten Ideologie, die unter einflussreichen Tech-Unternehmern der neue Goldstandard geworden ist .
Längst beschränkt sie nicht mehr auf das Silicon Valley, sondern streckt ihre Fühler aus in die Weltpolitik. Was hinter der gefährlichen Ideologie des langfristigen Denkens steckt, analysierte auf dem 38. Chaos Communication Congress in Hamburg der Soziologe Max Schnetker in einem Talk mit dem Titel „Longtermismus – der „Geist“ des digitalen Kapitalismus“.
Opium fürs Volk
Elon Musk bildet zusammen mit anderen Tech-Baronen die Elite, für die der Longtermismus gemacht ist. Auch Branchengrößen wie Skype-Gründer Jaan Tallinn und Investor Marc Andreesen gehören zu den Anhängern. Außerdem Peter Thiel, der Gründer des Bezahldienstes Paypal und der Polizei-Software Palantir.
Von außen sieht es so aus, als wollten sie gravierende Probleme der Menschheit angehen, etwa mit der Charity-Organisation Giving What You Can, die sich ursprünglich auf die Fahne geschrieben hatte, Armut in der Welt zu bekämpfen. Hinter dem Longtermismus steckt jedoch eine Art säkulare Religion, die ihre Anhängerschaft den gesellschaftlichen Machtfantasien der Elon Musks und Peter Thiels dieser Welt gefügig machen will.
Max Schnetker von der Universität Bonn zufolge ist das erste Ziel des Longtermismus die Etablierung einer Kastengesellschaft, in der manche Menschen einen Wert haben und andere nicht. Der Wert des Menschen bemesse sich dabei am gesellschaftlichen Stand, am finanziellen Vermögen und Bildungsstand. Eine Ideologie der Ungleichheit, die die Herrschaft von Eliten legitimiert.
Es sei deshalb wenig überraschend, dass Elon Musk Werbung für die rechtsextreme Partei AfD macht. Die Welt am Sonntag ließ ihn hierzu kürzlich zu Wort kommen. Musks Urteil: Die AfD sei der letzte Funke Hoffnung für Deutschland.
Elite-Unis als Geburtsstätten für KI-Religion
In seinem Vortrag lieferte Schnetker einen Rundumblick über die Entstehung des Longtermismus und verwandter rechter Ideologien. Kritiker:innen wie Timnit Gebru und Èmile P. Torres fassen die Strömungen mit dem Kürzel TESCREAL zusammen, zusammengesetzt aus den Anfangsbuchstaben von Theorien wie Transhumanismus und effektiver Altruismus.
Dabei handelt es sich keinesfalls um akademische Randerscheinungen, sondern um gut positionierte philosophische Theorien, die eigene Institute an Top-Universitäten wie Cambridge und Oxford haben. Führende Denker sind Philosophen Nick Bostrom, Peter Singer und William MacAskill von einer der bekanntesten Organisationen, dem Future of Humanity Institute an der Universität Oxford.
Ihre Mission ist es, Forschung dort zu konzentrieren, wo sie langfristig den größten positiven Einfluss auf die Menschheit haben kann. Und den größten Nutzen verspricht ihnen zufolge die Entwicklung von Technologie wie generativer Künstlicher Intelligenz. Der absurde Schluss des Longtermismus: Wir müssen jetzt alles opfern für das künftige Techno-Paradies, in dem eine wohlwollende Superintelligenz der Menschheit das beste Leben auf Erden beschert.
Die grundlegenden Annahmen dieser KI-Religion sind laut Schnetker folgende: Das menschliche Gehirn und gegenwärtige generative KI sind sich im Wesentlichen gleich, weswegen es nur eine Frage der Zeit ist, bis es eine AGI gibt, eine Artificial General Intelligenz. Also eine allgemeine KI, die so viel kann wie das menschliche Gehirn. Daraufhin werde es wiederum nur eine Frage der Zeit sein, bis es eine Superintelligenz gibt, die die menschliche Intelligenz in allem übertrifft.
Longtermisten rechnen damit, dass AGI und Superintelligenz die Welt übernehmen. Das sei der Zustand der Singularität, so Schnetker. Damit dieser möglichst positiv für die Menschheit ist, müsste diese jetzt alles dafür tun, KI positiv zu gestalten. In ferner Zukunft sollen Menschen dann als Computerprogramme im KI-Himmel weiterleben können.
„Awareness schaffen“
Um dieses Ziel zu erreichen, fokussieren die Longtermisten laut Schnetker fiktionale Menschen in der Zukunft. Dafür nivellierten sie allerdings die Bedürfnisse und Interessen fast aller realen Menschen in der Gegenwart. Daneben hebelten sie die Kritik am digitalen Kapitalismus aus, die sich in Regulierungsmaßnahmen wie der KI-Verordnung der EU niederschlage. Um die Mär vom endlosen Wachstum aufrechtzuerhalten, erweiterten Longtermisten den Raum des Handelns weit in die Zukunft.
Die Gefahr liegt auf der Hand: Menschen, die sich vom Longtermismus überzeugen lassen und das Ziel eines KI-Himmels vor Augen haben, lassen sich auch leicht davon überzeugen, extreme Maßnahmen zu ergreifen oder zu akzeptieren, die dabei helfen sollen, das Techno-Paradies herbeizuführen.
Doch wie gegen den zunehmenden Einfluss des Longtermismus vorgehen? Darauf habe er keine Antwort, so Schnetker. Das Wichtigste sei Bewusstsein dafür zu schaffen, welche extremen Auswüchse die Ideologie in Politik und Gesellschaft annimmt – und wie sie schon jetzt daran beteiligt ist, rechte Bewegungen salonfähig zu machen.
Afrika verhungert… Afrika hat Krankheiten und keine passenden Impfungen…
Aber sch… drauf … auf CO2 und die tägliche Energie von ca. 1 Milion… Pro „KI“ wohl gemerkt.
Ich habe mir den Vortrag von Schnetker in Ruhe angeschaut und fand die Gedankengänge okay. Ich fand seine Unterteilung zwischen Menschen, die philosophisch darüber nachdenken und Menschen, die sich lediglich als Teil der Bewegung sehen, wichtig. Leider ist seine Argumentation teilweise sehr lückenhaft, da er nur ein einziges Zitat von Denker*innen des Longtermismus aufgreift. Und dieses Zitat repräsentiert auch keine starke Position (weder im Text von Backstead, noch bei anderen der Vertreter*innen). Ansonsten stellt er zwar Quellenangaben an der rechten Seite seiner Präsentation zur Verfügung, geht aber bis auf die genannte auf keine der Quellen direkt ein. Das führt dazu, dass der Vortrag viele Behauptungen aufstellt, die er nicht klar belegt. Bei mir ist dadurch eher das Gefühl entstanden, dass Schnetker Probleme mit bestimmten Zukunftsvorstellungen hat und diesen den Namen Longtermismus gibt, obwohl diese eher nichts miteinander zu tun haben.
Ich würde mich auch darüber freuen, wenn für einige der Aussagen in diesem Text einfach mal Quellen auf Originaltexte angegeben werden könnten. Wo behaupten Leute wie Nick Bostrom oder William MacAskill diese Dinge? Leider kann ich nicht alle ergänzen. Aber hier ein Beispiel: „Der absurde Schluss des Longtermismus: Wir müssen jetzt alles opfern für das künftige Techno-Paradies, in dem eine wohlwollende Superintelligenz der Menschheit das beste Leben auf Erden beschert.“
Kritik hilft nur, wenn diese Kritik gerechtfertigt ist. Kritikern zuzuhören, ist nur sinnvoll, wenn die Kritik ernsthaft auf das reagiert, was gefordert wird. Wenn Kritik jedoch etwas anspricht, was nicht behauptet wird, wird sie unangemessen. Wer ernsthafte Kritik haben möchte, sollte sich beispielsweise eher noch die englische Wikipedia zu dem Thema anschauen.
Ich vermute, hier wurden Handlungen und Äußerungen von Leuten mit der (losen?) Idee des Longtermism vermischt.
Was auch immer Longtermism ist, gibt es definitiv seriöse Ansätze, die langfristige Existenz (der Menschheit bzw. einer Zivilisation) als Konzept haben, z.B. meinen. Hier wird allerdings nichts geopfert, weil irgendwo in der Ferne etwas zu glimmern scheint. Resourcen der Wissenschaft darauf zu verwenden, ergäbe allerdings Sinn. Auf meins, nicht auf jenen Schweinekram, den die Tech-Bros da zu verzapfen scheinen. Hier geht in gewisser Weise um Transzendenz bzw. die Frage, ob wir uns gewissermaßen auf die Unendlichkeit ausrichten müssen, um überhaupt eine Gesellschaft haben zu können, vgl. manche Religion (!). Keine Abkürzungen mit ein bischen mehr Autokratie, weil es irgendjemandem gefällt, sondern prinzipale gesellschaftliche Entwicklung. Was glauben dahergelaufene Halunken, was in den Tiefen des Weltalls zählt? Dass es ein Overlord durch multiplen Genozid dorthin geschafft hat? Eine tolle Waffe? Herrscher über irgendwas zu sein?
Wobei Dienlichkeit und Wert des Menschen zu bemessen schon ein bischen auch so ein Ausschlusskriterium darstellen könnte. Die Menschheit so nützlich wie möglich für die Super-KI machen, damit sie nicht ausgelöscht wird – großartig.
Jetzt käme also quasi noch mal Monotheismus, mein Monotheismus, dein Monotheismus, …, …, …, Sticks and Stones Bro!
Ich schätze nicht ein, ob Argumentation oder Diligenz bei dem Vortrag an jeder Stelle hinreichend vorhanden sind. Ideen wie „heutiges Unternehmen sorgt in XYZ (sehr große Zahl) für ganz toll Gesellschaft“ ist immer so eine Sache. Orientierung an Kapitalismus oder „Geldanhäufung“ ist in diesem Kontext im Grunde so wie Wetter und Klima zu vertauschen – kein Wunder!
Alle Denker*innen von Longtermismus und Effective Altruism (EA) in die Schublade einer rechten, von universitären und superreichen Eliten religiös geführten, der Singularität entgegen-strebenden KI-Ideologie zusammen zu kehren wirkt schon fast verschwörungstheoretisch. Ich bezieh mich hier explizit auf diesen Artikel, nicht den Talk. Wer sich auf Seiten von EA-Organisationen wie 80000 Hours umschaut sieht schnell, dass es dort neben dem Thema „Preventing an AI-related catastrophe“ (klingt deutlich anders als im Artikel) noch viele andere Themen gibt. Von einem wahnhaften Wunsch die Gegenwart für eine zukünftige KI-Superintelligenz zu opfern finde ich da nichts.
Fragen. Werden Longtermismus, oder dessen lustigste Freunde (libertäre Milliardäre und Techchefs?) schlecht dargestellt, oder z.B. unberechtigt in einen Topf geworfen.
80000 hours scheint vom Konzept her weichklingender, Longtermism wird propagiert und die Spenderliste… bekannte Gesichter. Longtermism ohne die Gesichter, kommt etwas neutraler daher (Wikipedia) als beschrieben. Demgemäß wären die derzeitigen Aufrufe zu „tue jetzt [dies und das]“ vermutlich Blasphemie und die Techfritzen wären falsche Priester.
Das Problem dabei ist ein bischen die Frage, ob Longterm-ISM als -ISM gemeint ist, also als fanatisierende Ideologie, oder als ernsthafte philosophische Betrachtung, und im letzteren Falle, warum sie nicht schon anders attributiert ist, denn die Gedanken haben sich die alten Griechen sicherlich auch schon gemacht, nur ohne Götter. Oder jedenfalls auch mit und ohne Götter, und auch ohne KI. Und dann kommt die entscheidende Frage, ob Longtermism in der begrifflichen Form doch eher nur von Techbros und (libertär orientierten) Milliardären am Leben gehalten wird. Bzw. erfüllt wird. Wird Longtermism also gekapert, oder sind die Kritikpositionen zum großen Teil Absonderungen exzentrischer Spinner vom Rande, oder was ist hier eigentlich los?
Ich sehe den Vortrag vom CCC eher als eine Beschreibung der Zusammenhänge. Das Muster, ein paar Spinner am Rande die interessanten Ideen brüllen zu lassen, kennen wir ja aus der Parteienpolitik nur zu gut.
Gerade bei 80000 hours sieht man an der Kritik an der Idee „follow your passion“, dass hier möglicherweise genau das versucht wird, was der Vortragende behauptet: Man baut sich eine Ideologie, die das eigene Handeln [und Erfahrungen] positiv erscheinen lassen. Was auch immer das wiederum heißen soll, so fehlt es nicht an eindimensionalen ansätzen, deren einer kritisiert wird. Gurkenkram!
> „Preventing an AI-related catastrophe“ (klingt deutlich anders als im Artikel)
Frage ist, ob die wesentlichen Verfechter vielleicht doch ihre eigenen Ideen promoten (KI jetzt, auf eure Kosten!), während Longtermism im Grunde genommen ein Aufhänger bleibt. Also letztlich doch nur sowas wie Philantropie unter Milliardären?
Greifen die Kritiker nur die extremsten Positionen heraus? So wie es bei Religionen früher üblich war? Oder ist das Programm? Fehlt da eine Abgrenzung, oder wäre es anmaßend, die wesentlichen Treiber, aber so vorhanden auch geistigen Träger, um Klarstellung und gegebenenfalls Abgrenzung zu bitten? Nicht dass wir noch feststellen, man bediente sich hier nur lose-assoziativ irgenwelcher Sachen, um den eigenen Vorteil zu mehren.
Für diese Diskussion sollte man (und der Artikel?) die Substanz von Longtermism klären. Steht das ernsthaft für sich, oder sind wir in einer Art Findungsphase?
Und Gott schuf eine Welt, in der…
– Tech Bros und deren Überbleibsel in ein Gefahrstoffdepot eingesetzt werden.
– Wesen nach ihren Handlungen bewertet werden.
Also, äh, wenn eine Super-KI Raum-Zeit manupulieren kann, und zwar möglichst direkt, dann… wofür Untertan heucheln?
Wenn nicht, ist sie kein Gott. Vielleicht ein Angreifer oder ein armes traumatisiertes Wesen, das irgendwelche Skrupellosen Spinner zu einer Gelddruckmaschine bauen wollten.
Kein Wunder, diese Gottesfurcht. Mit dem Personal wird es so oder so in einer Katastrophe für Lebewesen aller Art münden.