Elon Musk sorgte in den letzten Monaten für Schlagzeilen, weil er als Chef von Twitter die Plattform grundlegend umkrempelt. Weniger bekannt ist, dass er Organisationen finanziell unterstützt, die es sich zur Aufgabe machen, gegen eine angeblich die Menschheit bedrohende Künstliche Intelligenz anzukämpfen.
Das Future of Life Institute lässt sich von Musk auch beraten. Medial sorgte das Institut mit einem Offenen Brief für Aufsehen, in dem es vor der zerstörerischen Kraft einer möglichen Superintelligenz warnte und eine Pause bei der Entwicklung neuer KI-Modelle forderte.
Eine andere Organisation, die sich über Gelder von Musk freuen durfte, ist das Future of Humanity Institute. Dabei handelt es sich um ein interdisziplinäres Forschungszentrum der Universität Oxford. Direktor ist der einflussreiche schwedische Philosoph Nick Bostrom. Er ist ein führender Vertreter des Longtermismus (im Englischen „Longtermism“), einer Spielart des Effektiven Altruismus. Beide Denkschulen fordern, die Forschung dort zu konzentrieren, wo sie langfristig den größten positiven Einfluss auf die Menschheit haben kann.
Eine menschenfeindliche Ideologie
Was zunächst einleuchtend klingen mag, sorgt allerdings für massive Kritik. Welche Ideologie hinter dem Effektiven Altruismus und Longtermismus steckt, erklärt uns im Interview Émile P. Torres, derzeit Doktorand:in an der Leibniz Universität Hannover und auf Twitter als @xriskology unterwegs.
Einst hat Torres selbst für das Future of Life Institute geschrieben und war Forschungsassistenz von Ray Kurzweil, Futurist und Leiter der technischen Entwicklung (Director of Engineering) bei Google. Er ist Erfinder des Singularitätsprinzip, das mit dem Longtermismus verwandt ist. Bald erscheint Torres‘ Buch „Human Extinction: A History of the Science and Ethics of Annihilation“ im Routledge Verlag. Darin nimmt Torres unter anderem den Longtermismus kritisch ins Visier und erklärt die Vorstellungen dahinter.
netzpolitik.org: Vielleicht kannst du zunächst erklären, was Effektiver Altruismus (EA) ist. Wenn ich es richtig verstanden habe, ist Longtermismus aus dieser philosophischen Theorie hervorgegangen.
Émile P. Torres: Effektiver Altruismus ist eine Art kulturelle und intellektuelle Bewegung, die in den späten 2000er Jahren entstanden ist. Das zentrale Ziel von EA ist es, so viel Gutes wie möglich zu tun. Die Wurzeln liegen in den Arbeiten des Philosophen Peter Singer. Ich erinnere mich an einen Artikel aus dem Jahr 1972 mit dem Titel „Famine, Affluence, and Morality“. In diesem Artikel argumentiert er, dass man ein Altruist sein sollte. Ein erheblicher Teil unseres verfügbaren Einkommens sollte dafür verwendet werden, Menschen zu helfen, die vielleicht sehr weit weg sind, auf der anderen Seite der Welt. Die Tatsache, dass eine gewisse physische Distanz zwischen uns und ihnen besteht, sollte moralisch nicht relevant sein.
Eine Frage schließt sich dann an: Wenn man Singers Argumenten folgt, dass wir Altruisten werden sollten, wie sollte man die eigenen endlichen Ressourcen nutzen, um den altruistischen Effekt zu maximieren? Vor EA bedeutete Philanthropie größtenteils, verschiedene Zwecke aus emotionalen Gründen zu verfolgen. Michael J. Fox zum Beispiel gründete als Betroffener das Parkinson-Forschungsinstitut. Oder Leute spenden Geld für einen bestimmten Teil der Welt, der von einer Naturkatastrophe heimgesucht wurde, weil sie familiäre Bindungen dahin haben.
Das Besondere an EA ist, zumindest nach der Meinung der Anhänger:innen, dass sie versuchen, vernunft- und evidenzbasiert die besten Wege zu finden, um einer möglichst großen Zahl von Menschen zu helfen. Dieser Ansatz, der auf den ersten Blick überzeugend klingen mag, birgt eine ganze Reihe erheblicher Probleme.
„Giving What You Can“
Die erste EA-Organisation wurde offiziell im Jahr 2009 gegründet und hieß „Giving What We Can“. Und ihr anfänglicher Fokus lag darauf, die weltweite Armut zu bekämpfen. Sie akzeptierten Singers global ansetzende Ethik und versuchten dann, mit einer Art strenger wissenschaftlicher Methodik herauszufinden, welche Wohltätigkeitsorganisationen die meisten Menschenleben retten können. Nach ihrer Auffassung war das das Originelle an ihrem Ansatz.
netzpolitik.org: Wann ist der Longtermismus entstanden?
Torres: In den frühen 2010er Jahren. Da gab es einige Leute, die der EA-Philosophie anhingen und dann die Arbeit von Nick Bostrom und einigen anderen entdeckten. Sie lasen insbesondere Bostroms Artikel aus dem Jahr 2003 mit dem Titel „Astronomical Waste“. Darin vertritt er die These, dass unsere Abstammung, der Homo sapiens und seine Nachkommen, im Universum für einen extrem langen Zeitraum überleben könnten. Wir könnten also noch etwa eine Milliarde Jahre auf diesem Raumschiff Erde leben. Zum Vergleich: Den Homo sapiens gibt es seit etwa 300.000 Jahren, also ein Bruchteil einer Milliarde. Die Zivilisation gibt es seit 6.000 Jahren oder so. Das ist eine wirklich enorme Zeitspanne in unserer Zukunft, die die Zeit, die die Zivilisation bisher existiert hat, in den Schatten stellt.
Aber natürlich können wir laut Bostrom die Zerstörung unseres Planeten durch die Sonne in einer Milliarde Jahren vermeiden, wenn wir den Weltraum besiedeln. Dann können wir viel länger leben, vielleicht 10 hoch 40 Jahre, das ist eine Eins mit 40 Nullen. Das ist eine wirklich lange Zeitspanne. Vielleicht könnten wir sogar noch viel länger existieren, 10 hoch 100 Jahre, bis dann irgendwann der Hitzetod eintreten soll. Außerdem könnten wir nicht nur für diese enorme Zeitspanne in der zeitlichen Dimension existieren, auch das Universum ist wirklich riesig.
Ein Universum voller Menschen
netzpolitik.org: Das bedeutet, dass es sehr viele Menschen geben würde. Über wie viele Menschen sprechen wir hier?
Torres: Die erste mir bekannte Schätzung, wie viele Menschen es in Zukunft auf der Erde geben könnte, stammt von dem Kosmologen Carl Sagan. Er war der Moderator der Fernsehsendung „Cosmos“ und in den 1970er und 1980er Jahren sehr bekannt.
Er schätzte 1983, dass es in Zukunft 500 Billionen Menschen geben würde. Die Voraussetzungen: Der Homo sapiens lebt so lang wie die durchschnittliche Säugetierart, wobei er von zehn Millionen Jahren ausging. Die Weltbevölkerung bleibt konstant, die zu diesem Zeitpunkt bei circa 4 Milliarden lag. Und die Einzelnen werden 100 Jahre alt. Bislang wurde geschätzt, dass es 117 Milliarden Angehörige unserer Spezies geben wird. Das bedeutet, dass die zukünftige Bevölkerung viel größer ist als die vergangene.
Um auf Bostrom zurückzukommen: Wenn wir den Virgo-Supercluster besiedeln, könnte die Bevölkerung 10 hoch 23 biologische Menschen umfassen. Es könnten sogar noch mehr Menschen sein, wenn wir diese riesigen Computersimulationen erschaffen, in denen virtuelle Realitätswelten laufen, in denen Billionen von digitalen Menschen ein glückliches Leben führen würden.
Man kann mehr digitale Menschen in einer volumetrischen Raumeinheit unterbringen als biologische. Laut Bostrom ist das der einzige Grund, warum man Menschen und Welten simulieren sollte. Denn es passen einfach mehr hinein, so dass die zukünftige Bevölkerung noch größer sein könnte, 10 hoch 38 im Virgo-Superhaufen, 10 hoch 58 im gesamten Universum.
netzpolitik.org: Woher kommen die digitalen Menschen? Wie werden sie geboren oder wie existieren sie?
Torres: Das geht nicht wirklich klar aus der Literatur hervor. Über diese digitalen Menschen wird nur gesagt, dass sie ein glückliches Leben haben werden. Und das ist aus ethischer Sicht für die longtermistische Betrachtung wichtig. Aber ob sie Lebenszyklen haben werden wie wir, darüber gibt es keine Details. Ich glaube, viele Longtermisten wissen nicht, wie seltsam die digitale Welt aussehen würde. Vorausgesetzt eine solche Welt ist überhaupt möglich, vielleicht ist Bewusstsein etwas, das nur aus biologischem Gewebe entstehen kann.
Das Phantasma der Superintelligenz
netzpolitik.org: Du hast dich kritisch gegenüber dem Longtermismus geäußert. Was ist aus deiner Sicht falsch daran?
Torres: Zunächst muss ich betonen, wie extrem diese Sichtweise unsere Welt beeinflusst. Elon Musk sagt, sie stimme eng mit seiner Philosophie überein. Sie ist in der Tech-Branche allgegenwärtig. Sie ist die treibende Kraft hinter vielen Forschungstätigkeiten, die sich zurzeit auf die Entwicklung künstlicher allgemeiner Intelligenz (artificial general intelligence, AGI) konzentrieren. Diese wird als Sprungbrett zur künstlichen Superintelligenz verstanden.
Ein großer Teil der Forschung von OpenAI und DeepMind und anderen sehr gut finanzierten Unternehmen mit Milliarden und Abermilliarden von Dollar im Rücken wird von der longtermistischen Vision angetrieben, dass Superintelligenz das entscheidende Vehikel ist, das uns in die Lage versetzen wird, den Weltraum zu kolonisieren, den Wert zu maximieren und so weiter. Sie infiltriert die Vereinten Nationen und soll in deren Zukunftsgipfel „Summit of the future 2024“ einfließen. Sie erhält Milliarden von Dollar für Forschungsprojekte. Es handelt sich also nicht nur um eine merkwürdige und sonderbare Ideologie, über die man einfach schmunzeln kann. Nein, sie beeinflusst unsere Welt wirklich auf grundlegende Weise.
Das große Meer des Lebens
netzpolitik.org: Welche Gefahren gehen von dieser Ideologie aus?
Torres: Ich glaube, dass diese Ideologie zwei große Gefahren birgt. Die eine besteht darin, dass sie, weil sie unseren Blick auf die sehr ferne Zukunft richtet und die mögliche Erschaffung einer riesigen Anzahl zukünftiger Menschen vorwegnimmt, aktuelle Probleme, die die Menschheit als ganze nicht existenziell betreffen, sehr trivial erscheinen lassen kann.
Bostrom sagte, wenn man sich beispielsweise das 20. Jahrhundert anschaut, sieht man alle möglichen Katastrophen, einschließlich globaler Katastrophen, die den Tod von mehreren Millionen Menschen verursachten: der Zweite Weltkrieg, die AIDS-Pandemie, die Spanische Grippe von 1918. All diese Katastrophen sind in absoluten Zahlen schrecklich, aber in Bostroms Worten sind sie nicht mehr als kleine Wellen auf dem großen Meer des Lebens. Denn im Großen und Ganzen ist der Verlust von mehreren Dutzend Millionen Menschen im Vergleich dazu, wie viele Menschen in der Zukunft existieren könnten, einfach nicht so gravierend.
Trivialer Klimawandel
Nehmen wir zum Beispiel den Klimawandel: Vor dem Hintergrund der longtermistischen Literatur ergibt sich dabei ein ziemlich rosiges Bild für die Zukunft. Das heißt, der Klimawandel wird nicht zu einer existenziellen Katastrophe. Es ist viel wahrscheinlicher, dass es vor allem die Menschen im globalen Süden fundamental treffen wird, und es wird wahrscheinlich Millionen von Toten geben. Mehrere Millionen von Menschen werden vertrieben, vielleicht müssen Milliarden von Menschen umsiedeln. Das wird eine Katastrophe sein, aber wenn man das wie Bostrom aus dem kosmischen Blickwinkel betrachtet, ist das nur ein kleiner Schluckauf.
Mit den Longtermisten gesprochen: Wenn wir diese ganze Zukunft vor uns haben und die Ressourcen endlich sind, dann sollten wir diese Ressourcen nicht ausgeben oder verteilen, den Klimawandel bekämpfen oder uns mit Fragen der Klimagerechtigkeit beschäftigen. Es gibt Wichtigeres zu tun, zum Beispiel eine Superintelligenz davon abzuhalten uns zu vernichten. Zwar sterben acht Milliarden Menschen. Das ist schlimm, aber viel schlimmer ist der Verlust all der Menschen in der Zukunft. Das Problem an dieser Sichtweise ist, dass die Menschen aktuelle Probleme bagatellisieren oder trivialisieren.
Der Terror aus Utopia
netzpolitik.org: Was ist das zweite Problem?
Torres: Das zweite Problem hängt sehr stark mit dem ersten zusammen. Der Longtermismus stellt diese Art von utopischer Zukunftsvision voller astronomischer Werte und Vergnügen in Aussicht. Das könnte Menschen, die leidenschaftlich an die Existenz dieser Utopie glauben, dazu verleiten, extreme Maßnahmen zu ergreifen, um die Verwirklichung dieser techno-utopischen Zukunft sicherzustellen. Die könnten auch gewaltsam sein.
Die Geschichte ist voll von Beispielen utopischer Bewegungen, die alle möglichen schrecklichen Gewalttaten wie Terrorismus und Völkermord verübten, um ihre Utopie zu verwirklichen. Der Longtermismus hat alles, was es den utopischen Bewegungen in der Vergangenheit ermöglichte, grausame Maßnahmen zu rechtfertigen. Es muss nur einen Menschen geben, der wirklich an den Longtermismus glaubt und daran, Utopia am Horizont erkennen zu können.
Wenn ihm dabei jemand im Weg steht, wird er sagen: „Tut mir leid, ich will niemanden verletzen, aber ich muss es tun. Es steht so viel auf dem Spiel. Ich muss vielleicht fünf, zehn, vielleicht eine Million, vielleicht 10 Millionen Menschen töten.“ Die Sorge ist begründet, dass es Menschen gibt, die so sehr von Bostrom und dem Longtermismus überzeugt sind und bereit, in einer bestimmten Situation entsprechend zu handeln. Darüber bin ich ernsthaft besorgt.
Altruismus auf Effektivität getrimmt
netzpolitik.org: Kannst du etwas mehr dazu sagen, wie sich die longtermistische Sichtweise aus der Philosophie des effektiven Altruismus entwickelt hat?
Torres: Nachdem eine Gruppe von Effektiven Altruisten die Arbeiten von Bostrom entdeckt hatte, kamen sie zu dem Schluss: Wenn wir das meiste Gute tun wollen, und wenn das bedeutet, die größte Anzahl von Menschen positiv zu beeinflussen, und wenn darüber hinaus die größte Anzahl von Menschen in ferner Zukunft existiert, dann sollten wir uns weniger auf die Individuen konzentrieren, die heute leiden. Und uns stattdessen mehr darauf konzentrieren, das Leben dieser Menschen, die Millionen, Milliarden, Billionen von Jahren in der Zukunft leben, positiv zu beeinflussen.
So kam es zur Ideologie des Longtermismus. Sie basiert auf der Idee, den eigenen positiven Einfluss auf die Welt zu maximieren und dann zu erkennen, dass die Zukunft viel, viel größer sein könnte als die Gegenwart. Selbst wenn die Wahrscheinlichkeit, ein Prozent der zukünftigen Bevölkerung positiv zu beeinflussen, sehr gering ist, ist das immer noch viel wirkungsvoller, als einer Milliarde Menschen jetzt mit großer Sicherheit zu helfen.
Heute leben zum Beispiel 1,3 Milliarden Menschen in mehrdimensionaler Armut. Wenn ich etwas tun kann, das 0,0001 Prozent der 10 hoch 39 Menschen in ferner Zukunft hilft, dann ist das eine viel größere Zahl als 1,3 Milliarden. In diesem Rahmen, in dem es darum geht, möglichst viel Gutes zu tun, ist es nur logisch, dass wir uns auf die ferne Zukunft konzentrieren sollten.
Die Art von Utilitarismus, die die Longtermisten am meisten beeinflusst, besagt, dass wir nicht nur den Wert innerhalb einer Population, sondern auch den Wert des Universums als Ganzes maximieren sollten. Es gibt zwei Möglichkeiten, das zu erreichen. Die eine ist das, was ich gerade erwähnt habe: das Glück der Menschen zu erhöhen, die bereits existieren.
Maximierung des Glücks
Eine andere Möglichkeit besteht darin, neue Menschen zu schaffen, die glücklich sind. Denn wenn sie einen positiven Nettowert des Glücks haben, dann erhöht das den Glück-Gesamtwert des Universums. Plötzlich hat man ein Argument dafür, warum es nicht nur eine moralische Verpflichtung ist, Menschen glücklich zu machen, sondern auch neue glückliche Menschen zu erschaffen. Deshalb halten sie es für sehr wichtig, dass wir so lange wie möglich überleben, den Weltraum kolonisieren und schließlich diese riesigen Computersimulationen mit Billionen von digitalen Menschen erschaffen, die darin leben.
netzpolitik.org: Warum ist es wichtig, den Wert zu maximieren?
Torres: In der utilitaristischen Sichtweise geht es nur um die größte Gesamtmenge an Wert im Universum. Historisch gesehen glaube ich nicht, dass es ein Zufall ist, dass diese Version des Utilitarismus zu der Zeit entstand, als der Kapitalismus aufkam. Die Parallelen sind ziemlich signifikant: Für Kapitalisten geht es nur um die Maximierung des Profits, für Utilitaristen geht es ethisch gewendet nur um die Maximierung des Wertes. Der Wert ist das oberste Ziel. Vielleicht ist es das menschliche Glück oder etwas Ähnliches. Aber in beiden Fällen geht es nur um diese Art von hirnlosem „mehr ist besser“.
netzpolitik.org: Je mehr Menschen, desto besser – das scheint widersprüchlich. Würde es nicht mehr Probleme oder kompliziertere Probleme geben, wenn es viel mehr Menschen gäbe?
Torres: Aus philosophischer Sicht würde ich sagen, dass die Beziehung zwischen dem, was wir als Wert ansehen, und den Menschen falsch verstanden wird. Für die Utilitaristen ist der Wert das Wichtigste. Das ist der ultimative Zweck.
Was sind die Mittel? Nun, da der Wert durch etwas realisiert werden muss und dieses Etwas ein Mensch ist, muss man mehr Menschen erschaffen. Menschen werden letztlich als Mittel zum Zweck betrachtet. Sie sind wertvoll, insofern sie instrumentalisiert werden können als Mittel zum Zweck des Wertes Glück. Diese Beziehung sollen wir so verstehen, dass Glück wichtig ist, weil es gut für die Menschen ist. Glück ist ein Mittel für die Einzelnen, um ihr Wohlbefinden zu verbessern.
Der Utilitarismus ist im Grunde die Theorie des Menschen als Wert-Behälter. Je mehr Wert-Behälter man im Universum hat, desto mehr Möglichkeiten hat man, Wert zu sammeln. Laut der Longtermisten ist das gut, denn dann hat man insgesamt einen höheren Wert erreicht. Man kann den Wert maximieren, indem man den Wert erhöht, den jeder Container hat. Oder man erschafft einfach neue Container. Die Sichtweise der Kantianer, Menschen als Zweck an sich selbst zu betrachten, scheint mir die bessere zu sein.
Heldenanbetung
netzpolitik.org: Einflussreiche Philosophen im Longtermismus sind unter anderem William MacAskill und Nick Bostrom. Sie scheinen Unterschiede zwischen den Menschen in der Weise zu machen, dass einige wertvoller sind als andere. Und sie scheinen sich als diejenigen zu verkaufen, die für alles eine Lösung haben.
Torres: Ich würde sagen, dass viele der Longtermisten eine extreme Selbstherrlichkeit an den Tag legen. Ich weiß, dass es innerhalb der EA-Gemeinschaft selbst einige Kritiker:innen der Bewegung gibt. Carla Zoe Cremer zum Beispiel hat einige der Anführer dafür kritisiert, dass sie nicht genug tun, um eine Art Heldenverehrung innerhalb der Gemeinschaft zu unterbinden.
Leute wie Bostrom scheinen zu glauben, dass sie eine moralisch sehr bedeutende Rolle bei der Steuerung der zukünftigen zivilisatorischen Entwicklung zu spielen haben. Sie sind sehr elitär und fördern eine starre Hierarchie mit Menschen an der Spitze, die eine enorme Menge an Macht in ihren Händen bündeln. Ich habe auf jeden Fall den Eindruck, dass sie es so wollen, denn viele der Leute an der Spitze glauben, dass sie über überlegene intellektuelle Fähigkeiten verfügen und daher eine Art einzigartige Fähigkeit besitzen, den besten Weg zu bestimmen.
Superintelligenz bringt uns nach Utopia
Eliezer Yudkowsky und Bostrom sind zum Beispiel beide mehr oder weniger explizit elitär in ihrer Perspektive auf das Thema der künstlichen Superintelligenz. Ihrer Meinung nach ist die Entwicklung von Superintelligenz so wichtig, dass denjenigen überlassen werden sollte, die intellektuell und moralisch am besten geeignet sind, Entscheidungen darüber zu treffen, wie sie entwickelt werden soll. Dazu gehören Bostrom, Yudkowsky und andere vom Future of Humanity Institute. Ich finde die Gemeinschaft problematisch, weil sie undemokratisch, sogar antidemokratisch ist.
netzpolitik.org: Das ist sehr beunruhigend. Warum ist Superintelligenz für Longtermisten so wichtig?
Torres: Dafür gibt es zwei Gründe. Einerseits nehmen die Longtermisten allgemein an, dass Superintelligenz folgende Auswirkungen haben wird: Entweder führt sie fast unmittelbar zu unserer Vernichtung, zur totalen Vernichtung, dann sind alle auf dem Planeten tot. Oder sie wird das Mittel sein, das es uns ermöglicht, hier auf der Erde und im Himmel eine echte Utopie zu erschaffen. Sie wird ein Mittel sein, um nach Utopia zu gelangen, den riesigen Kosmos zu besiedeln und damit den Wert massiv zu maximieren.
Longtermisten nehmen an, dass es sehr schwierig ist, eine Superintelligenz zu entwerfen, die uns nicht zerstört. Es ist ein intellektuelles, philosophisches und technisches Problem, von dem Leute wie Bostrom und andere vom Future of Humanity Institute, vielleicht auch Leute von OpenAI, glauben könnten, dass sie in einer einzigartigen Position sind, es tatsächlich zu lösen.
Da so viel auf dem Spiel steht – wenn nicht die Vernichtung, dann die Utopie, wenn nicht die Utopie, dann die Vernichtung – ist es wirklich wichtig, dass wir die Superintelligenz so gestalten, dass sie das widerspiegelt, was wir eigentlich wollen, nämlich den Wert zu maximieren, den Weltraum zu kolonisieren, radikal verbesserte „Nachmenschen“ zu werden und dergleichen mehr.
„Armselige Vision von der Zukunft“
netzpolitik.org: Das klingt wie eine schlechte Science-Fiction-Geschichte.
Torres: Es ist möglicherweise noch schlimmer. Ich glaube, dass die Longtermisten eine sehr armselige Vision der Zukunft haben. Die Maßstäbe, mit denen sie die Güte von Folgen messen, sind sehr technologisch, kapitalistisch und quantitativ ausgerichtet. Die Vorstellung, nur den Wert zu maximieren, ist meiner Meinung nach eine zutiefst klägliche Art, über unsere Beziehung zum Wert nachzudenken. Man könnte mit einem Wert auch etwas Anderes tun, etwa ihn schätzen, pflegen, schützen, erhalten und so weiter.
Darüber hinaus haben einige Technologiekritiker:innen darauf hingewiesen, dass viele der Attribute, die technologische Artefakte besitzen und die diese Artefakte für uns in gewisser Weise wertvoll machen, auf den menschlichen Schöpfer selbst projiziert werden. Dazu gehören Geschwindigkeit, Verarbeitungskapazität, Funktionalität, Zuverlässigkeit und so weiter. Man kann fragen: „Ist das ein gutes Auto?“ „Nun, ja.“ „Und warum?“ „Weil es zuverlässig ist.“
Longtermisten nehmen diese Eigenschaften und projizieren sie auf die Menschen und beurteilen die Menschen schließlich auf der Grundlage dieser Kriterien. Es ist die Idee, dass wir „nachmenschlich“ werden müssen, eine Superintelligenz schaffen müssen, die es uns ermöglicht, unsere Körper zu hacken, um mit der Technologie zu verschmelzen. Aber warum sollten wir das tun wollen?
Umgekehrte Adaption
Warum sollten wir diese quantitative Denkweise für unser Leben adaptieren wollen, wie die Fähigkeit erweitern, Vergnügen zu erleben oder mehr Kontrolle über unsere Emotionen erlangen. Das ist in Langdon Winners Worten ein Phänomen der umgekehrten Anpassung. Anstatt dass wir die Technologie uns anpassen, passen wir uns der Technologie an, und die Maßstäbe, nach denen wir Technologien als gut beurteilen, beginnen wir auf uns selbst anzuwenden.
Möglicherweise sollte es nicht so sein. Vielleicht kann man davon ausgehen, dass die menschliche Erfahrung vielfältiger ist, nicht nur starr und quantitativ. Was man in der longtermistischen Literatur fast nie findet, sind Diskussionen über die Frage nach dem Sinn. Darüber, was ein sinnvolles Leben ausmacht. Es gibt fast keine ernsthaften philosophischen Überlegungen dazu.
Vielleicht geht es nicht nur darum, wie glücklich ich bin, vielleicht geht es um die Qualität dieses Glücks. Vielleicht ist es der Kontext, in dem dieses Glück entstanden ist. Wenn ich mich in einer Gemeinschaft befinde und sehr glücklich bin, aber die Menschen um mich herum leiden, ist das vielleicht kein guter Zustand. Und ja, ich glaube, in ihrer logischen Zukunftsvision fehlen eine Menge Facetten.
Naja, auf Zukunft ausgerichtete Sichtweisen müssen nicht ohne Menschen auskommen (jetzt alle weg, weil es später so viele davon gibt).
Die Prinzipien einer Verfasstheit bedeuten, auch dem Individuum jetzt Rechnung zu tragen. Jedoch bedeutet die Ausrichtung auf die Unendlichkeit prinzipbedingt eine andere Klasse von Sichtweise. Aus meiner Sicht folgen daraus bereits weitreichende Prinzipien, mit denen vieles von dem, was „Longtermismus“ da bedeuten oder in Kauf nehmen soll, überhaupt nicht vereinbar ist. Also z.B. ist weitestgehend auszusterben unter Garantie ein Failure-Event. Also deliberat, obwohl es nicht nötig ist, Milliarden Menschen zu opfern, gleichermaßen. Zudem ist gerade auf der Zeitskala, das bischen Zeit, in dem wir Hirn aufwenden, um nicht töten zu müssen, langfristig wertvoller, als unnötig schnell irgendwo anders zu sein. Gerade bei langfristigen Prinzipien ist eine Superintelligenz eine Art von Wette, die vermutlicht nicht mal nötig ist, um irgendwohin zu gelangen. So gesehen Spekulation, Hoffnung, womöglich eine Form von Glauben. Für einen Glauben Milliarden von Menschen opfern?
Auf die Unendlichkeit ausgerichtet waren Religionen nicht selten, einige der Prinzipien sind uns also nicht fremd – und wie so oft in der Menschheitsgeschichte, hatten solche Konstrukte durchaus den konkreten Nutzen, dass Gemeinschaften in gewisser Weise Entscheidungen über den Horizont eines dummen Herrschers hinaus treffen konnten (eingeschränkte aber plastischere Version). Nicht mal Kant funktioniert, wenn nach der nächsten Ecke „egal“ kommt, d.h. selbst so einfache „Sprüche“ sind im Grunde nicht mehr auf Endlichkeit ausgerichtet, zumindest nicht bzgl. der Betrachtungsweise. Nur bei der Verfasstheit meint man nun, den Wortlaut ewig stehen lassen zu können, nicht etwa den Sinn – in gewisser Weise auch auf die Unendlichkeit ausgerichtet, jedoch eher in einer im Anorganischen mündenden Weise, so würde ich meinen.
„Die Sorge ist begründet, dass es Menschen gibt, die so sehr von Bostrom und dem Longtermismus überzeugt sind und bereit, in einer bestimmten Situation entsprechend zu handeln. Darüber bin ich ernsthaft besorgt.“
Sind das wirklich die Sachen, die sich „Musk und co.“ vorstellen, oder ist das eine Zusammenhangsbildung von Versatzstücken, die so Leute mal irgendwie irgendwann unabhängig voneinander irgendwo angebracht haben? Irgendwer ist immer bereit auch Atomwaffen einzusetzen, und es gibt jede Menge Leute, die wenn sie könnten, ganze Kontinente auslöschen würden, einfach weil Propaganda im Sprachmodellmodus nun mal funktioniert. Deswegen sagt man ja: „Gut, dann stell dich mal mit an die Front in der Ukraine, und dann gucken wir, wie du dann noch darüber denkst!“. Das Sprachmodell wird nie wissen, wie es ist, ein Kind zu kriegen, selbst wenn es alles verfügbare Wissen zu allen physiologischen Vorgängen diesbezüglich vorliegen hat. „Sprachmodell“ im Sinne einer entsprechenden Entität (Super/Intelligent irrelevant).
Deswegen kannst du die Geschicke der Menschheit auch nicht ohne weiteres irgendwelchen Nerds in die Hände legen. Bedenklich finde ich den Begriff Longtermism, weil der eigentlich in sich nicht stimmt, und gleichzeitig andere langfristig angelegte Sichtweisen diskreditieren helfen könnte (Hust, naja). Mit dem „Menschen wegmachen weil kein Problem“ sind die Superreichen als erstes dran. Plötzlich sind wir bei „kann machen weil Macht“, und haben kein long oder term, sondern einfach nur ism.
„vielleicht ist Bewusstsein etwas, das nur aus biologischem Gewebe entstehen kann“
Wäre nice, wenn die Autorin noch einmal näher darauf eingehen könnte. Gibt es konkrete Hinweise, dass dem so ist? Oder vertritt Netzpolitik,org neuerdings theistische Perspektiven?
Ideen:
1. Begriff von Bewusstsein. Ändert man diesen, geraten die Grenzen ins Schwanken. Historisch gesehen überhöhen „die Menschen“ gerne mal die Vorstellungen über sich selbst.
2. Hardware und Software. Biologische Lebensformen sind durch Jahrmillionen von Evolution entstanden. In Hardware sind viele Vereinfachungen enthalten, die uns einen starken Bezug zum Leben geben. So z.B. Überlebensdrang, eine grobe Idee für was wir brauchen, aber auch effizientes Lernen von Sachen, die ohne geschickten Bauplan auch des Gehirns viel schwieriger zu erlernen wären, hinweisend auf „wann etwas sich gut anfühlt“ vs. „schwierig Robotern laufen beizubringen“, was ein Beispiel für einen evolutionsgestählten Bauplan sein könnte, da wir die positive Rückmeldung unseres Körpers und Hirns bzw. der Sensorik eben nutzen können, um recht effizient laufen zu lernen.
3. Quanteneffekte mit lots of Rattenschwanz / https://www.heise.de/hintergrund/Unser-Gehirn-nutzt-Effekte-des-Quantencomputings-ergibt-ein-Experiment-7327065.html
„positive Rückmeldung unseres Körpers“
Bzw. im Prozess auch Negative, z.B. dass Schmerzen an den richtigen Stellen und Momenten entstehen. Stagnation kann wehtun, Bewegungsmangel auch, aber auch Überlastung einzelner Gelenke, Sehnen, Muskeln. Man kann sich zwar an viel gewöhnen, aber zunächst haben wir eine ganze Menge an Hilfsmitteln schon mal ab Werk.
Übertragen auf Roboter fehlt vielleicht mehr verteilte Sensorik mit etwas Heuristik für eine Vorbewertung, um Routen schneller zu bevorzugen, die optimale Kraftaufkommen realisieren. Solche bedeuten auch im Betrieb mit wechselnden Gewichtsverteilungen, dass sich möglicherweise Orientierungspunkte ergeben. Vermutlich passiert sowas auch schon, oder wir sehen dann halt immer wieder, dass für das normale Gehen, statt einer Verlagerung die Ausgleichsbewegungen für Schubsen verwandt werden müssen, u.ä. Irgendwie äquivalent könnte auch die Kenntnis der Stellung aller Gliedmaßen und gewisser Beschleunigungswerte sein, wenn man daraus Gliedmaßenbelastung und Effizienz ableiten kann. Vielleicht ist die Nutzlast auch bekannt oder messbar. Vielleicht ist das auch Augenwischerei, und/oder es passiert bereits etwas ähnliches in der Trainingswelt.
Bei Menschen gibt es allerdings auch noch den sozialen Aspekt, also die Bestätigung durch Eltern z.B., die ja schon ganz gut gehen können, aber auch Symmetriebetrachtungen und Vergleiche wie beim Zugucken/Abgucken. Bei KI scheint ja irgendwie oft der Anspruch durch, es solle alles von selbst funktionieren, und zwar möglichst schon Gestern.
1. Das sagt Torres.
2. Gegenübergestellt der Idee des „hochgeladenen Bewusstseins“ in der virtuellen Welt, die auch pure Spekulation ist.
WEr Nick Bostrom noch mal nachlesen will: In seinem Buch „Die verwundbare Welt“ entwickelt er seine Alternativen zu einer zur erwartenden Apokalypse der Menschheit, die durch zivilisatorische Schwachstellen komme.
Seine Vorstellungen:
– Beschränken der technologischen Entwicklung
– Eine geringe Anzahl von Akteuren mit typisch menschlichen Motiven
– Aufbau eines äußerst effektiven präventiven Polizeiapparats (Orwell 2024)
– Effektive Global Governance
William MacAskells „What We Owe The Future“ ist das Standardwerk in Bezug auf Longtermismus und sollte als wesentliche Informationsquelle in Betracht gezogen werden. Dort wird dargestellt, dass Longtermismus durch zwei Wege umgesetzt werden kann. Erstens, indem Katastrophen abgewehrt werden (Klimawandel wird direkt in der Diskussion als Katastrophe miterwähnt und nicht als trivial dargestellt). Zweitens, indem der Weg unserer Zivilisation zum Positiven hin verändert werden soll („by averting permanent catastrophes, thereby ensuring civilisation’s survival; or by changing civilisation’s trajectory to make it better while it lasts“, S. 35). Das klingt schon ein wenig anders als das, was hier als radikale Ideologie anklingt. Jede Theorie kann Auswirkungen auf unsere Welt besitzen und dementsprechend als gefährlich bezeichnet werden. Longtermismus wird an anderer Stelle aber auch als positive Chance begriffen, Probleme wie Klimawandel, Energiewende und langfristige gesellschaftliche Veränderungen in ethische Überlegungen miteinzubeziehen (siehe https://www.preposterousuniverse.com/podcast/2022/08/15/207-william-macaskill-on-maximizing-good-in-the-present-and-future/ oder https://80000hours.org/articles/future-generations/).
Die Theorie des Longtermismus nach William Macaskill umfasst sicher die Gedanken, dass Katastrophen abgewendet werden sollen und dass der Weg der Zivilisation positiv beeinflusst werden soll. Er benennt die Klimakrise als Katastrophe, die es abzuwenden gilt.
Im Kontext des Interviews dient die Klimakrise als Beispiel. Es soll veranschaulichen, dass Longtermisten das Schicksal zukünftiger Personen der Theorie nach höher gewichten. Das hat damit zu tun, dass der Longtermismus eine utilitaristische Haltung ist. Die zeichnet sich grundlegend dadurch aus, dass diejenige Handlung zu wählen ist, mit der das Glück (bzw. Wohl) möglichst vieler Menschen erhöht werden kann. Die Longtermisten gehen weiter, indem sie in diese Rechnung nicht nur einfach das Wohl kommender Generationen einbeziehen – was sinnvoll ist -, sondern das Glück von Sextilliarden von Menschen in einer weit entfernten Zukunft. Das Glück dieser Menschen gewichten Longtermisten stärker. Denn die Menge an zu erwartendem Glück ist so enorm viel größer. Glück ist die Währung und davon wollen sie möglichst viel ansammeln.
Daher ist die Gefahr gegeben, akute Probleme unserer Zeit zu vernachlässigen oder aus dem Blick zu verlieren. Zumal in Bezug auf die Vernichtung der Menschheit die größere Sorge der Longtermisten eine Super-KI ist. Die beschreibt Macaskill (mit Bezug auf Nick Bostrom) in seinem Buch. Es iat aber nicht abzusehen, dass es eine solche KI geben könnte. Sie ist rein hypothetisch. Eine der führenden KI-Forscher:innen weltweit Timnit Gebru schreibt darüber unter anderem regelmäßig auf Twitter (https://twitter.com/timnitGebru).
Die Radikalität der longtermistischen Theorie ergibt sich, wenn man alle Theoriestücke zusammensetzt und die notwendigen Schlüsse zieht. „Probleme wie Klimawandel, Energiewende und langfristige gesellschaftliche Veränderungen“ sind Gegenstand der meisten modernen ethischen Überlegungen. Dazu braucht es keinen Longtermismus.
Die Radikalität ergibt sich nicht aus dem Zusammensetzen der Theoriestücke, da will ich Ihnen widersprechen. Sie ist ein völlig vorhersehbares Produkt des „argumentum ad absurdum“ eines egomanen Geistes, der die Durchsetzung seiner Weltsicht vor alle anderen Belange stellt. Dass diese Weltsicht gerade mal Longtermismus ist, ist völlig irrelevant.
Insofern bin ich von dem Artikel gerade doch recht unterwältigt. Ein paar Science fiction dudes holen sich auf ’nem orgiastischen Techno future porn einen runter und können die Finger nicht aus dem Goldtopf der eigenen Machtbereicherung lassen. Das war schon mit Superman II ein alter Hut…
Ich kann auch Kaninchenzucht als Begründung für Unterdrückung und Machtbereicherung nehmen. Der entscheidende Faktor ist, dass ich meine Sicht der Dinge indiskutabel vor die Sicht anderer Menschen stelle. Damit mache ich meine Sicht für mich existentiell. Und Existenzerhaltung legitimiert alle anderen Maßnahmen.
Abschließend: Ist Longtermismus gefährlich? Das klärt der Artikel leider überhaupt nicht auf, denn er verliert sich in den Plattitüden des Totalitarismus-Erklärens. Aber dass Totalitärismus gefährlich ist, kann man nich oft genug betonen, insofern, trotzdem ein fettes Danke!
Spätestens bei Zeitreisen ist die Theorie sowieso Toast!
(Bzw. als folteraffin und genozidfördernd eingestuft, weil die Kriterien so mal überhaupt keinerlei Sinn mehr ergeben…)
Der Apfel steckt aber schon im Hals, wenn man prinzipiell zukünftige Menschen quantitativ heutigen gegenüberstellt, damit das heutige Leben dann aber wertet und qualifiziert, und dann noch nicht bereit ist, den Wert des zukünftigen Lebens adäquat zu bestimmen, denn das muss man dann konsequenterweise – d.h. sie müssen dann auch lange bis unendliche, aber z.B. hässliche Leben gegen kurze und Schöne Leben werten, die Interaktionsmöglichkeiten bewerten, usw. usf., dazu noch biologische mit erweiterten bis zu künstlichen Lebensformen vergleichen usw. usf. Eine KI kommt dann sicherlich noch zu dem Schluss, dass wir zukünftige Entwicklungen durch Züchten einer entsprechenden Zahl von Eintagsfliegen ebenso gut kompensieren könnten, da letzlich nur Glück zähle, und ebenso mittles Eintagsfliegen und deren Addition zum Menschenstamm abbildbar sei. Frage man mich nicht, welche Rolle dann noch die Menschen spielen!
Das Prinzip, das was war, ewig fortzuschreiben, funktioniert auch nicht (Fundamentalismus), wenn man nicht alles ausgerechnet hat (, was voraussetzten würde, das das überhaupt irgendwie möglich ist). Logisch ist also, mit ungefähr dem was wir haben zu extrapolieren, und eher agnostisch bzgl. der Konkreten Ausformung auf die Sache zu sehen. Overlordszenarien fallen auch aus, da alles außer den „Overlord-Individuen“ nicht als Gesellschaft qualifiziert, also auch nicht als Zivilisation, sonst sind wir bei „ICH“ ohne Wertung des Todes. Einen standhaltenden Zivilisationsbegriff braucht wir hier (nicht nur einen Archäologischen). Der Fokus dabei wiederum, ist da auf jeden Fall sehr langfristig, wenn nicht unendlich – für das eine Auge. Niemand sagt, dass das alles auf einem Auge geht…
Ich würde einfach mal direkt von der 80000hours-Webseite zitieren:
„Does longtermism mean we should focus on helping future people rather than people who need help today?“ – „1. Most importantly, many longtermist priorities, especially reducing extinction risk, are also incredibly important for people alive today. 2. If we all took moral impartiality more seriously, there would be a lot more resources going to help the worst-off today — not just the far future.“ Ihre Interpretation ist meiner Ansicht nach legitim, aber sehr einseitig. Ihre Zusammensetzung der Theoriestücke nutzt keine konkreten Quellen der genannten kritisierten Philosophen, die diese Sichtweisen offensichtlich machen würden. Ich kann anderen nur empfehlen, sich selbst damit auseinanderzusetzen.
Die Empfehlung, sich selbst mit der Theorie des Longtermismus zu beschäftigen, kann ich unterschreiben. Dazu gehört, die kritischen Stimmen wahzunehmen, die es zu dieser Theorie gibt.
Frau Menhard….
eine Billion sind keine Milliarde! Sie sollten sich mal mit der kurzern bw. langen Skala beschäftigen! Eine US-Billion sind keine DE-Billion.
Diesen EKLATANTEN Fehler macht ihr ständig bei Netzpolitik. Die Artikel sind dadurch per se wertlos, da man annehmen muss, dass der Rest — wenn überhaupt — schlampig recherchiert ist, wenn es schon bei solchen fundamentalen Dingen hapert!
Sehr, sehr nervig!
Vielen Dank für den Hinweis. An welcher Stelle siehst Du hier genau einen Fehler? Im englischsprachigen Original-Interview ist tatsächlich mehrfach von „trillion“ und „billion“ die Rede. In der Übersetzung heißt es entsprechend Billion und Milliarde.
In diesem Kontext fällt mir ein Spruch ein, den ich vor Jahren gelesen habe. Es soll ein Zitat von Goethe sein: „Lebe heute und plane für morgen und nicht umgekehrt.“
Ich musste ständig an den Film „Matrix“ denken: Kolonien von milliarden physischer Körper, die nur in der digitalten Welt leben…
Matrix (oder Terminator) ist was sie als „Angst vor der Super KI“ verstehen. Die andere Variante wäre mehr in Richtung was Frederik Pohl in den 70er in seinen Bücher der Heechee-Sage oder auch bekannt als Gateway- Saga geschrieben hat. Sie sind sehr empfehlenswert, mehr info in „https://de.wikipedia.org/wiki/Gateway-Trilogie“ (Vorsicht: Viele Spoiler).
Vier Anmerkungen:
1. Erst einmal danke für den wichtigen Beitrag!
2. Der Ethik-Philosoph Peter Singer, auf den die Bewegung des Effektiven Altruismus ursprünglich zurückgeht, sollte hier richtig eingeordnet werden. Denn auch er ist keine neutrale, sondern aufgrund seiner Thesen zum Wert des Lebens sehr umstrittene Figur: „Die Tötung eines behinderten Säuglings ist nicht moralisch gleichbedeutend mit der Tötung einer Person. Sehr oft ist sie überhaupt kein Unrecht.“ schreibt er etwa in seinem Buch „Praktische Ethik“.
3. Aus meiner Sicht fehlt – jedenfalls hier – ein Aspekt in Torres Kritik. Wenn es z.B. um die Bekämpfung von Armut und Ungleichheit geht, wäre es womöglich noch sehr viel effektiver als effektiv altruistisch zu sein, dabei mitzuhelfen, etwas an den Verhältnissen zu ändern, die diese Probleme erst hervorbringen. Für die Vertreter:innen des EA ist das natürlich vollkommen uninteressant, obwohl es auf lange Sicht vermutlich die bessere Lösung wäre.
4. Grundsätzlich vermittelt dieser Text den Eindruck, dass er ursprünglich gar kein Interview war, sondern die Gedanken von Torres zwecks besserer Verständlichkeit in Form eines Interviews wiedergegeben wurden. Das ist vollkommen legitim, aber hier klingt es nicht wie ein Gespräch, sondern ein langer Text mit ein paar unterbrechenden Fragen zwischendurch. Oder er ist ungünstig bearbeitet worden.
Ich nehme an, dass der englische Text mit Hilfe einer KI übersetzt wurde. Das bedeutet aber nicht, dass man ihn nicht redigieren sollte. Er liest sich an vielen Stellen leider wie eine schlechte Übersetzung. Sollte all das nicht zutreffen, betrachtet meine Kritik als gegenstandslos.
Also, es gibt ja aller Wahrscheinlichkeit nach andere vernunftbegabte Spezies in usnerem Universum. Wenn ich schon longterm universal rechne, sollte ich dann nicht fragen: wie muss ich handeln, um das größtmöglichste Optimum für die größtmöglichste Anzahl an zukünftigen Entietäten im Universum zu erreichen?
Und wenn ich dann zu dem Schluss komme, dass der homo sapiens sapiens aufgrund seiner mental-kulturell-physiologischen Veranlagungen (gewalt, kriege, kapitalismus, schlagerparaden) das Wohl und Leben anderer empfindungsfähiger Spezies in anderen Teilen des Universums u/o der Zukunft gefährde… würde mich dann ein un-speziesistischer Ansatz nicht zu dem Schluss führen, dass die Erdlinge samt und sonders sofort ausradiert gehört, um das zukünftige Wohl des Universums zu erhalten?
„Das Wohl vieler wiegt schwerer als das Wohl weniger“…
Schon merkwürdig, das die teils 50 Jahre alten Sci-Fi-Romane in meinen Bücherschrank dieses Thema bereits in allen Spielarten variiert und geklärt haben :D
Wo endet eigentlich der selbstverständliche Short-Termismus und wo beginnt der Long-Termismus? Wenn wir sagen, wir müssen die Erde für „unsere Kinder“ retten (oder doch eher anderer Leute Kinder), ist das eher short oder eher long?
Als Zivilisation bis zum Ende des Universums überdauern vs. Hamlet, die Nevermind und die Mona Lisa hervorbringen und untergehen.
Das ist hier die Frage.
Vielen Dank für diesen Beitrag.
Dass auch einige Longtermisten den Klimawandel nicht trivialisieren, widerspricht nicht den Aussagen im Interview. Selbst aus einer utilitaristischen Perspektive müsste es den Longtermisten an erster Stelle um die Entschärfung der Shortterm-Bedrohungen unserer Zivilisation gehen, für die sozialer Ausgleich, echte Bildungsexpansion, ökologische Nachhaltigkeit und internationale Entspannung unabdingbar sind. Die Klimakatastrophe verkürzt die Zeit für den herbeigesehnten Sprung zur interstellaren Zivilisation von hunderten Millionen Jahren auf Jahrzehnte! Das Problem von Ideologen wie Elon Musk ist also nicht ihr Altruismus sondern ihr extremer Narzismus. Sie möchten möglichst viel von der Zukunft selbst erleben und ordnen daher Alles der Verwirklichung ihrer infantilen Träume für eine kleine elitäre Minderheit unter. Auch die astronomischen Befunde interessieren sie nicht: Obwohl massenweise Planeten in habitablen Zonen entdeckt wurden, wurde noch über kein Artefakt einer außerirdischen Maschinen-Zivilisation berichtet. Where is everybody? Dessen ungeachtet phantasieren sie von gefährlichen Superintelligenzen, Singularitäten und maschinellem Bewusstsein, steigern damit nur die Ehrfurcht vor und den Marktwert von so profanem Unsinn wie ChatGPT und lenken von ihrer eigenen Rolle bei der Verbreitung „selbstlernender“ Unterdrückungsmaschinen ab. Es ist eine extreme in Tech-Jargon gekleidete Ideologie mit ganz realen Marketing- bzw. Propaganda-Effekten.
Ich finde es bedenklich, dass ausschließlich kritische Stimmen bezüglich KI und Co. zu Wort kommen, während bei anderen Themen (mRNA-Impfstoffe) völlig anders gehandelt wird.
Mag sein, dass die Philosophie des Utilitarismus falsch ist (woran man das auch immer festmachen will).
Aber was ist denn der Anlass? Was ist sozusagen der Grund, warum sich jemand hinsetzen und utilitaristische Systeme entwickelt?
Meiner Ansicht nach lautet die Antwort in den meisten Fällen, dass sich die atheistischen und materialistischen Autoren keine bessere Begründung für eine Ethik vorstellen können als Optminierung. Zweckrationalität für das Glück. Der Gedanke ist ja sehr plausibel.
Solche Kategorien wie „Sinn“ oder deontische Werte wirken recht esoterisch, wenn man sich erst an die Denkmuster gewöhnt hat.
(Ich sage damit weder, dass das logisch zwingend ist, noch dass diese Atheisten/Materialisten falsch liegen oder recht haben. Ich formuliere lediglich eine Hypothese darüber, wie diese Leute denken.)
Mein Gegenvorschlag wäre: Eine evolutionäre Ethik.
Also die Erforschung, wieso sich gewisse Verhaltenssysteme historisch und auch phylogenetisch entstanden sind.
Das könnten auch Leute schlucken, die es nicht mehr so sehr mit solchen Überlegungen vom Wert und Sinn haben.
Und für die übrigen gibt es dann ja sowas wie Christentum etc.pp.
Die Übrigen? So wie gestandene und gereifte Physiker, zu einem Prozentsatz?
Utilitarismus und maximales Glück… bedeuten Wertung, auch durch andere, also boils down to rein machtbasiert = zivilisatorischer Kopf ab, daher in den Müll, danke Tschüss!
Paul…