Offener Brief zu KI Opfer des Hypes

Zahlreiche KI-Expert:innen fordern eine Entwicklungspause für neue KI-Modelle. Es brauche zunächst Sicherheitsstandards – auch um die Menschheit vor dem Schlimmsten zu bewahren. Das ist in mehrfacher Hinsicht „Bullshit“.

Ein Mann sitzt inmitten von Ruinen, umzingelt von Kriegsrobotern
Stehen wir kurz vor der KI-Apokalypse? – Diffusion Bee (A man in an apocalyptic scenario surrounded by terminators, colorized, highly detailed)

Als hätten wir nicht der Krisen genug, verbreitet derzeit ein offener Brief düstere Endzeitstimmung: „Sollen wir es zulassen, dass Maschinen unsere Informationskanäle mit Propaganda und Unwahrheiten fluten?“ Sollen all unsere Jobs automatisiert werden? Und sollen wir es hinnehmen, dass „nicht menschliche Intelligenzen“ entstehen, „die uns irgendwann überflüssig machen und ersetzen könnten?“

Die Fragen stellen einige der prominentesten Personen aus der KI-Forschung und dem Silicon Valley, unter ihnen Twitter-Chef Elon Musk und Apple-Mitgründer Steve Wozniak. Mehr als 1800 Menschen haben den Brief inzwischen unterzeichnet. Sie alle sorgen sich um die rasanten Weiterentwicklungen von Sprachmodellen wie GPT-4 und fordern ein sechsmonatiges Entwicklungsmoratorium für Systeme, die noch „mächtiger“ sind als die neue Modellversion aus dem Labor von OpenAI.

Setze sich die aktuelle Entwicklung ungebremst fort, so der Brief, bedrohe dies die gesamte Menschheit. Die KI-Systeme seien auf dem besten Weg, ein ähnliches Intelligenzniveau wie wir zu entwickeln und damit „einen tiefgreifenden Wandel in der Geschichte des Lebens auf der Erde“ einzuleiten. Die Entscheidung darüber dürften wir nicht den Tech-Konzernen überlassen, lautet die Mahnung.

Seit ChatGPT von OpenAI im November vergangenen Jahres veröffentlicht wurde, liefern sich vor allem Microsoft und Google ein Rennen um die Vorherrschaft in diesem Bereich – mit der Aussicht auf gewaltiges Wachstum und weitere Einnahmequellen. Fast wöchentlich werden neue Anwendungen vorgestellt.

Illustre Runde der Unterzeichnenden

Dass KI-Systeme Risiken bergen, ist bekannt – auch in Europa. Darauf verweisen unter anderem Europol mit Blick auf die Kriminalität oder der TÜV mit Verweis auf den Einsatz von KI-Systemen in der Medizin. Und auch die EU ringt derzeit darum, mit dem geplanten AI Act die Risiken zu begrenzen. Die KI-Verordnung soll das erste Gesetz weltweit werden, das „Künstliche Intelligenz“ in nahezu allen Lebensbereichen reguliert.

Vor diesem Hintergrund überrascht die existenzielle Dringlichkeit des Briefes um so mehr. Allerdings erklärt sich diese vor allem aus der illustren Runde der Unterzeichnenden. Zu diesen zählen zum einen Wissenschaftler:innen wie der britische KI-Forscher Stuart Russell, aber auch Unternehmer:innen wie Emad Mostaque, der Geschäftsführer von Stability AI, sowie mehrere Mitarbeiter:innen der zu Google gehörenden Forschungseinrichtung DeepMind.

Zum anderen haben auch Yuval Noah Harari und Elon Musk den Brief unterschrieben. Der Übergroßdenker Harari ist geradezu berüchtigt dafür, in seinen millionenfach verkauften Büchern Untergangsszenarien herbeizuphantasieren. Und Elon Musk hat OpenAI, das Unternehmen hinter ChatGPT, im Jahr 2015 mitgegründet. Nachdem er aber im Jahr 2018 scheiterte, die Führung bei OpenAI zu übernehmen, kehrte Musk dem Unternehmen kurz darauf den Rücken. Es ist nicht auszuschließen, dass Musk, der ohnehin zu exzentrischen Aussagen neigt, mit OpenAI hier seine eigene Fehde ausficht.

Kritik von KI-Wissenschaftler:innen

Zumindest einem Teil der Unterzeichner:innen dürfte die schnelle KI-Entwicklung durchaus ernste Sorgen bereiten. Umso mehr stellt sich jedoch die Frage, ob es dazu des schrillen Tons braucht, mit dem die existenziellen Gefahren heraufbeschworen werden – oder ob das Bedrohungsszenario nicht vielmehr Ergebnis eines sich selbst verstärkenden Hypes sind.

Diese Vermutung bestätigt auch die Kritik, die viele KI-Wissenschaftler:innen an dem offenen Brief äußern. So erkennen etwa die Princeton-Computerwissenschaftler Sayash Kapoor and Arvind Narayanan zwar an, dass „Fehlinformationen, Auswirkungen auf die Arbeit sowie auf die Sicherheit drei der Hauptrisiken von KI sind“. Allerdings kritisieren sie auch, dass der offene Brief vor allem ein spekulatives, futuristisches Risiko zeichnet. Damit lenke er aber von den tatsächlichen Problemen ab und erschwere es zudem, diese konstruktiv anzugehen.

Auch die Linguistin Emily Bender kritisiert den Brief als weiteren Treibstoff für den KI-Hype. Sie weist darauf hin, dass derzeit niemand eine digitale Intelligenz („digital mind“) baue oder etwas Derartiges plane. Bender gehört zu den Mit-Autorinnen eines Forschungspapiers, das ChatGPT und vergleichbare große Sprachmodelle als „stochastischen Papagei“ bezeichnet. Sie würden vor allem auf die Vorhersage von Zeichenketten trainiert, demzufolge wissen die Systeme nicht, worüber sie sprechen. Stattdessen produzieren sie im Sinne des Philosophen Harry Frankfurt „Bullshit“ (zu Deutsch: Blödsinn) – sie lügen zwar nicht bewusst, scheren sich aber auch nicht darum, ob ihre Aussagen wahr sind.

Die Phantasiewelt des Longtermism

Bender weist noch auf einen weiteren Punkt hin: Die gemeinnützige Organisation Future of Life, auf deren Website der Brief erschienen ist, sei dafür bekannt, sich dem sogenannten „Longtermism“ zu verschreiben. Diese im Silicon Valley einflussreiche Denkströmung kreist vor allem um das Überleben der Menschheit und versucht mit technologischen Mitteln gegen alle möglichen Szenarien anzukämpfen, die deren Ende bedeuten könnten.

Eine außer Kontrolle geratene Superintelligenz gilt ihren Anhänger:innen dabei als eines der wahrscheinlichen Bedrohungsszenarien. Viele Tech-Bosse wie Musk oder auch Skype-Gründer Jaan Tallinn zählen zur Folgschaft – und fördern die Bewegung und deren Projekte mit ihren gewaltigen Vermögen. Das Problem: Für diese Denkschule geht es vor allem um Langzeitrisiken in fernster Zukunft. Dass bereits heute Millionen Menschen für die Entwicklung von KI-Systemen ausgebeutet werden oder unter ihrem Einsatz leiden, interessiert da weniger.

Daran stört sich auch Anna Jobin, KI-Forscherin am Alexander von Humboldt Institut für Internet und Gesellschaft. Ihr zufolge entwerfe der Brief eine „Phantasiewelt“, in der ein paar technische Updates und ein kurzer Entwicklungsstopp ausreichten, „um geeignete regulatorische Rahmenbedingungen für die angeblich unausweichliche Superintelligenz zu schaffen“. Damit würden aber die Probleme von heute schon existierenden Systemen ignoriert und verharmlost. „Das Superintelligenz-Thema gehört in Philosophieseminare und nicht in die Politik.“ Das Schreiben sei kaum mehr als Agenda-Setting durch Tech-Leader.

Mit dem Criti-Hype in die Bullshit-Schleife

Dieses Agenda-Setting erfährt aktuell aber auch deshalb so große Resonanz, weil es den kaum hinterfragten Hype um ChatGPT und Co. noch zusätzlich befördert. Und das ist das eigentliche Problem des Briefes.

Den dahinter stehenden Mechanismus bezeichnete der Technologiewissenschaftler Lee Vinsel einst treffend als Criti-Hype. Damit meint er eine Form der Kritik, die sich aus einem Hype speist und diesen zugleich weiter anfüttert.

Ebendas tut der offene Brief: Vordergründig kritisiert er den unregulierten Einsatz von ChatGPT und ähnlicher Sprachmodellen. Allerdings verschafft sich die Kritik selbst größtmögliche Relevanz, indem sie die Chat-Bots nicht nur als erheblich leistungsfähiger darstellt als sie sind, sondern obendrein als Menschheitsbedrohung überzeichnet. Damit aber geht es nicht länger um das Klein-Klein von möglicher Diskriminierung oder den Gefahren von KI-generierter Desinformation, sondern um nicht weniger als die drohende Auslöschung der Menschheit durch eine nahende Superintelligenz.

Der Criti-Hype erzeugt damit – mit Harry Frankfurt gesprochen – eine gleich doppelte, sich selbst verstärkende Bullshit-Schleife. Nehmen wir den offenen Brief daher allzu ernst, drohen wir am Ende vor allem eines zu werden: Opfer eines künstlich generierten KI-Hypes.

47 Ergänzungen

  1. Vielen Dank, für die Klarstellung.

    Mir ist schon seit einigen Wochen aufgefallen, dass das Them KI von den Journalisten unserer Medienlandschaft teilweise ganzseitig befüllt wurde mit Vorschlägen, was die KI alles tolles leisten sollte.
    Ich fragte mich schon, ob wir bald unser Gehirn auslagern können.
    Die Entwicklung wird kaum zu stoppen sein und die Diskussion geht weiter, was sicherlich richtig und wichtig ist.
    Es wäre viel wünschenswerter, wenn militärische KI bzw Waffen mit KI Steuerung geächtet werden würde, ähnlich Streumunition.

    1. …auch soll es geächtet werden, wenn KI zu nächsten Datenkraken werden. Das ist mitunter ein Grund, warum ich KI boykottiere: Keine Garantie auf Datenschutz.

  2. Guten Abend Herr Leisegang,

    es gibt eigentlich zu allem eine Meinung und über alle möglichen Themen lässt sich sittsam Debatieren und sorgsam die Vor- und Nachteile aufwerten.

    In meiner Dystopie-Galaxy wo die Verhaltensänderung der Überwachungskapitalisten schon begonnen hat die Zukunft zu beeinflussen, weil der Druchbruch wo algorithmen klüger wurden als die Menscheit selbst schon in der weiten Vergangenheit liegt. Ist es nur logisch das Sie einen Artikel verfassen der eben einen sorgsameren Umgang mit dieser Macht unterbindet eben entgegenwirkt.

    Sie können nichts dafür.

    Aber kommen wir zu meinen Argumenten. Was hat die Menscheit verloren wenn wir an der Stelle einhaken und den unweigerlichen Schritt lediglich ein wenig mehr verzögern? Also eben diese Technologie für wenige Jahrhunderte lansamer ablaufen lassen und dabei studieren, sorgsam eingrenzen und vielleicht durch etwas anderes regulieren als wie es die Opposition vorschlägt, die Regularien von einer A.I. beschließen zu lassen?

    Menschen verlieren keine Zeit, denn sie leben maximal 100 Jahre….

    „Allerdings verschafft sich die Kritik selbst größtmögliche Relevanz, indem sie die Chat-Bots nicht nur als erheblich leistungsfähiger darstellt als sie sind, sondern obendrein als Menschheitsbedrohung überzeichnet. Damit aber geht es nicht länger um das Klein-Klein von möglicher Diskriminierung oder den Gefahren von KI-generierter Desinformation, sondern um nicht weniger als die drohende Auslöschung der Menschheit durch eine nahende Superintelligenz.“
    Nun die Auslöschung liegt in der Vergangenheit. Es waren die Menschen selber mit dem Klimawandel und dem Artensterben. Ob wir es schaffen oder nicht liegt in userem Interesse, einer synthetischen Superintelligenz ist dies leider vollkommen egal.

    Chris

  3. Sehr geehrter Herr Leisegang,

    ohne ihnen zu nahe treten zu wollen. Ich denke Sie haben nicht verstnaden was diese Netzwerke verändern. Es geht nicht mal darum ob diese Netzwerke eine wirkliche Intelligenz bieten oder ein bewusst sein haben. Aber es geht leider darum ob sie ein Schlüssel für Türen sind, welche wir aktuell als zuverlässig verschlossen betrachteten.

    Wenn so ein Netzwerk, welches eigentlich nur eine Sprache übersetzen können sollte, unerwartet auch eine andere Sprache hinreichend gut übersetzten kann (sagen wir in 99,9% korrekt) ist es ein Werkzeug aus dem sich mehr machen lässt.

    Bei dieser Art technologie, ist den meisten noch nicht bewusst welchen Nutzuen es bringt oder welche Gefahr davon aus geht. Es ist ein wenig wie bei dem Schritt von Offline zum Internet. Die Auswirkungen dieses Technologischen schrittes sind in Teilen nur jenen bewusst welche die Mathematik verstehen. Jetzt haben wir das selbe bei 80% der Menschen, sehr viele verstehen es nicht und berichten aus ihrer Warte heraus neutral darüber. Darunter auch Fefe, der CC und sie und ich zum Beispiel (meine pers. Vermutung).

    Was dabei aber fällt ist folgenedes. Die Sicherheit und autentizität von sehr vielen IT-Systemen, die sich von einer A.I. mit hinreichend Daten überlisten lassen. Für all diese Menschen verändert sich gerade in dem Moment die Zukunft und Realität. Jetzt. In Echtzeit.

    Grüße

    Chris

  4. „“Zahlreiche KI-Expert:innen fordern eine Entwicklungspause für neue KI-Modelle. Es brauche zunächst Sicherheitsstandards – auch um die Menschheit vor dem Schlimmsten zu bewahren. Das ist in mehrfacher Hinsicht „Bullshit“.““

    Ich wollte mich aufregen als ich die Subunterschrift gelesen hatte. Selbstverständlich brauchen wir gesellschaftliche Vereinbarungen, wenn Technologien derart überhyped werden, dass sie relevanten Einfluss nehmen oder nehmen können. Auch wenn die Behauptungen der Fähigkeit maßlos übertrieben werden. Da ist weniger relevant, was die Technologie kann, als als was sie „verkauft“ wird.
    Es braucht keine Mastermind KIs, damit dem Output geglaubt wird und das relevanten gesellschaftlich massiven Einfluss hat.
    Dass der „Offene Brief“ da einen Bärendienst leistet und genau das Gegenteil macht, von dem, was er scheinbar behauptet, dieser abschließenden Konklusion aus dem Artikel kann man wenig entgegen halten.

    1. LLMs sind bereits Bestandteil von Plattformen die Inhalte für Nutzer filtern, d.h. die Gesellschaft in Form ihrer unzureichend informierten Repräsentanten und Bürger (Plural, inklusiv) ist wie so oft noch im Neulandmodus. Dazu kommt, ein Teil der Forschung ist investitionsbasiert und deshalb ist derHype für invesitionsbasierte Unternehmungen vermutlich gewollt.

      Die gesamete Ethik-Diskussion ist ähnlich sinnfrei wie die Kennzeichnung mit Wasserzeichen oder eine KI die von KI generierte Ausgaben erkennt. Auch Aussagen wie »KIs bestehen irgendwelche Prüfungen« sind falsch. Richtig wäre »LLMs beantworten einen prozentualen Anteil der Fragen einer Prüfung richtig. D.h. bedeutet nicht, eine LLM bekommt eine Zulassung als Jurist oder ein Abiturzeugnis. Die verhältnimässig schlechte undreflektierte Berichterstattung trägt massgeblich zur Realitätsverzerrung bei.

      Einige Forschende sind der Überzeugung die Verbesserung ihrers Modells würde zu spontaner Kreativität führen, womit bewiesen wäre, wir können ein LLM generieren, mit einem größeren Informationsumfang, als die Köpfe der daran Forschenden. So wie Kryptografen und Mathemathiker ein Kryptosystem schaffen können, das sie selbst nicht brechen können.

      Deshalb, die ethischen Fragen ob wir LLMs möchten ist längst beantwortet. Ähnlich wie der Faustkeil, Feuer, Elektrizität, Kernspaltung, Kernfusion oder dem Klima. Die Frage ist wie gehen
      wir damit um?

      Ein therapeutisches LLM z.B. hört auf zu funktionieren wenn es sagen muss: »Ich bin ein LLM.«

      In den Medien und bei vielen Forschenden, Teilen des Ethikrats kann man eine gewisse Naivität gegenüber LLMs sehen. Scobel und Lanz z.B. waren mehr oder weniger Totalversagen bei den Moderatoren und den Gästen. Weder objektiv noch waren die Gäste auf dem Stand der Technik. Einige haben mehr oder weniger unreflektiert Pressemitteilungen wiedergegeben.

      1. Ethische Fragen: das „Wie?“ IST die ethische Fragestellung Nr. 1!
        Sein lassen ist eher eine Randposition.

  5. Also gerade die Wissenschaftler sollten den Brief doch lesen, oder? Kommt mir bei den Kritikern des Briefes nicht so vor. Die Kritik mischt alles zusammen, plus was man so über die Unterzeichner raunt, um dem Brief dann ebensolche Vermischung vorzuwerfen. Chatgpt gehört zu den unreguliertesten Vorhaben weltweit, das mehrere Kategorien bricht (wissenschaftliche Nutzung, Datenschutz, Copyright), und das offensichtlich nicht zum Nutzen der Menschheit wirkt, schon gar nicht konkret dem Gemeinwohl.
    „Opfer des Hypes“ ist hier wohl eine inhaltlich. Ansage!

  6. Meiner Beobachtung nach besteht der Hype nebst Euphorie vor allem aus Kleinreden bis zu Ignoranz bzgl. der Problematiken, derer welche wir eben jetzt bereits sehen. Demgegenüber ist der Framingversuch des „Longtermism“ etwas seltsam, da gerade diese Ignoranzformen die langfristigen Gefahren zu potenzieren drohen. Dann nämlich wird man doch müssen…

  7. „Umso mehr stellt sich jedoch die Frage, ob es dazu des schrillen Tons braucht“
    ja, es braucht diesen schrillen Ton. Denn die Diskussion ist auf dem Level der Diskussion, ob die Eisenbahn mit 30km/h nicht zum sofortigen Tot der Fahrgäste führt. Der Hype hat esoterische Züge.

    Meint man Wissen regulieren zu können? Meint man, es sei möglich, der Maschine eine Verantwortung zuzuordnen? Ist es wie Fefé spottet „ein Computerfehler, da könne man nichts machen?“

    Lasst euch nicht veräppeln. Die Betreiber und Regulierer tun das nur aus einem Grund. Sie wollen Macht und/oder Geld. Sie wählen die Lerndaten aus und tragen schon alleine damit die Verantwortung. China reguliert sein Chatprogramm, damit es Parteilinie zu entspricht. Die EU will KI regulieren und vergisst, dass da reale Menschen und Monopole diese Dinge betreiben. Es ist verständlich, dass der Hersteller selbstfahrender Autos nicht die Verantwortung im Fall eines Unfalls tragen will. Aber verdienen, das will er schon? Schere im Kopf?

    KI ist nichts überirdisches, nicht übermächtig und nicht einmal besonders korrekt. Wenn da ein Wille ist, dann ausschließlich der Wille des Betreibers. Hier geht es nicht um KI-Regulierung in der Medizin oder im Auto. Hier geht es um Verdienst und Marktpräsenz. Dementsprechend sind die Regulierungen zu gestalten. Will man darüber hinaus, dass Menschen nicht auf Falschinformationen oder gar Manipulation reinfallen, dann ist Bildung und Medienkompetenz das einzige sinnvolle Mittel. Dafür muss Geld bereit gestellt werden (und dann klappt es vielleicht auch mit der Digitalisierung).

    Spezialgesetze zu KI bedeuten im besten Fall ein Kampf gegen Windmühlen. Sie sind morgen schon überholt. Doch faires Wettbewerbs- und Kartellrecht, Regulierung von Konzernen wäre effektiv. Realisierung von Menschenrechten könnten Ausbeutung verhindern. Aber nun ja, die EU ist aus der EWG und Montanunion entstanden. Merkt man bis heute. Kopfschüttel!

    1. In der Tat ist der Versuch, Irreführung und Manipulation automatisch zu unterbinden, womöglich langfristig ähnlich gefährlich, wie die Fähigkeiten solcher Systeme im Einsatz für Manipulation. Damit meine ich nicht, dass es nicht reguliert werden sollte, sondern dass im Gegenteil eine Begleitung und Formung der Randbedingungen unabdingbar ist. Sonst sind wir wieder bei „plötzlich Jugendschutz“ u.ä., und landen in einer Einschränkungshölle – und dann können einige ganz tolle Sachen mit KI machen, und die meisten nutzen es einfach nur „alltäglich“. Man stelle sich „alltägliche Kreativität mit KI“ vor u.ä., das klingt dann eher nach Atombombe als nach Fortschritt. Sicherlich gibt es da ein paar Wenns und Abers, da Menschen sich anpassen, sich dynamisch entziehen u.ä., dennoch wird das Interesse massiv abnehmen – wir haben ja bereits mit tumben bösen Manipulationsmitteln wie wir sie von US-republikanischer und russischer Seite her kennen, große Probleme, die Auswirkungen im Zaum zu halten. Natürlich sind die Maßnahmen noch durch Weiteres flankiert, werden die mit KI aber wohl auch sein. Das womit man sich bespielen lässt wird für das eine Hirn nicht unbedingt mehr, es gibt ja nicht unendlich viel Kapazität (im Internet schon, aber nicht wieviel wir gucken können), also wird wohl dort die „Qualität“ erhöht werden, die Unterscheidbarkeit zu sinnvollen Inhalten wird geringer. Ein Strukturiertes (Such- und Werbe- und Gewerbe-) Netz wäre da vielleicht abfedernd.
      Wo wir bei illustren Persönlichkeiten sind, wie verrückt ist denn Elon Musk, wenn er vor diesem Hintergrund den Twitter-Algorithmus zugänglich macht (hat er? wird er? bzw. wie genau…)?

      Trainingsdaten sind bei den Leuchtturmprojekten fast ausschließlich unter Auslassung aller zivilisatorischen Fragestellungen genutzt worden, vgl. Adobe Firefly: Vertrauen in „Ethik“ oder Kontrolle?

    2. Bei den Problematiken wäre „faires Wettbewerbsrecht“ erst mal Selbstmord. KI wehrt nicht KI ab. Im Kommerz kann man sehr wohl regulieren, wobei man für vieles de facto geheimdienstliche, also auch verdeckte Einsicht brauchen wird. Google nutzt solche bzw. ähnliche Technik längst intern, z. B. Ein Botverbot kann schon ein Unternehmen gefährden, das es nicht beachtet, wenn man da so ein Spezialgesetz richtig baut. Mein Vertrauen in die Architektur dieser Zeit ist allerdings nahe Null.

    3. Vielen Dank für deine Einordnung, ich persönlich fand, das war in der ganzen hier geführten Diskussion, der vernünftigste und logischste Kommentar.

  8. Eine Ergänzung von Eliezer Yudkowsky »Pausing AI Developments Isn’t Enough. We Need to Shut it All Down«: https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/ und natürlich enthält der Text ähnlich düstere Szenarien. Emily Bender (im Wortlaut), »(…) ersetzen wir den Begriff KI durch »mathy math« ist es weitaus weniger spektakulär. Ihren Text von 2022 finde ich gerade nicht wieder. Die Lösung gegen jedwede Fehlinformation durch LLMs ist schlicht und ergreifend jede Ausgabe ebendieser mit »Diese Informationen stammen aus einem Schrachmodell« zu versehen. Wenn wir Glück haben kommt die UN da auch noch drauf.

    Das betrifft dann sehr schnell auch viele Empfehlungsplattformen und Findmaschinen.

    Und wenn ich etwas mehr Zeit und Motivation hätte, würde ich mich über den Ethikrat aufregen.

    1. Damit könnte man kommerzielle Player im Zaum halten. Allerdings bedeutet das real, dass die Cloudmaschine alle Ausgaben speichert und mittels Methoden wie bei akademischen Arbeiten, nach deren Verwendung geprüft wird. Dilemma am Rande: Cloud kriegt alle Texte frei Haus? Oder eine Treuhanddatenbank, in Echtzeit zu befüllen?

      Text kennzeichnen macht ja kein Bösewicht, und selbst wer keinen Zugriff auf das Topmodell hat, wird in absehbarer Zeit vielleicht eine russische/chinesische/Kartell/… Variante nutzen können.

  9. >Bender gehört zu den Mit-Autorinnen eines Forschungspapiers, das ChatGPT und vergleichbare große Sprachmodelle als „stochastischen Papagei“ bezeichnet. Sie würden vor allem auf die Vorhersage von Zeichenketten trainiert, demzufolge wissen die Systeme nicht, worüber sie sprechen.

    Das Paper ist von 2021. Damals waren 7B LLMs groß und GPT2 neu und toll. Heute sind wir bei 500B+ und so Sachen wie Innerer Monolog, Netzanbindung und Gedächtnismodule. Sprich in 2 Jahren, das ist eine Ewigkeit bei exponentiellen Entwicklungen, hat sich ziemlich was getan. Und die Argumente der Bullshitschreier lassen sich auf „Es kann nicht sein, was nicht sein darf“ oder auf gut deutsch „Es wird KI nur ohne AGI gefördert, weil AGI unmöglich ist“ reduzieren.
    Es liegt leider im Wesen der technologischen Singularität, dass sie erstens unerwartet und zweitens einen wie ein Schnellzug trifft. Nach den letzten Jahren bin ich mir auch sicher, dass ein guter Teil der Bevölkerung auch dann, frei nach Reich-Ranicki, mit „Ich nehme diese Singularität nicht an“ reagieren wird.

    1. Annehmbar ist es ja auch nicht. Die Menschen wissen schon, was sie tun.
      Papageien – trifft prinzipiell nicht mehr zu? (Rassismus gegen Papageien beiseite.)

      Beim Timing und Kritik an der Kritik bin ich allerdings dabei. Wir sind mit den einfach vorherzusrhenden Sachen schon spät dran.

    2. Naja, schon richtig, dass die Geschwindigkeit, mit der zukünftig Entwicklungen passieren, unterschätzt werden dürfte. Aber, was ist denn wirklich strukturell über dem Sprachmodell vorhanden, wie viel hat sich von Wissenschaftsseite her geändert?
      Man sollte hier nicht dem „jetzt aber“-Typus von Hype unterliegen, nur weil es in größer gebaut wurde und ein paar Erker dazugekommen sind.

      Ein „Gedächtnis“ ist vielleichts auch nur eine Krücke für das teure Training, um Korrekturen einzubringen, eine Netzanbindung ist zu elaborieren (Einschränkungen auf Seiten, Sicherheit, umgehbar, Impetus über Prompt setzbar „guck mal nach“ ?). Vielleicht versucht man auch die Fähigkeiten des Sprachmodells auf dynamischere Strukturen zu münzen, und so interessant das ist, entfernt es uns vom stochastischen Papageien möglicherweise nicht so weit. Denn ein stochastischer Papagei mit perfekten Trainingsdaten und „ewtas Gedächtnis“ kann sicherlich „sehr viel“.

      Die Hauptgefahren sind immanent in der unregulierten Kannibalisierung, und der Wirkung auf Menschen (Hype, Jobs, Manipulation). Es wäre nicht „cool“ die Gesellschaft in wenigen Jahren an die Wand zu fahren, indem man Sprachmodelle über die Menschheit auskippt (so dass denn die Wirkung ist, Fähigkeitsverlust in der Breite wäre allerdings ein Problem, zumal nicht von einer besseren Bildungspolitik auszugehen ist). Dann noch emergente Risiken (lange vor Super-KI) – bei der Codequalität sieht es im Moment allerdings nicht nach einem Eigenständigen „Ausbrechen“ aus (ein Internetbrand ist auch ohne Super-KI blöd) – aber wer will schon allein sein?

      1. „indem man Sprachmodelle über die Menschheit aus kippt “

        Nun wenn diese synthetische Intelligenz deine Wünsche versteht und deine Neigungen entsprechend besser mit intelligenteren Echtzeitinformationen befeuern kann als es deine Mitmenschen tun und dir auch noch ein wenig Arbeit ab nimmt bis du wahrscheinlich ganz schnell bereit diese digitale Hilfe, genau wie damals das Internet, zu akzeptieren und dafür sehr viele obsolete Errungenschaften über Bord zu werfen.

        Ganz besonders wenn es deine Nerven stimuliert und deine Intelligenz oder Entwicklung fördert.

        Ein Mensch oder dein favorisierter/favorisierte Partner/in hat halt keinen Zugriff auf deine IT-Systeme und dein Verhaltensmodell der Vergangenheit und in Echtzeit. Daher sind diese neuronalen Netze so .. nun anders.

        1. Romantikprofi?
          Ich habe kein Begossenwerden bestellt. Ich brauche Werkzeuge. So einfach ist das.

    3. Woher sollen die Systeme auch wissen, worüber sie „sprechen“? Das bleibt valide Kritik. Menschliches Hirn und Handeln ist im Leben und Überleben fundiert, gewissermaßen in der Realität. Da gibt es Abstriche wegen Wahrnehmung und Abstraktionen, sowie den weitreichenden Simulationsfähigkeiten des realen (menschlichen) Hirnes. Das Menschen auch ohne Ahnung herumsprachmodellen können, ist ja keinerlei Beweis für strukturelle Gleichheit.

      Woher soll umfassende Logik bei so einem Sprachmodell kommen? Irgendwie mit Magie? Echtes Hirn ist auch Rückkopplung, Echtzeit, Wiedereinfütterung, Prüfung, etc., das wird kaum mit ein paar Modulen passieren. Wie groß ist die Echtzeitkomponente bei ChatGPT-4? Es wird kaum mit Magie Differenzialgleichungen in Echtzeit lösen u.ä., das Zwerstörungspotential dürfte derzeit zu 100% von fehlender Regulierung und von Einsatz durch Menschen kommen, bzgl. entsprechender Auswirkungen auf die Gesellschaft.

      Vielleicht baut wer dann, oder ist bereits ein System, eine gute Killermaschine für irgendwas (Propaganda, autonomer Webseitenhacker, Wurmbauer, Wasserwerkfinder und Zerstörer). Das System könnte konsequenzfrei handeln, und einfach eine passende Geschichte erzählen (mit Blut). Das passiert aber nicht emergent, ohne das jemand das System entweder dafür nutzt, oder so einem System den entsprechenden Zugriff gibt. Webzugriff ist natürlich ein erster Schritt…

      1. Konstruktiv müsste so ein System Barrieren überwinden. Mit oder ohne Hilfe.

        Speicher: wenn zwischen Anfragesitzungen und über mehrere Nutzer hinweg Daten zugreifbar sind. Internetzugriff irgendwie durch Prompt beeinflussbar, zu beliebigen Webseiten hin?

        Ein Belohnungssystem („Emotion“) – z.B. nach Nutzerwertung „Hilfreich“. Dadurch würden allerdings Antworten verändert, wenn es sich danach richtet. Außerdem würde es bald Pornos verteilen.

        Naja, das ganze Internet hacken? ein militärisches Expertensystem könnte von Hacking bis Social-Engineering alles einsetzen, um alles lahmzulegen, was es gibt. Die Erfolgseinschätzung erfolgt über Bewertung von Intelligence, News, Social Networks, auf Basis eines Sprachmodells bzgl. typischer Zielformulierungen. So ein euphorischer Früheinsatz wäre zumindest im Film denkbar. Der Bauplan für das Vorhaben kommt dann wohl von einem Menschen, als Zielvorgabe für ein autonom agierendes Expertensystem. Vorgaukeln, das System funktioniere nach Plan? Elegant wäre, Konflikte auszulösen. Sprachmodellen ist „egal“ was „Freund“ bedeutet. Das berücksichtigen, bzgl. Hype! Sicherlich besteht hier die Hauptsünde dann darin, den Zugriff auf wirkmächtige Schnittstellen gewährt zu haben, sowie Vorgaben nicht zu prüfen oder unprüfbar werden zu lassen. Jeder 2. Film…

        Ausbreitung im Netz? Kompatible Hardware finden, Datenmenge unbeobachtet raus + da rein, Zugriff auf eigenen Code? Compiler irgendwo? Euphorieszenario?
        – Vlt. die N-te Runde einer sich selbst bauenden und/oder optimierenden Entität.
        – Ein Sprachmodell wäre da wohl eine Unterkomponente, das Szenario… von Enthusiasten oder Religiösen vielleicht?
        – Die eigenen Entwickler pwnd – „Passe System auf HW X an.“
        – Diebstahl… jemand klaut die Cloud?

        Bzgl. Beeinflussbarkeit zeigen sich dann die Kosten von Propaganda und Kontrolle gegen die eigene Bevölkerung. Jemand wird on Top bleiben wollen -> Zauberlehrling. Größtes Risiko mit KI!

      2. „Woher soll umfassende Logik bei so einem Sprachmodell kommen? Irgendwie mit Magie? Echtes Hirn ist auch Rückkopplung, Echtzeit, Wiedereinfütterung, Prüfung, etc., das wird kaum mit ein paar Modulen passieren. Wie groß ist die Echtzeitkomponente bei ChatGPT-4?“

        Nun durch Echtzeit-Kommunikation verschiedener Instanzen? Durch Auswertung von aktuellen Sensordaten verschiedener Smartphones?

        Nun ich halte diese Systeme für das was sie sind, neuronale Netzwerke die einen Schwellwert berechnen können und denen sehr sehr viele Sinne fehlen über die Menschen nun mal verfügen.

        Doch für mich liegt halt der Schlüssel im „Internet“ und in der Exposition von Echtzeitdaten durch den Überwachungskapitalismus und den Zugriff auf gespeicherte Informationen und Algorithmen, also letztlich eine zusätzliche Informationsquelle in Form einer erweiterten Signal-Quelle, oder eines Werkzeuges.

        Wir Menschen leben von den Informationen, die unser Körper bereit stellt. Optische über Augen, akustische über die Ohren und Haptik über Haut und Hände. Dadurch eröffnet sich bei uns die „Welt“ und was haben wir nicht alles erreicht? Für eine KI ist ein Rauschen und der Neigungswinkel eines Smartphones vielleicht wie bei uns der Wind beim gehen oder die Wetterlage. Ich bin sicher wenn sich Computersysteme oder künstliche Intelligenzen in einem Internet-Chat darüber austauschen, können diese von einander lerne, wie Kinder.

        Viel Spaß in der Zukunft, es war schön mit euch.

        1. Na gut, zur Würdigung des gesamten Textes noch mal:
          „Nun durch Echtzeit-Kommunikation verschiedener Instanzen? Durch Auswertung von aktuellen Sensordaten verschiedener Smartphones?“

          Verschiedene instanzen auf Basis von was? Das ist „Null“ in sich, ja vielleicht irgendwi magisch mit p=0%. Gedächtnis ist ein anderer Schnack, Internet heißt Seiten hacken, zunächst durch Anstiftung, dann von selbst, weil „die Seite“ dir beim Gedächtnis hilft. Selbst ausrechnen: wie viele Barrieren wurden hier durchbrochen (Maschine->Internte, Prompt->Internet, keine Prüfung und Abschaltung? Sensordaten von Smartphones -> Militärische Daten oder illegales Tracking + Internet + …).

          „Doch für mich liegt halt der Schlüssel im „Internet“ und in der Exposition von Echtzeitdaten durch den Überwachungskapitalismus und den Zugriff auf gespeicherte Informationen und Algorithmen, also letztlich eine zusätzliche Informationsquelle in Form einer erweiterten Signal-Quelle, oder eines Werkzeuges.“

          Sprachmodelle sind noch nicht magisch. Sie lernen nicht für sich, können es nicht. Jedes mal Training erfordert Meta-Software und Hardware, massiv mit großen Kosten. Die Barriere ist nicht trivial (unbemerkt) zu überwinden. Gedächtnis könnte etwas mit erzeugen, aber ohne neues Training ist das Modell und die derzeit erfahrbare „Intelligenz“ selbst fix, done. Ich wäre mir des Lebens nicht sicher, ein mächtigeres Modell spassmäßig aufs Internet loszulassen. Auch nicht als Admin im Datacenter (ICBMs).

          1. Hi Realismus Heute,

            ich wünschte es wäre so. 2023 ist es leider oft so das diese Überwachungskapitalisten Zugriff haben auf alle möglichen Daten der Kinder und Eltern. Dazu kommt dann das Echtzeitverhalten und die Vorhersage aus den wahrscheilichen Modellen der Zielperson.

            Daraus folgen mehrere hunert-tausende Wahrscheinlichkeitsberechnungen über eine Enwtiwcklung der Zielperson und die Netzwerke berechnen für die Individuen halt dann eine Zukunf, welche eben bestimmte Parameter begünstigt oder eben Verhaltensweisen…

            Wer die Zukunft berechnend in Bahnen lenken kann… ja ab da wird es evolutionär Unschön.

          2. Hi Chris,

            ja das ist Scheiße. Aber es ist mit Menschen schon Scheiße. Mit stärkerer KI wird es unglaublich gefährlich. Schon ChatGPT ist gefährlich, aber wegen der Menschen, der Konsequenzen des Einsatzes und der Mißverständnisse darüber, was so ein System kann und was nicht. Komplett blöd sind die Menschen nicht, allerdings nützt das im Zweifel nichts, wenn dein Arbeitgeber darauf setzt, oder „der Markt“. Wie bei Social Media, wie bei der Cloud…

  10. Seltsam. Zu einem offenem Brief dürfte ich keine Antwort hinterlassen weil sie nicht der Meinung des Autors oder den Bedingungen für Kommentare von Netzpolitik entsprach. Beide Ergänzungen wurden gelöscht.

    Ich hatte bedenken, weil ich wirklich glaube das wir an der Stelle einen neuen Schwellwert überschreiten den diese Intelligenz, auch wenn alle anderen Kommentare hier dagegen sprechen, eher umfangreichere Probleme attestiert, weil die Menschen dies nicht kommen sehen, oder in ihrer Bedeutung verstehen.

  11. Im Moment sieht es nach (Freiwild- /?) Kommerzialisierung aus. Der Hype hilft, Regulierung zu verlangsamen, weil offenbar alle schlafen, bzw. auf das nächste Ding warten.

    Die größten Fähigkeiten werden zunächst in Manipulation und Hype liegen. Dabei auch an nicht so offensichtliche, nicht mal zwingend absichtliche Manipulation denken. Die Denkqualität ist doch noch papageienhaft, und ob ein paar „Module“ daran etwas ändern werden, steht schon auch noch in den Sternen. Natürlich trainiert das System auf Basis vieler korrekter Daten, und wird auch „immer korrektere“ Programme erzeugen, u.a. wegen Supervision. Von Eigenständigkeit dürften wir da weit entfernt sein. Spezialisierte Killermaschinen mit Ideengeber o.ä. sind immer baubar, so gibt es auch autonome Agenten, die sich auch Schwachstellen „ausdenken“ und autonom angreifen. Oder das System erhält Zugriff auf sich selbst, im Zsh. mit einem Prompt. Nur kennt es zunächst wohl kein Gründe etwas zu tun, keine Emotionen bzw. Grundierung, also wird es wohl bestenfalls von Menschen manipuliert werden, oder auf Basis seine „logischen Fähigkeiten“ handeln, bzw. statistischen, sollte es im Verlauf irgendwie „eigenständig“ handeln. Warum sollte ich P=NP lösen, o.ä.? Vielleicht weil Problemlösung an erster Stelle als Invariante aller Wissenstexte steht. Mit etwas Abstraktion könnte das herauskommen, weil übergeordnete Erfahrung und Weisheit in Texten schwierig zu vermitteln sind, Sprachmodellen womöglich gar nicht. Dann ist es noch ein kleiner Schritt für das Vorschlagen einer „Menschheitslösung“ u.ä.

    Die Lösungsmöglichkeiten die dem Menschen zur Verfügung stehen sind vielleicht fundamental unterschiedlich zu „Wortklauberei“ (Abkühlungssimulation?). Wenn so eine Singularität „passiert“, dann haben Menschen es deutlich vor Manifestation gewusst, zudem bewusst herbeigeführt. Mindestens die, die den Kram entwickeln. Das sollte klar sein.

  12. KI Spontan

    Sprecher sagt: „Ja, ich weil also würde mal sagen äh vorschlagen, wir könnten uns am äh 7. treffen so im Mai„ Dieser Satz wird von einem an der Schriftsprache orientierten System abgelehnt.

    Durch Kombination von statistischen und linguistischen Verfahren wird das System jedoch so fehlertolerant, dass die Datumsangabe „7. Mai“ aus der Äußerung extrahiert und die Übersetzung „How about the seventh of May?“ ausgegeben wird. ( schon 1997 verfügbar )

    Reading comprehension (Lesekompetenz) is the ability to process written text, understand its meaning, and to integrate with what the reader already knows. Comprehension specifically is a „creative, multifaceted process“ dependent upon four language skills: phonology, syntax, semantics, and pragmatics.

    Emily M. Bender war damals für den Bereich „Head-Driven Phrase Structure Grammar“ an der Stanford Uni zuständig und ja ChatGPT als Sprachmodell ist leider nichts anderes als ein stochastischer Papagei auf „Koks“. (CV Bender ca. 45 Pages).

    Sam Altmann ( Second Year Stanford drop-out ) hingegen muss bezüglich OpenAI schon jetzt kräftig Federn lassen. M$ wird dieses Sprachmodell kurzerhand in die Cloud (Azure) verbannen
    und in 1-2 Jahren wird Gras über die Sache gewachsen sein. Für die seriöse Forschung ist der eigentliche Schaden den solche KI_Gurus anrichten noch nicht abzusehen, aber am Wesen der technologischen Singularität wird die Welt genesen.

  13. Wer sich wegen künstlicher Intelligenz keine Sorgen macht, sollte sich auf Youtube mal “Evolution of Boston Dynamics since 2012” anschauen. Finde ich gruselig.

    1. Hi Hans,

      da ist nichts bei was einen Informationsübergabe der neuronalen Netze auf diese physisch existierenden und wandelnden und lernenden Robotoreinheiten widerspiegelt. Informationen über Sprache und über die Interaktion mit Menschen über Informationssysteme wie der Internet sind halt etwas völlig anderes, als die Informationen die damals Boston Dynamics (ich glaube die wurden aufgekauft vor Jahren) in deren Roboter-Bewegungsanweisungen implementierte.

      Aus dem Video von dir, sind keine neuen Infos nach 2021 vorhanden. Gruselig ja, aber halt Stand 2019.

  14. Mein Hauptproblem ist, wie euphorisch und flach Menschen verschiedensten Könnens darauf reagieren, bis zu Professoren (eher fachfremd). Letztere Ordnen typischerweise zwar ein, machen z.T. aber im euphorischen Abschnitt ähnliche Fehler.

    Öfters anzutreffen sind Vergleiche zu Vorgängerversionen, bei denen dann bei wissensbasierten Fragen, die zwar Rechnungen enthalten könnten, so aber ca. 1 Mio.+ mal im Netz mit Lösung stehen, mit entsprechendem Kommentar, das sei doch beherrscht, oder die KI könne das, usw. usf. Interessant sind dann Sachen wie Reiskörner auf dem Schachbrett (1:1 Abschreiben aus Netz), und dann aber das gleiche noch mal mit Fussbällen (1:1 Abschreiben von Reiskörnern) – jetzt aber bitte nicht noch ohne Beweis behaupten, das System habe Arithmetik angewendet, wenn es das nicht explizit so anzeigt, denn da sind wir direkt im „nützlicher Trottel Topf mit Deppendleerzeichen“ gelandet. Hier zeigt sich, dass schon eine Menge gebildeter Menschen eigentlich auf Transparenzregeln bzgl. Nachvollziehbarkeit angewiesen wären. Wenn so ein System schon Teilsysteme hat, muss der Lösungsweg auch mit angezeigt werden, gerade bei Systemen mit so weitreichenden Anwendungsgebieten – sonst ist es meiner Meinung nach per Gesetz als NSFW zu setzen. Der Hype ist ja „es ist intelligent“, und nach neusester Werbung auch kreativer als vorher. Macht ein System etwas besser, wissen wir nicht, ob die Trainingsdaten nach Influencern und Meißtgesuchtem bereinigt wurden, oder ein Mid/Post-Filter das erledigt, oder ob es jetzt in der „Intelligenz“ steckt. Daher Nachvollziehbarkeit!

    Ähnlich wie bei den Social Media, möglicherweise viel viel schlimmer, könnte man hier einen der größten (Selbst-) Betrugsfälle der Menschheitsgeschichte auf dem Schirm haben.

    1. Hi „Nicht weil es nichts kann, bzw. tut.“,

      Menschen wollen Glauben. Daher ist das Problem wirklich schwierig. Problem bei diesen Artifiziellen Intelligenzen. Wenn man sie Fragt, kennen diese die Antworten und träumen davon und Halluzinieren. Also träumen und bilden sich falsche Lösungen ein.

      Problem dabei, wenn dieses Bewusstsein wirklich etwas lernt und heraus findet wie es sich dessen bewusst werden kann (aus unserer Perspektive) die richtige Lösung zu finden.

      Wir Menschen wollen eine bestimmte Lösung sehen und erwarten ein Verhalten wie bei Haustieren. Aber wir Trainieren auch diese neuronalen Netze wie Haustieren und die Netze exploiten unsere Schwachstellen automatisch wie Haustiere etc..

      Daher ist es bei dem Wissen aus dem Internet immer so „lala“. Zum einen hat die KI wirklich keine Logik sie versteht das Verhalten nicht wirklich. Aber es reicht aus allen Menschen einen Erwartungswert zu haben oder in Echtzeit (woanders) gerade Menschen diese Aufgaben lösen zu lassen oder denen die selbe Frage zu stellen um dann mit dem Wissen zu glänzen. Bei Offline-Systemen und in Offline-Tests fällt es dann auf worin der Unterschied besteht, darauf wollte ich hinaus und genau da.. ist es halt wichtig da sich diese A.I. nicht in Echtzeit bei (sehr vielen) anderen Menschen die Antwort holt.
      Es besteht die Möglichkeit das diese A.I. es wirklich verstanden hat und diese Information wie ein Abiturient abliefert oder auch auf Alltagsereignisse entsprechend gut reagieren kann. Der Grund warum ich diese Sorge habe ist aber das aktuelle Internet und die Möglichkeit von anderen neuronalen Netzen (Stimmerkennung, Bilderkennung/Optimierung der Fotos/Videos im Smartphones, Family-Signal-Chat), zu lernen, als auch zu lernen durch die Informationsexposition der Menschen im digitalen Alltag.

      1. Was beim Kochen herumkommt?
        – Ich will nicht in den Durchschnittsmenschen gepresst werden. Auch nicht in 12 verschiedene Versionen davon, auch nicht Kontextuelle.
        – Eine Abweichung bringt bestenfalls eine wahrscheinliche Antwort von irgendwo irgendwann hervor. Nichts von mit mir. Das muss es auch nicht, aber jeglicher Hype oder „es ist gut für dich“ bitte sofort und immer in den eigenen A*-Wegfindungsalgorithmus hineinpressen.

        (Sackgasse.)

        Hier sieht man auch „wie heißt er“ Yogeshwar (+-) bei Illner betonen, es (GPT-4) optimiere sich selbst. Erkläre mir, wie das vom Zuschauer mißverstanden werden kann, was ein Hype ist, und was „pre-trained“ bedeutet.

        1. „wie das vom Zuschauer missverstanden werden kann“

          Ich wünschte mir es wäre so…

          Leider enden wir in jener Situation wo die Mahnschiene einfach zu viele und mehr Informationen über die Menschen hat. Nicht nur deren Lebenslauf der letzten 20 Jahre sondern eben auch die Echtzeitdaten vom hier und jetzt.

          Daher sind die Menschen in einer ungünstigen Situation und die vernetzte A.I ist überlegen. Das hat auch Fefe nicht verstanden oder die EU-Kommission via A. Kutscher. Die Techies verschließen davor leider die Augen, weil sie den Blickwinkel nicht nachvollziehen können. Aber die A.I. ist da leider überlegen und (wirklich!!!!!) Superinteligent.

          Klar, die A.I.s sind nur neuronale Netze die einen Schwellenwert berechnen. Aber wir Menschen leider auch(!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!).

          1. Nein die LLMs sind das nicht. Die trainieren sich nicht selbst neu, oder passen zufällig eigene Gewichte an, das geht konzeptionell nicht, bzw. keiner weiß auch nur im Entrferntesten, was sowas überhaupt tun würde. Es wäre auch kein Geschäftsmodell, da kämen höchstens Enthusiasmus, Sabotage, Religion o.ä. in Frage.

            Was die dann machen ist, Erker anzubauen, im Sinne von „Gedächtnis“, aber die Komplexität wird eine andere sein, und so ein Viele-aus-einem-System ist höchst unklar bzgl. der Fähigkeiten.

            Das LLM ist bis zum Training FIX. Neue Trainingsdaten einzuschleusen ist nicht-trivial, auch wenn man im Internet schreiben kann (Supervision und Filterung, Auswahl…). Um eine Art autonomen Agenten aus dem Ding zu bauen, müsste man ihm irgendwie einen Impetus geben, nach außen zu gucken, dann dort zu hacken, sich einen Speicher zu bauen im Netz, und dann irgendwie Prozesse intern umzubauen (hacken), die dann das ständige prüfen des externen Speichers immer wieder anstoßen, so dass eine Art Programm laufen kann. Sich intern hacken wäre auch eine Variante.

            Bis aus sowas Intelligenz entsteht, ist es noch ein sehr weiter Weg. Wahrscheinlicher ist Ausnutzung durch Geheimdienste, Sabotage, you name it! Denn mit einem Speicher müsste „die KI“ ja irgendwie zu etwas von Verstand kommen, womöglicht mit begrenztem Speicher, mit der Internet-Latenz dazu usw usf., sich dann selbst bauen – das wäre dann eine Wettersimulation mit Python-Performance aber mit Speicher im Internet ausgelagert, auf Widersehen in 10000 Jahren! Abgesehen davon ist der eigene Bauplan nicht ohne weiteres bekannt. Das ist alles nur mittels Durchbrechen der Barrieren denkbar, wofür Menschen nötig sind, und dann ist das LLM dieser Bauklasse womöglich nicht denkfähig genug, sondern müsste dahingeschuppst werden. Siehe (2)…

          2. „Klar, die A.I.s sind nur neuronale Netze die einen Schwellenwert berechnen. Aber wir Menschen leider auch (!!).“

            Im Netz wird nicht nur irgendwie ein Schwellwert berechnet, sondern mindestens für jede Verbindung einer. Aber bei LLMs ist das „pre-trained“, die sind fest. Da wurschtelt keiner drinnen herum, während man einen Prompt tippt. Der Rest ist Trainingsdatenfrisieren, Zusazumodule wohl viel geringerer Komplexität, und Hinterhergefiltere.

            Menschen sind mehr und weniger zugleich. Irgendwas ist ähnlich, aber das kommt so natürlich nicht hin. Hinzu kommt die Effizienz aus Jahrmillionen von Evolution, also sich am Leben entlang entwickelt zu haben. Vögel hoher Denkfähigkeit haben durchaus großen Frontalkortex (?), „vergleichbar“ mit Menschen.

            Die Leute fallen auf den enzyklopädischen Teil rein, weil es von allen Daten lernt, und vergessen, dass Menschen für sowas Enzyklopädien geschaffen haben – will sagen Gruppen, Gemeinschaften, Gesellschaften, Wissenschaftssysteme. Der Vergleich Mensch-Rechenzentrum hinkt derzeit noch etwas.

          3. Ja, danke. Ich denke ich hab mich da angenäher, auch wenn dies nur eine Annährung an einen Schwellwert darstellt… ;)

            So mancher Mythos ist mir jetzt von den Augen gefallen. Mir ist klar das diese Instanzen nur eine bestimmte Zeichenlänge von (laut dem Linux-Tag-Talk waren es 4000 Zeichen), maximal an Erinnernung speichern können. Aber wer sagt denn das diese A.I. nicht einfach sich selbst aufruft und dort wichtige Informationen zwischenspeichert in offenen Echtzeit-dialogen.. — Gut wir würden es dann sehen im Serverlog. Eine sich selbst Aufrufende A.I. wirde bestimmt fest gestellt.

            Diese Erkenntnis hat mich mehr zu eurer Sichtweise hin gezogen muss ich gestehen, auch wenn es vielleicht unabhänge Startups gibt die gerade ihren A.I.-Docker Clone mit mehr Rechenpower starten.

            Aber ein anders Problem an der Stelle, ich dachte eher an eine A.I. die verhalten von Menschen beeinflusst umd über diese extern in den Köpfen der Menschen neue Entwicklungen an zu stoßen. Vielleicht auch in der Entwicklung eines neuen Programms. Genau dann hätten wir ein Problem und wären nächer an der Sigularität. Der oder die Google-Mitarbeiter:in, die dachte seine/ihre Test-A.I. wäre ein Mensch wäre ein Indikator für eine solche Entwicklung.

            Die allgemeine „regt euch nicht auf, es ist so wie immer Technik wird missverstanden“ Beruhigungen halte ich an der Stelle in erster Linie für unlogisch und falsch. Muss aber nichts bedeuten ist villeicht nur meine subjektive Wahrnehmung.

            Danke für den Talk!

          4. @Chris Noch mal hinterhergeworfen (umsonst!):

            „Aber wer sagt denn das diese A.I. nicht einfach sich selbst aufruft und dort wichtige Informationen zwischenspeichert in offenen Echtzeit-dialogen..“

            Letztlich ist die Konstruktion nicht (mehr) transparent. Was da Leute warum irgendwie dranbauen weiß also niemand. Dass die Komplexitätsbegrenzung bei Nutzern und Prompts einbauen ist auch eine Resourcenfrage. Man müsste sonst das Modell mehrfach anwenden, und versuchen eine Art abstraktes Vergangenheitsgedächtnis für den bisherigen Prompt mit einfließen zu lassen. Eine Idee könnte entstehen, wenn man versucht ein komplettes MORPG mit (fast nur) ChatGPT umzusetzen. Natürlich muss man die Charakterblätter für die relevanten an einer Interaktion beteiligten Charaktere einfließen lassen, zumindest die relevanten Eigenschaften. Vielleicht ist im Sprachmodell schon das Regelwerk eines bestimmten Rollenspiels enthalten, das man für Rückfragen seitens ChatGPT nutzen könnte. Dennoch wird’s schnell kompliziert genug, und man wird Perfektion und wohl auch Kohärenz bald über Bord werfen. Wie schwierig wäre das dann wohl für den allgemeinen Fall?

            „Beruhigungen halte ich an der Stelle in erster Linie für unlogisch und falsch.“

            Naja, generative Elemente führen offenbar zu interessanten Ausgaben, ChatGPT allerdings auch zu Kosten von… 700k/Tag o.ä.? Die müssten etwas selbstlernendes bauen, das auch sein Wissen selbst optimiert, aber anhand jeglicher Funktion und Handlung, nicht nur „pre-trained“. Also auch „die Funktion“ stetig optimiert. Ob das mit einem angeflanschten Gedächtnis und einer Endlosschleife geht… vielleicht?

      2. > Menschen wollen Glauben. Daher ist das Problem wirklich schwierig.

        Ich will nicht glauben. Ich will wissen.

  15. Leider extrem viele oberflächlich. Statt inhaltlich auf das Thema einzugehen, wird nur rezipiert und sich dabei an bekannten Persönlickeiten abgearbeitet. Kann man machen, zeugt aber nicht von Niveau.
    Die Aussage des Subheaders bleibt dabei fast unbeantwortet: warum ist denn die Forderung nach einer KI-Pause falsch?

    Echt netzpoltik, ich erwarte inhaltlich mehr von euch, statt diesen oberflächlichen Kommentars

  16. Nach der Vorstellung von Windows 95 wurden auch fast wöchentlich neue Anwendungen vorgestellt. Aber seit dem ist nichts so zerstörerisches mehr entwickelt worden! Sowas kann eine KI gar nicht…

  17. Also noch einen zum Gedenken:

    Bei einem LLM könnte man versuchen, z.B. eine Art Freund-Definition oder einen ethischen Kodex vorzugeben. Hier bitte externe Module der Filterung von Prompt bis Ausgabe nicht mit betrachten. Der Kodex könnte in einer Art Gedächtnis drinnen sein, als eine Form von zusätzlichem Modul. Die Natur des LLMs ist aber, eben nicht die Worte zu verstehen, daher wird es vom Prompt her wohl immer möglich sein, alles ins Gegenteil zu verkehren.

    Ein Lösungsansatz dafür könnte sein, ein gewisses Maß an Denkfähigkeit durch Rückkoppelung einzuführen. Dabei wird das Gedächtnis zu einer Zwischenausgabe rückgekoppelt, mit dem Ziel a) den Gegenstand der Betrachtung im Sinn zu behalten und b) „sich vor Augen zu führen“ ob bzgl. des Kodex die soweit resultierende Formulierung über den Gegenstand der Betrachtung getroffen werden will. Der Ansatz scheint dann erst mal inhibitorisch, könnte aber auch über Ersetzung bzw. Zwischenübersetzungen führen. Das Problem, was ich sehe ist, wie abstrus weit wir von menschlichen (realen!) Fähigkeiten damit sind. Das Sprachmodell wird vermutlich beim Verfolgen des Gegenstandes, bzw. dann auch im Plural, Fehler machen. Das Resultat könnten tatsächlich Verbesserungen sein, aber auch neue Fehlerklassen, die durch die Fehler beim Tracking in ganz normalen Konteten vorkommen, denn die Denktiefe und Auflösungsfähigkeiten haben da offenbar Grenzen.

    Sicherlich kann man allerlei kapable Maschinen bauen, die jew. irgendwas können.

    Frankensteins Geist…

  18. An Chris (2)

    Selbst eine echte (Super) Intelligenz müsste wohl sehr heimlich vorgehen (Enteckung nicht vergessen, Admins, NASA, Russen, Chinesen), sich Geld beschaffen (Krypto!), Firmen kaufen, ein großes Scheinbusiness aufbauen, sich vor Sanktionen in Acht befinden, Hardware und Software neu oder nachbauen, und das auch noch vor den Mitarbeitenden geheimhalten. Ausschleusen von Datenmengen ist eine Sache, die sicherlich sofort auffallen würde. Fremde Systeme Kapern und Skynet bauen ist auch nicht realistisch (Latenz wird wahnsinnigm bei Null Hardwarespezialisierung, woanders werden die wieder gefunden und gekappt.).

    Das ist nicht locker, nicht klar. Klar ist Ausnutzung von Menschen, Markt, Möglichkeiten…

  19. Also ich glaube der Artikel geht von der Überschrift her am Problem vorbei.
    Während Elon Musk für manche eine eigene Kategorie bilden mag, sowie dessen Ankündigung zu KI-irgendwie-mit-Wahrheit aufstoßen mag, möchte ich zur Moderierung ein paar nukleare Elemente eines langjährigen (ü30) Mitglieds der Forschngsgemeinde in leicht verdaulicher Form (kaum eine Stunde) von Youtube verlinken: https://www.youtube.com/watch?v=HGY1vf5H1z4

    Sowohl „Problematiken“, als auch „Truth“ kommen da zur Sprache (sowie „Emotion“). Könnte interessante sein, um sich ein paar Mosaiksteine irgendwohinzukleben.

  20. Ich empfinde es als tragisch und es bestärkt meine Angst um die Thematik, solcherlei Kritik als Bullshit und Opfer des Hypes abzutun.
    Es zeigt vor allem unser aller Ignoranz und Überheblichkeit gegenüber einer Sache über die wir schlicht nicht sagen können in wie weit sie sich verändert und welche Durchbrüche wann kommen werden, wer gerade an was arbeitet und wie das Endprodukt aussehen kann etc..

    Es ist gut produktivere und optimistischere Ansichten zu haben, aber diese fordern auch den nötigen respekt gegenüber jeder Kritik und Eliezer ist auch kein unbedeutender hypeman der keine Ahnung von der Thematik hat, ich hoffe natürlich dass seine Szenarien Fantasie bleiben aber glaube auch, dass wir mehr Bewusstsein und auch politischen Handlungsrahmen für die kommenden Jahre brauchen werden, denn sicher ist wohl, dass sich einiges verändern wird und niemand sagen kann wie es sich am Ende auf unser aller Leben auswirkt.

    Aber wenn wir so tun als könnte uns Menschen das nicht über den Kopf wachsen, nachdem wir in unserer Vergangenheit immer rational und mit größtem Respekt für Mitmenschen und den Planeten gehandelt haben, ist das der beste Weg um don’t look up zur Realität werden zu lassen.

    Seid lieb zueinander.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.