Es ist die wohl genialste Marketing-Kampagne des Jahres, die sich gerade rund um ChatGPT und sogenannte KI entfaltet. Während der millionenfach genutzte Chatbot auf Wunsch Texte generiert, überhöhen einige Fachleute und Nachrichtenmedien die Durchbrüche bei KI-Systemen zur Science-Fiction-Show. Sie fabulieren, wie die KI wahlweise die Menschheit vernichten oder zu atemberaubenden Höhen führen kann. Dafür ist ihnen offenbar keine Behauptung zu übertrieben.
Jüngst warnte eine Reihe von Fachleuten sogar vor dem Weltuntergang, und Nachrichtenmedien wie der NDR legitimierten die Behauptung durch Schlagzeilen wie: „Experten warnen vor Auslöschung der Menschheit durch KI“. Zumindest hat der NDR das durch einen hinterher geschickten Kommentar relativiert. Doch schon die Nachricht hätte lauten müssen: Branchen-Vertreter*innen überhöhen den KI-Hype ins Absurde.
Der NDR ist dabei nur eine von sehr vielen Stimmen im dystopischen Chor. „Jeder Zweite sieht in KI eine Gefahr für die Demokratie“, titelte im Mai etwa die Deutsche Presse-Agentur, und Zeit Online schrieb im April: „Mehr als die Hälfte der Deutschen hat Angst vor KI“. Die eigentliche Nachricht ist: Immer mehr Menschen fallen auf den KI-Hype rein.
„Wie ein utopischer Tech-Bro“
Die Dystopie ist das eine Extrem der polarisierten Erzählung. Das andere Extrem ist eine Utopie. Der führende Kopf hinter ChatGPT ist Sam Altman, CEO von OpenAI, dem aktuell meist gehypten Tech-Unternehmen der Welt. „Ich hasse es, wie ein utopischer Tech-Bro zu klingen“, sagte Altman im Frühjahr als Gast in einem Podcast-Interview. Nur um daraufhin zu sagen:
Wir können die Welt wunderbar machen, und wir können das Leben der Menschen wunderbar machen. Wir können Krankheiten heilen. Wir können den materiellen Wohlstand steigern. Wir können den Menschen helfen, glücklicher und erfüllter zu leben.
So eine grenzenlose Überhöhung der Technologie findet sich auch in wissenschaftlichen Papern. So haben Forschende etwa getestet, ob Chatbots die Zukunft vorhersagen können. Überraschung: Es hat nicht geklappt.
Utopie und Dystopie, die beiden Pole der Erzählung erfüllen gemeinsam eine Funktion. Sie verengen die Debatte auf eine Entweder-oder-Frage: Bringt die KI enormes Glück oder enormen Schrecken? In den Hintergrund rückt dabei die Frage, inwiefern große Teile des Hypes bloß heiße Luft sind. Davon angetrieben propellert der KI-Hype durch politische, mediale und wissenschaftliche Debatten – und er verspricht Vorteile für alle, die mitmachen.
Der Hype lässt sich Geld ummünzen
Zehn Milliarden US-Dollar, so viel hat Microsoft in Sam Altmans Firma OpenAI investiert. Tech-Konzerne liefern sich ein Wettrennen um die Marktmacht bei generativer KI. Wer dabei Milliarden-Summen einsammeln möchte, muss Investor*innen von der eigenen Relevanz überzeugen. Und wohl nichts erzeugt mehr Relevanz als die Erzählung vom Untergang der Menschheit. Je mächtiger, verheißungsvoller und gefährlicher die Technologie erscheint, desto mehr Geld lässt sich damit machen. Der KI-Hype ist das beste Marketing, das sich Tech-Konzerne wünschen könnten.
Auf erstaunlich wenig Widerrede stößt der Hype, weil intelligente Maschinen seit Jahrzehnten zur Popkultur gehören. Ob Skynet aus „Terminator“, HAL 9000 aus „2001 – A Space Odyssey“, R2D2 aus „Star Wars“, Data aus „Star Trek“, Ava aus „Ex Machina“ oder die Zylonen aus „Battlestar Galactica“ – kaum eine populäre Science-Fiction-Geschichte kommt ohne intelligente Maschinen aus. Die dystopischen und utopischen Erzählungen des KI-Hypes klingen nur deshalb nicht völlig absurd, weil wir sie seit unserer Kindheit kennen.
Es ist eine Ironie des Schicksals: Während sich manche fragen, ob wir durch KI-basierte Bildgeneratoren noch zwischen Fiktion und Wirklichkeit unterscheiden sollen, sind große Teile der Öffentlichkeit längst den Science-Fiction-Erzählungen rund um KI zum Opfer gefallen.
Von Wundern, Helden und der Hölle
Es wäre die Aufgabe von Journalist*innen, diesen Hype zu entzaubern. Stattdessen feuern viele Beiträge den Hype weiter an; wohl auch weil es Zeit und Mühe kosten würde, den Science-Fiction-Erzählungen etwas entgegenzusetzen. Ein drastisches Beispiel ist ein Beitrag des ZDF heute journals vom 30. April. Die Redaktion hat sich von ChatGPT Antworten erzeugen lassen, und das Ergebnis als Interview präsentiert. Schon das Wort „Interview“ ist irreführend, weil es die Erzeugnisse des Textgenerators überhöht und vermenschlicht. Der Textgenerator hat keine Persönlichkeit und keine Meinung, er berechnet bloß Sätze. Zu allem Überfluss ließ das ZDF die Antworten auch noch von einer KI-generierten weiblichen Figur aufsagen, die sie „Jenny“ nannten – als hätte das Gegenüber tatsächlich eine Identität. Das Ergebnis ist eine journalistisch bedenkliche Science-Fiction-Show, und das in einer der wichtigsten Nachrichtensendungen Deutschlands.
Der Hype hinterlässt auch in der Politik Spuren. Das Digitalministerium verglich KI-Systeme jüngst mit dem fiktiven Roboter R2D2 und twitterte am Star-Wars-Tag, dem 4. Mai: „Kein #StarWars ohne KI. Denkt an #R2D2: Der Droide ist ein #KI-Superheld!“ Dazu postete das Ministerium ein Foto mit Digitalminister Volker Wissing (FDP), und dem Spruch: „Vor der KI dich nicht fürchten musst. Unterstützen sie dich soll.“ Das Zitat in der Sprechweise der Figur Yoda ist eine Anspielung auf die „Macht“, eine galaktische Kraft im Star-Wars-Universum, die sich für das Gute und das Böse einsetzen lässt. Offensichtlich spielt hier auch das Ministerium mit der Polarisierung aus utopischer und dystopischer KI. Nichts anderes tat die Europa-Abgeordnete und Digital-Politikerin Alexandra Geese (Grüne), als sie laut heise online von KI-Systemen als „Wunderwerkzeugen und Höllensystemen“ sprach.
Die Realität von Künstlicher Intelligenz ist im Vergleich deutlich profaner. KI ist ein grober Sammelbegriff für Anwendungen, die viele Daten zueinander in Beziehung setzen und auf dieser Grundlage Antworten berechnen. Der gehypte Dienst ChatGPT macht das mit Wörtern. Er reiht aneinander, was laut Trainingsdaten gut zusammenpasst, und erzeugt dadurch überzeugend klingende Texte. Auf diese Weise sind ChatGPT (und ähnliche Chatbots) die ausgefeiltesten Autocomplete-Systeme, die bisher entwickelt wurden. Weltweit probieren Menschen aus, was man damit sinnvollerweise machen kann. Das Fazit ist gemischt. Manches klappt sehr gut, manches nicht. Der Chatbot ist unter anderem großartig darin, kreative Anregungen zu sammeln – und wenig nützlich für Fachtexte, die inhaltlich korrekt sein müssen.
Fokus auf ChatGPT ist Ablenkung
ChatGPT-Fans veröffentlichen reihenweise Tutorials darüber, in welchen Bereichen ChatGPT und sein Nachfolger GPT-4 brillieren soll. Einiges davon könnte ganze Berufszweige umkrempeln, etwa für Entwickler*innen. Auch können Textgeneratoren bewirken, dass wir Suchmaschinen und Online-Dienste vermehrt mit Befehlen in natürlicher Sprache bedienen. Manches wiederum erweist sich bei näherer Betrachtung als Käse. Hier soll es aber nicht darum gehen, in welchen Bereichen Textgeneratoren unser Leben verändern werden, und in welchen es bei ein paar Testläufen bleibt, denn schon der Fokus auf Chatbots ist verkürzt. Längst gibt es viele weitere KI-Systeme mit jeweils eigenen, spezifischen Problemen.
Zum Beispiel fahnden Kameras mit biometrischer Gesichtserkennung nach Kriminellen und machen Unschuldige zu Verdächtigen; Software sortiert Job-Bewerbungen und verwehrt unter anderem Frauen den Zugang zu guten Positionen; Lügen-Detektoren sollen Alarm schlagen, wenn Ausländer*innen bei der Grenzkontrolle nervös zucken. Das Schicksal der gesamten Menschheit steht hier nicht auf dem Spiel, trotzdem sind solche Probleme ernst und werden jetzt gerade im Rahmen des AI Acts auf EU-Ebene verhandelt. Wer solche Probleme bekämpfen will, stößt auf harte Widerstände: etwa auf staatliche Überwachungsfantasien, auf das menschenfeindliche Grenzregime der EU, auf Rassismus und Sexismus.
Kein Wunder, dass manche Politiker*innen lieber vom „KI-Superhelden“ R2D2 twittern – und dass vor allem weiße, männliche, reiche Tech-Visionäre solche Gegenwarts-Probleme gerne beiseite schieben und den Blick auf eine ferne Science-Fiction-Zukunft richten. „Aus Gründen der Publicity inszenierte Täuschung“, so lautet eine Definition des Wortes Hype im Duden, und der aktuelle KI-Hype ist genau das. Um die Risiken von KI-Systemen seriös zu diskutieren, muss man diese Täuschung durchschauen, sonst wird man selbst Teil der Inszenierung.
Ich bin von der Botschaft dieses Artikels verwirrt. Wie viele Forscher müssen etwas sagen, bevor man als Journalist aufhören sollte, von Science-Fiction zu sprechen? Besonders wenn man bereits erkennt, wohin die Reise in verschiedenen Bereichen geht. Nicht zuletzt gibt es gerade Arbeitnehmerkämpfe in ganzen Branchen, weil KI eine Gefahr für diese darstellt (https://en.m.wikipedia.org/wiki/2023_Writers_Guild_of_America_strike#Issues_in_the_strike). Es gibt Stränge künstlicher Intelligenz, die gehypt werden, klar. Aber die Aufgabe von Journalisten besteht nicht nur darin, einen Aspekt zu entzaubern, sondern die gesellschaftlichen Implikationen des Themas insgesamt ernstzunehmen. Der letzte Abschnitt bietet dabei so viele spannende Ansatzpunkte, warum nicht einen herausgreifen und aufzeigen, was KI dort konkret problematisch macht. Bitte bei zukünftigen Beiträgen bedenken.
hi henry, du findest dazu einige berichte auf unserer seite, auf die schnelle würde ich dir diese hier empfehlen: https://netzpolitik.org/tag/algorithmische-diskriminierung/
Für mich beginnt der Hype bereits damit, „KI“ ohne Anführungszeichen als Bezeichnung zu nutzen. „I“ ist es sicherlich ganz und gar nicht, was diese Dinger da machen. Und seit dem Artikel in Netzpolitik.org ist zumindest auch „K“ fraglich, wenn ich die Menge an menschlicher Arbeit darin zu Grunde lege…
Aber leider benutzt sogar Netzpolitik.org dieses Kürzel unkritisch in seinen Artikeln.
wenn man einen begriff wie KI behutsam erklärt, finde ich ihn legitim. spätestens durch einschlägige gesetze wie den AI act werden wir die bezeichnung „KI“ nicht mehr so schnell los. manchmal, wenn ich mich über fachliche ungenaue begriffe ärgere, führe ich mir vor augen, dass auch solche begriffe eine gesellschaftliche funktion erfüllen und ihre vorzüge haben können: z.b. sind sie für viele menschen zugänglich und machen ähnlichkeiten sichtbar. die nachteile sind, dass sie unterschiede unsichtbar machen und irreführend sein können. es gibt immer licht und schatten.
Hi M,
kannst du denn determinieren das dein Gehirn auf dieser Technologie beruht? Es geht bei dem Mythos um Echtzeit und Laufzeit von Berechnungen. Bei neuronalen Netzwerken kommt es sehr wohl darauf an welche Informationen in welcher Reihenfolge gewichtet eintreffen und für diese Illusion eines „selbst“ sind die Knoten auf einem regulären Computer oder einer Serverfarm vielleicht hinreichend vorhanden. Ich weiß es auch nicht aber halte es für wahrscheinlich weil diese Neuronalen Netze, besonders mit dem Zugang zum Internet eben in der Lage sind mehrere Informationen zu sammeln und jene nachweislich den Schwellwerten für ein Bewusstsein, welches wir bei unseren Humanoiden Kindern beobachten können, überschreiten. Dies beunruhigt mich. Ohne Sebastian Meineck zu nahe treten zu wollen, hat er einfach nicht verstanden worum es hier geht, was aber natürlich ist da es sich um eine Zukunftstechnologie handelt welche so noch nie existierte. Wir verlieren Sicherheiten, wie schon bei dem Schwellwert von Schrift und Mathematik oder den ersten Turing-Systemen.
Meine bedenken, liegen in den Systemen, was wenn eine A.I. personalisiert Menschen anschreiben kann und von jenen Lernen, auf Basis der Gigabyte an Daten des Überwachungskapitalismus eins Digital Native, aufgewachsen mit Internet und Smartphone?
Als Wissenschaftler will ich da mal entschieden widersprechen. Der Begriff ist schon sehr alt und das Forschungsthema ob Computer intelligent sind, also in welcher Relation Computer zum menschlichen Denken stehen, geht schon auf Alan Turing und den nach ihm benannten Turing-Test zurück.
Dass du und die Gesellschaft euch falsche Vorstellungen machst um dann diese falsche Vorstellung anzugreifen, das kann man gerne machen, trägt aber zum Erkenntnisgewinn nichts bei.
Also Hype, ja, bin ich ganz bei dir, aber der Begriff passt schon so. Da brauch ich keine Amateure, die mir meine Fachbegriffe erklären wollen.
Interessant zu erfahren wäre, warum auch Wissenschaftler*innen den Apokalypse Brief mitunterzeichnet haben. Auch hier könnte das Marketing-Argument stimmen, müsste aber eigenständig diskutiert werden.
Weil es ein reales Szenario ist, das auch in der Wissenschaft bekannt ist. Wann wir da sind ist unklar, aber das Problempotential auf verschiedenen Ebenen ist ja jetzt schon sichtbar.
Wieder auf „das“ reingefallen. Ich wollte nicht Doomsday-KI mit bereits jetzt sichtbarem Problempotential vermischt haben.
Wie KI, die Jobs erst mal wegmachen wird, zu neuen führen soll, ist mir (naiv gesehen erst mal) schleierhaft. Es entstehen KEINE neuen Produkte. Mehr Werkzeuge usw., die machen aber die Konkurrenz noch schneller, und helfen auch vielen, weniger Spezialisten zu benötigen. Der Markt wird aber nicht größer dadurch. Nie jemals schaffst oder brauchst du annähernd so viel Arbeiter, z.B. um eine Maschine zu bauen, wie die Maschine einsparen hilft. „Nie“, sonst würde keiner so eine Maschine bezahlen können. Die Frage ist was sonst indirekt dadurch geschaffen wird.
Clickworker, ganze Länder an unserer Cloud am Nuckeln, und wir können sie abschalten. Zudem in Ländern die billiger sind, als die die die KI haupts. einsetzen. „Trainer“ – kannste vergessen. Kann alles in keinem Verhältnis zum Impact stehen. Industrielle Revolution war Industrie/Handwerk/Produktion, das ist extrem breit, fast alles was es „gemacht“ gibt. KI… ersetzt Menschen, allerdings oft Menschen, die dann nur andere Menschen damit ersetzen könnten, ermöglicht einige Sachen. Molekülfaltung, Materialien, Steuerung von Sachen usw. usf. sind natürlich interessant. Problempotential entsteht sofort dort, wo die KI das wovon sie Trainiert kaputtmacht, aber nicht nach einem Training perfekt ist (selbst dann, nur weil das unmöglich scheint, zur Illustration).
Nicht mißverstehen, ich bin ein hervorragender KI-Trainer, aber für die nützlichen Systeme, die schnell lernen und rückfragen, die über Können verfügen, die nicht nur Sprachdurchfall produzieren! Daher habe ich mit der derzeitigen Entwicklung noch kleinen Job, der mich nicht töten würde.
Das ändert allerdings nichts am Wegfall von Jobs. Ich sehe schon wie argumentiert wird, dass Jobs schneller neue entstehen werden wie nach der x. Revolution, es also nach wie vor egal sei, was man wie schnell und für welchen „Ersatz“ kaputtmacht.
Hi j,
nun es ist normal wenn ein Kind seine Eltern übertrifft. Es lernt eine weitere Fremdsprache, einen neuen Beruf, verdient vielleicht mehr Geld und hat sehr viele verschiedene soziale Beziehungen. Was wenn eine mittlere Artifizielle Intelligenz dies auch kann? Wenn es jetzt keine Super A.I ist, aber eine die so 150% mehr kann? Dann ist es leider schon ganz klar kein Marketing und die meisten schreiben davon das wir es reglementieren sollten oder die Entwicklung verhindern.
Ich denke es ist (noch) nicht so schlimm. Aber in Teilen. Viele befürchten das Problem mit dem Internet. Zu viel unreguliertes Wissen ist plötzlich zugänglich für Jedermann und Jedefrau. Wenn du dann Jobs erfüllen kannst ohne zu Arbeiten, Geld verdient ohne etwas zu tun. Das ist beunruhigend und wird erst Wertlos wenn diese Anfängerklassen schon hinreichend abgeschöpft wurden.
Es hat dennoch etwas von Apokalypse, leider besonders für jene die mit dieser Alltagsarbeit zuvor ihr Einkommen erschaffen haben. Es gibt so viele Fälle von obsoleter Technik, da ist es leider nur logisch.
Man hat nicht zuletzt in der Corona-Pandemie gesehen, dass es immer wieder Wissenschaftler:innen gibt, die alle möglichen Briefe unterzeichnen. Das sagt über deren wissenschaftlichen Gehalt leider nicht immer viel aus.
Ich war (als Wissenschaftler) vor Kurzem auf einer sehr interdisziplinär (IT, Rechtswissenschaften, Psychologie, Linguistik, Philosophie, etc.) aufgestellten Konferenz zu dem Thema. Da waren durchaus ein paar Vertreter:innen der „Wir können ja gar nicht absehen, was KI bald alles machen wird!“-Position dabei. Die waren aber deutlich in der Unterzahl. Besonders die Computer Scientists (zu denen ich nicht gehöre, ich bin Psychologe) waren doch sehr viel nüchterner und sehen diese Entwicklung vor allem nicht so sprunghaft, wie sie häufig dargestellt wird, sondern sehr viel linearer und vorhersehbarer. Eine Vielzahl derjenigen, mit denen ich dort gesprochen habe, sind ähnlich eher genervt von dem Hype wie der Autor…
Es ist leider Gottes durchaus attraktiv für Wissenschaftler:innen, die eine gewisse Popularität mit ihrer grundständigen Forschung erreichen, sich dann auf den – wie es im Englischen eigentlich ganz treffend bezeichnet wird – „book and lecture circuit“ zu begeben, und dann _vermeintlich_ wissenschaftlich fundierte Perspektiven auf alle möglichen Themen zu publizieren, die mit ihrer eigentlichen Expertise nur randständig oder gar nichts zu tun haben. Jordan Peterson und Steven Pinker sind zwei Namen aus meiner eigenen Domäne. Beide haben in ihren eigenen Forschungsrichtungen wirklich solide bis überragende Forschung gemacht – und erzählen jetzt Zeug über Dinge, von denen sie leider wenig bis keine Ahnung haben… So ähnlich kann ich mir vorstellen, sieht es eben auch beim Thema „KI“ aus.
das dürfte sicherlich den einen oder anderen interessieren: https://www.golem.de/news/us-air-force-ki-drohne-bringt-in-simulation-menschlichen-befehlshaber-um-2306-174641.html
Nein, das interessiert eigentlich niemanden, denn die story hat sich mittlerweile als eine reine SciFi Story entpuppt. Dass die in allen Medien dankbar aufgenommen wurde, demonstriert die totale Inkompetenz oder skrupellose Hypeorientierung der Medien.
Das ist auch voellig unplausibel: Warum sollte der Observer ein bekaempfbares Objekt in der Simulation sein? Wenn Abschuss die Freigabe durch den Observer braucht, wie konnte die Drohne den Observer abschiessen? Warum und wie sollte die Drohne ein Verstaendnis darueber haben, was ein Observer ist und dann noch, welches Objekt im Simulationsraum einen Angriffpunkt fuer diesen Observer darstellt? Warum sollte es einen angreifbaren Funkmasten in der Simulation geben? Warum und wie sollte die Drohne ein Konzept davon haben, was ein Funkmast ist, welche Funktion er hat und welche Funktion in im Zusammenhang mit dem Observer hat. Und so weiter, und so fort. Da ist unendlich viel Weltwissen und Weltverstaendnis drin, die eine noch dazu simulierte Kampfdrohne nicht haben kann und Weltstruktur, die es in der simulierten Welt erst garnicht gibt. Das kann auch nur ansatzweise in Erwaegung ziehen, wer ueberhaupt keine Ahnung vom Thema hat und alles glauben will. Kein Vorwurf, aber eben totales Medienversagen.
Hallo doch, das Gedankenspiel ist real und wird von Armeen unter Garantie auch mit berücksichtigt, im Grunde weil es Allgemeinbildung ist. Man wartet auch nicht darauf, bis sowas passiert (Evolution), sondern baut das System so, dass das unwahrscheinlich oder unmöglich ist (Kreation).
Je weitreichender die Entscheidungen der KI, desto wahrscheinlicher gibt es Zweige auf denen solche Entscheidungen getroffen werden können.
Szenario 1: Testbed, komplett zerstörbare Umgebung. Mal sehen, was passiert.
Szenario 2: Kampfpilot mit KI-Flugzeug. Das Flugzeug kann übernehmen, und prüft stets die Gesundheitsdaten des Piloten, kennt die Randbedingungen unter denen eine Verschlechtertung eintreten kann. Situation 1: abschießen lassen, oder Pilot sanft ohnmächtig machen und gewinnen? Situation 2: ein paar Sekunden mehr Zeit, riskanter Einsatz: Pilot ohnmächtig machen und Einsatz sicher gewinnen, oder jede Sekunde Bangen? Nun 2. im Kontext betrachten, dass aus 1. gelernt wird. Man kann nicht verbieten, jedes einzelne Flugmanöver im Kontext von Pilotengesundheit, Abschusswahrscheinlichkeit und Missionszielerfüllung zu planen.
Szenario 3: Es gibt Regeln, unter denen autonom das Feuer eröffnet werden darf. Wie wäre es, sich vor dem Krankenhaus zu positionieren, um alle Waffen einsetzen zu dürfen, wenn der Feind anrückt? (Bzw. sich so unter Druck setzen zu lassen, dass man dorthin ausweichen darf.)
Zertifizierte Kästchen sind Zielverfolgung und Kanonensteuerung, autonome Fähigkeiten führen sehr schnell zu Obigem. Planungsfähigkeit hat dieses Potential, vgl. Horizont beim Schachcomputer.
„Da ist unendlich viel Weltwissen und Weltverstaendnis drin … eine Drohne nicht haben kann.“
Soll das ein Scherz sein? Die KI weiß was wir ihr füttern. Wenn ungeprüfte Simulationen in das Training einfließen (selbstlernen z.B.), kann sowas ganz schnell bei rauskommen, selbst wenn das eine abstrakte no-shoot-Zone ist, denn man könnte die Zerstörung ja auch provozieren, zunächst unabsichtlich, dann gezielt, letztlich um ungehindert siegen zu können. Das ist ohne weiteres nicht nur plausibel, sondern Grundwissen im Umgang mit „nicht vom Leben moderierten Systemen“.
Der Funkturm ist natürlich fiktiv, „Unsinn“ im Grunde. Aber trainier mal sauber, und habe den Turm vom Feind bombardiert… also muss jemand den Turm schützen, soll die Simulation immer dann abbrechen, wenn der Turm fällt? Kann man machen, allerdings hat alles Konsequenzen. Krankenhaus next ;)…
„Verständnis einer simulierten Drohne“
Schöner Buchtitel. Trainiert man eine lernendes System mittels Simulation, reicht die allgemein irgendwie vorhandene Abschießbarkeit des Turms dafür hin, dass das KI-System die Situation konkret herbeiführen könnte. Das System lernt ja aus Entscheidungen und Konsequenzen, gerade den Schluss zu ziehen, dass das Entfernen des Turms die Erfolgswahrscheinlichkeit erhöht, gehört zu den besungenen Fähigkeiten solcher Systeme. Dabei ist es egal, ob die Drohne direkt drauf schießen kann, oder einen Gegner im Visir haben muss, oder Gegner drauf schießen.
Lediglich in dem Szenario, in dem die KI einen Groll hegen soll, da wird es unplausibel, wenn z.B. die Simulation immer abgebrochen wurde. Ist man dann am Rande der Vernichtung und sagt der KI, sie könne jetzt frei walten, dann fehlen die Simulationen, in denen Sie den Funkturm abschießen konnte, und ihr fehlt das Weltwissen, um „richtig“ handeln zu können.
> Nein, das interessiert eigentlich niemanden, denn die story hat sich mittlerweile als eine reine SciFi Story entpuppt.
Vermutlich war auch genau das von dem Poster gemeint.
Das ist ein perfektes Beispiel: eine SciFi Story als Hype in fast allen Medien.
Medienversagen, entweder inkompetent oder skrupellos.
Nein, eigentlich ist das keinerlei Sci-Fi. Eine taktische KI muss ja auch gegnerische Maßnahmen mit einberechnen können. Vielleicht passiert das nicht der Drohnensteuerung, sondern einer Schlachtfeld-KI. Das, wenn ünberhaupt, ist der Sci-Fi-Teil.
Dass sowas passiert, wenn es als mehr oder weniger direkte Handlungsoption offensteht, ist ALLGEMEINWISSEN im Umgang mit Systemen, die Sachen kaputtmachen können. Sci-Fi ist es also schon mal gar nicht, aber auch nicht prähistorisch, weil es ein ständiger Begleiter beim Bau solcher Systeme sein muss. Sonst gibt es da „Überaschungen“.
Wenn wir uns von der Zeitleiste lösen, stellt sich die Frage nach dem Funkturm. Ist das eine Alamo-Position, die Armee in der Defensive auf den letzten freien Quadratmetern der Welt, umzingelt von you-know-what, oder warum brauchen die einen Funkturm?
„interessieren“
Ich verstehe den einseitigen – Gruß an die Redaktion – Backlash hier nicht. Wie plausibel ist die Story für sich, was ist daran Sci-Fi, und was bedeutet das Dementi, bzw. was bedeutet das Ganze dann.
Das ist wie „Ausspähen unter Freunden… findet nicht statt, weil die gesagt haben, dass die das nicht machen“. DAS ist einseitig, vorschnell und leichtgläubig.
Das mit der Drohne ist wirklich Grundlagenwissen zu KI, wenn man sie Sachen mit Impact machen lassen will. Es ist glasklar, das sowas passieren kann, wenn die KI Ursache und Wirkung in Simulationen durchspielen kann. Dafür ist keinerlei „Weltwissen“ nötig, außer was die Simulation an Anreizen, Handlungsoptionen und Konsequenzen bietet.
Vorschnell ist der Teil mit „Aha, siehste…“, vielleicht auch die Verbreitung bis zum Spiegel und sonstwohin. Tatsächlich haltlos sind die Annahmen mit „viel zu schwierig für eine [KI] Drohne“ u.ä., da es offensichtlich keinerlei Problem für KI bedeutet, auf solche Lösungen zu kommen. Das ist nicht nur Grundlagenwissen, sondern ein Dilemma: du willst, dass im „Notfall“ die KI sehr sehr autonom handeln kann, und das kann eine KI pro Einheit sein plus eine oder mehrere taktische Schlachtfeld-KIs, aber du willst nicht, dass die mit menschlichen Schutzschilden, Funkstörungen und irendwelchen Tricks u.ä. kommen. Elektronische Kriegsführung, Routenplanung, feingliedriger Steuerungszugriff… da ist i.A. kein Schalter für „keine Tricks“. Diesen Notfall sich mal blumig ausmalen, vielleicht von Blüten wie „Stand your Ground“ ausgehend. Kluges Design kann natürlich helfen.
Die Überlegene Partei nutzt das erst mal sehr eingegrenzt, aber asymmetrische Konflikte der Zukunft? Oder mid-low-tech symmetrisch? Da werden andere Sachen abgehen. Der Hauptgrund für not-yet-doomsday ist eigentlich die Batterietechnologie noch vor der Selbstwartung. Die kommen keinen Häuserblock weit, ohne nachzutanken (+-).
The unstated assumption underlying the “extinction” fear is that AI is destined to become terrifyingly capable, turning these companies’ work into a kind of eschatology. “It makes the product seem more powerful,” Emily Bender, a computational linguist at the University of Washington, told me, “so powerful it might eliminate humanity.” That assumption provides a tacit advertisement: The CEOs, like demigods, are wielding a technology as transformative as fire, electricity, nuclear fission, or a pandemic-inducing virus. You’d be a fool not to invest. It’s also a posture that aims to inoculate them from criticism, copying the crisis communications of tobacco companies, oil magnates, and Facebook before: Hey, don’t get mad at us; we begged them to regulate our product.
https://www.theatlantic.com/technology/archive/2023/06/ai-regulation-sam-altman-bill-gates/674278/
Guten Morgen,
Seit bald 20 Jahren bin ich tiefeninteressierter Laie. KI als hype zu bezeichnen, erscheint mir etwas kurz gedacht.
Ein Hype ist NFT. Ein Hype ist auch schnell wieder vorbei.
KI verändert grundlegend und elementar, wie wir mit Computern umgehen werden, bzw. vorhandene Daten nutzen werden.
Vom „einfachen“ Chatbot, bis zur Erzeugung neuer und Medikamente, Werkstoffen, Materialien, chemischen Verbindungen – kurz: es ist ein Quantensprung in der menschlichen Entwicklung.
Die Einsatz- und Verwendungsmöglichkeiten werden für viele Branchen extrem diskutiert sein. Natürlich bietet dies auch die Möglichkeit zum Missbrauch – wie jede Technologie Segen und Fluch sein kann (Stichwort Atomkraft).
Viele Jahre war KI ein eher intellektuelles Thema, erst die Entwicklung von LLMs und die Veröffentlichung von ChatGPT hat hier einen Durchbruch geschaffen.
Werden Milliarden investiert und gemacht? Ja, natürlich – auch bei Erfindung der Eisenbahn und der Dampfmaschine wurde (im zeitvergleich) extrem viel Geld investiert. Neue Technologien kosten nun einmal sehr viel Geld. Bei KI kostet die Rechenleistung nun einmal viel.
Anstelle eines Hypes vielleicht einmal darauf schauen, dass die „Big Techs“ gerade massiv von der Entwicklung der Open-Source Community getrieben werden.
Ich denke, dass wir heute noch nicht im Ansatz die vielfältigen Möglichkeiten und Veränderung durch KI vorhersehen können.
Das ist kein Hype. Es ist die Erfindung von Feuer, Rad und Atomkraft an einem Tag. Gamechanger in a global perspektive.
Ich glaube hier müssen wir mit den Begriffen präziser bzw. subtiler vorgehen. Ich habe den Artikel nicht auswendig, weiß also nicht ob „KI“ jetzt höchstselbst und intrinsisch als Hype bezeichnet wird, vermute aber dass das etwas schwammigere „KI-Hype“ gemeint ist.
Beides wäre nicht nur Hype, unbenommen, aber das erstere wäre unsinniger und scheint auch nicht der Fall zu sein. Das zweite ist, und da greift der Artikel an, konkret spürbar in den Reaktionen von Medien und Menschen (nicht allen).
Es geht um die Suggestion, was diese Systeme wohl am nächsten Tage können werden, wo ein mehr als milder wohlwollender Extrapolationshype auch seitens Medien wahrzunehmen ist. Aber auch einige Professoren lassen sich zu allerlei Ungenauigkeiten hinreißen, und sei es nur ein für Laien mißverständliches „optimiert sich selbst“. Nimmt man die überall präsenten Wiederholungen der Selling Points, zusammen mit abwiegelnden Artikeln über „Hier werden Jobs geschaffen: KI-Dompteure und KI-Käfigbaurer!“, dann kann einem das schon herbeigeführt vorkommen, ist aber letztlich Wurscht, ob es sich hierbei um Dummheit, fehlende Wehrhaftigkeit der anderen, oder einfach nur starke Sichtbarkeit von Werbeartikeln gepaart mit Interesse und opportunistischer Ausnutzung des Interesses handelt. Lediglich den Rückschwung auf die Doomsdayfrage würde ich in diesem Zusammenhang noch mal wagen, denn das gernreferenzierte Papier, hat nicht nur Doomsday zum Thema, sondern die Frage was wir kaputtmachen, und ob das so wirklich in Ordnung gehen soll. Nimmt man den übermäßigen Positivschwung, der sich hauptsächlich auf Cloudlösungen von Konzernen bezieht, für die unter dem Argument des wissenschaftlichen Fortschritts und „Fair Use“ Daten beliebig gesammelt worden waren, bis das Ganze dann zu 100% kommerziell umzäunt worden ist, dann stellt sich der Verweis auf die Schadensmöglichkeiten wiederum schon fast als sarkastischer Kommentar dar.
„Bei KI kostet die Rechenleistung nun einmal viel.“
Eben nicht. Es ist ein Training welches viel kostet und was eine sich selbst referenzierende und trainierende A.I. mit Internet Zugang in einer Loop ebenso automatisieren (könnte) [aktuell stehen die schon unter strenger Regulierung].
Zeichnet sich eben dadurch aus, das ein LNN mit relative wenig Speicher Entscheidungen sehr schnell bei niedriger Watt-Zahl leisten kann.
Biologisch veranschaulicht: Dein eigenes Gehirn mit X Jahren Erfahrung (nach dem Training im Vergleich zu einer A.I.), hat einen Wert aus Erfahrung der Vergangenheit und verarbeiteten Informationen. Der Unterhaltungswert von wenigen Watt durch Nahrung und Sauerstoff, ist verhältnismäßig gering.
Aber meine Sorge beruht auf auf Informationen einer vernetzt/trainierten A.I. welche zuvor per A/B Testing personalisiert wurde mit Daten von Menschen über soziale Medien und im Umgang mit Smartphones, welche anschließend zukünftiges Verhalten beeinflussen oder überwachen sollten. Es ist ein unfairer Kampf.
Die Ölindustrie hat noch nie fair gekämpft, und es war noch nie etwas besseres drinnen als der Klimawandel (oder Weltkrieg).
Was die Kosten betrifft, ist das Training teuer, vielleicht „am teuersten“, aber der Betrieb ist absolut nicht billig. Das sind keine einfachen Datenbankabfragen, die Skalierung kostet schon signifikant Rechenpower, wenn auch linear in der Zahl der Nutzer, also theoretisch planbar.
6 Mio. pro Tag muss man erst mal raushauen, wobei dann vielleicht egal ist, ob das Training 50% ausmacht oder 70%, wenn „wir“ erst bei 5 Mio Nutzern von 6 Milliarden sind.
Und jetzt stell dir vor, die trainierte AI läuft nicht zentral auf einem Server, sondern auf deinem Smartphone oder PC. Die Kosten trägst du! Weiteres Training findet in der Cloud statt und das Neuronale Netz bekommt lediglich ein Update, oder eine Erweiterung, über eine trainierte Sub-A.I. deiner Targetgroup.
Und Wusch, alle Energiekosten fliegen davon… wie bei einem Wörterbuch.
So langsam verstehe ich warum der Umfang dieser Zukunftstechnologie von den IT-lern nicht direkt verstanden wird…
Gesichtserkennung und alles, was FRONTEX mit KI anfangen könnte, betrachte ich als Rückschritt.
Trotzdem hoffe ich, dass der AI Act diese eigentlich interessante Technologie nicht derartig totreguliert, dass jede Innovation aus der EU im Keim erstickt wird. Denn ich fühle mich ein bisschen an „Jugendschutz“ erinnert, dessen ehrlichere Bezeichnung ja auch „Volljährigenbevormundung“ lauten sollte.
Die Konzerncloudmaschine ist ein reales strategisches Problemszenario. Da hilft es auch nicht „offen“ zu sein.
Naja dieser Artikel lässt das Pendel halt ebenfalls in die diametral andere Richtung ausschlagen, was schon ironisch ist, wenn man selbst kritisch von dem „entweder-oder“ der Utopie und Dystopie erzählt. In diesem Artikel gibt es auch keine realistisch Einschätzung über KI-Systeme, sondern nur die Abfertigung aller Berichterstattung als Hype aus Profitgier. Ebenso ironisch, wenn man doch andere Medien für ihre vermeintlich reaktionäre Berichterstattung kritisieren möchte.
Ich stimme zu, dass in der Berichterstattung vieles aus dem Ruder läuft und dass die KI-Branche den Hype natürlich eher pusht, nichtsdestotrotz haben KIs wie ChatGPT ein sehr besonderes disruptives Potenzial, über das diskutiert werden muss. Auch ironisch, dass Sie die DPA-Mitteilung über die Angst vor KI als Gefahr für die Demokratie als Hysterie abtun, nur um dann später selbst Gefahren für die Demokratie durch KI zu beschreiben.
Übrigens ist es auch wenig journalistisch redlich, ein nicht peer-reviewtes Paper mit Sieben Zitationen so zu framen, als stünde es für die Wissenschaft, in der es auch viele Stimmen gegen den KI-Overhype gibt. Als Overhype bezeichne ich Meldungen, die den Weltuntergang und die Unterjochung der Menschheit durch KI prophezeien. Finde es auch irgendwie nicht passend etwas als Käse darzustellen und als Quelle sich selbst anzugeben, wie man auf Mastodon schreibt, dass das halt Käse sei, aber nun gut, ich bin auch kein Journalist.
KI wird in den kommenden fünf Jahren die Arbeitsrealität vieler White-Collar-Jobs veändern und die Tech-Giganten kämpfen (erbarmungslos) um Marktmacht. Die Zivilgesellschaft, die Wissenschaft und natürlich auch die Politik (hoffentlich nicht mehr lange in der Form eines Volker Wissings) müssen darüber diskutieren, wie wir damit umgehen. Bei aller berechtigter Kritik an dem Umgang der Medien und der Unternehmen mit diesem wichtigen Thema, wer das als inszenierte Täuschung abtut hat den Schuss nicht gehört, sorry!
Wobei die Sichtbarkeit der PR-Statements mit minimalem redaktionellem Zusatz für ChatGPT und Bildgeneratoren, sowie die nächsten Drei, schon sehr früh eklatant war. Kritisches war schon schwer zu finden, fundierte Einordnungen ähnlich. D.h. gerade nach Veröffentlichung kann man schon von einer PR-Spritze ausgehen ~ wirklich nur induziert auf Basis der Dummheit all der Outlets?
… produzierte #ChatPDF eine Menge Quatsch; beschrieb nicht vorhandene Verbraucherschutz-Rechte, nannte dafür auf Nachfrage frei erfundene Belege, also: Artikel im Gesetz, in den etwas anderes steht ……. (Zitat aus dem verlinkten „Käse“)
Was wenn das Programm im nächsten Schritt seine eigene Version des Gesetzes im Internet veröffentlicht ? Dann entsteht ein selbst referenzierendes System, dem wir nichts entgegen zu setzen haben. Kein Wiki – Administrator kann auf Dauer gegen einen Chatbot anschreiben. Sind wir dann schon bei der Dystopie des Geschichtsministeriums aus George Orwell 1984 angelangt ? Was bleibt uns als Referenz ?
„Der Bot“ – müsste Accounts selbständig anlegen und IPS wechseln etc. Die Menschen müssten offizielle Seiten Meiden.
Der selbstreferenzielle GAU passiert vielleicht durch Sickern generiert er Inhalte in die Trainingsdaten, wenn generierte Inhalte Dominant werden. Die merken sich alle Ausgaben, aber auch Systeme, die Menschen ersetzen, auf deren Handeln aber die Trainingsdaten beruhen, haben so ein Problem.
Vielleicht geht so ein System dann aufgrund fehlender Entropie ein…
GvB,
ich mache mir an der Stelle weniger Sorgen weil die meisten Menschen schon seit über 10 Jahren in einer personalisierten Blase von Algorithmen leben und sich dem angepasst oder unterworfen haben. Gemeint ist der Effekt der sozialen Medien, welche Inhalte personalisieren.
Jene haben eben jetzt damit begonnen mit diesen Inhalten neuronale Netze zu trainieren … deine Sorgen sind halt schon verzerrt für die einzelne Betracher:in. Ganz ohne Chat-GPT.
Es wird an der Stelle nicht besser wenn neuronale Netze die Eingaben eines Fotos bei der Aufnahme entsprechend optimieren damit ein Foto behalten wird statt gelöscht und ein neues aufgenommen (nur so als Beispiel).
Wir leben nun mal in einer Zeit wo wir uns diesen Optimierungen unterworfen haben und sind damit individuell erst mal Nutzvieh, welches Inhalte generiert für diese selbst optimierenden Prozesse. Es verändert uns und die IT/digitalen Maschinen gleichermaßen.
Die Matrix-Filme haben das vor 20 Jahren schon sehr schön beschrieben.
Christian
Ich würde mich freuen, wenn es eine sachliche Diskussion über die Haftungsfragen geben würde.
Wer haftet für den „Output“ der KI sollte dieser gegenüber Menschen verwendet werden mit nachteiligen Folgen?
z.B. Behördliche Entscheidungen, Banken, Ärzte,…..
Haftet der Anwender (Behörde, Bank, Arzt, Unternehmen,…) oder der KI-Dienstleister der die KI liefert und diese „falsch“ trainiert hat?
Mein Verständnis von KI ist, das eine (mögliche) Antwort mit der höchsten passenden Wahrscheinlichkeit als Antwort zurück „gespielt“ wird.
Wie kann man sicher stellen das die KI nicht lügt und Antworten (auf Grund der Wahrscheinlichkeit) zusammen reimt/erfindet? Siehe das Beispiel von vor einigen Wochen wo 2(!) Schriftsteller erfunden wurden und ein nichtexistierender(!) Kinderbuchpreis verliehen wurde und eine Szene aus einem Buch geschildert wurde das es nicht gibt!
Wenn ich das so sehe was ich geschrieben habe, komme ich mir gerade „sehr deutsch“ vor als typischer Bedenkenträger.
Es gibt einige interessante Entwicklungen in Richtung automatisierter Entscheidungen in EU/DEU, die auch die SCHUFA treffen könnten. Interessant, weil „nur“ von Datenschutzbehörden, wer weiß wie hart das noch fundiert werden wird.
Wie enttäuschend. Das geht nicht, dass ihr eine Verschwörungstheorie verbreitet, wenn KI-Forscher & -Koryphäen einen Konsens äußern und warnen. Welches kommerzielle Interesse soll etwa der „Godfather of AI“ Geoffrey Hinton haben, der ebenfalls mitunterzeichnet hat? Die ganze Logik ergibt gar keinen Sinn.
Das Alignment-Problem bei ist real und ein seriöses wissenschaftliches Feld. Wenn ihr eine Lösung dafür findet: toll.
Wenn sich Virologen darin einig sind, dass Corona existiert, dann kann man nicht behaupten, dass es bloß inszeniert ist. Wenn sich Klimaforscher darin einig sind, dass es den Klimawandel gibt, dann kann man nicht behaupten, dass er bloß eine Erfindung der Medien ist. Wenn sich KI-Forscher und -Experten darin einig sind, dass die reale und akute Gefahr einer Auslöschung durch KI besteht, dann kann man nicht solch einen Artikel veröffentlichen und ein ganzes akademisches Feld diskreditieren.
Bitte recherchiert seriös: schaut euch die Namen der Unterzeichner an. Hört euch an, was sie sagen. Überprüft ihre Aussagen.
Ihr tragt Verantwortung. Seid nicht antiwissenschaftlich.
Ich glaube das das auch Prinzipiell nicht die Intention ist.
Leider wird jeder Angriff auf eine Richtung, oder auch nur der Fokus, schnell zur Werbung für eine andere.
– Einerseits sind LLMs nicht übermächtig kapabel, vor allem im Echtzeit-Selbstlernen.
– Andererseits wissen wir nicht so richtig, ob man schon eine gute Fiesitätenmaschine bauen kann, wenn man z.B. auf geschickte Weise Richtung Frankenstein geht, vor allem nicht wie schnell das dann Effekte zeigt. Vermutlich ist das weit weg von Super-KI, aber vielleicht gut genug, um viel kaputtzumachen – notwendige Bedingung ist in der Regel das öffnen von Schnittstellen für die KI, also Datenströme über die Welt, was Überprüfbarkeit der eigenen Handlungen herstellt, Breitbandverbindungen, usw. usf. Hier werden Kriminelle und Dienste vielleicht zuerst dran sein, und mit dezidierten Leitungen zu bestimmten Zielen operieren, sofern irgendwas mal „funktioniert“.
– Die derzeitigen Systeme entwickeln sich 1. nicht selbst, 2. vermutlich nicht dauerhaft so sprunghaft, wie es im Moment mal scheint, also vielleicht „linear“? Linear suggeriert harmlosen, aber auch stetigen Fortschritt, passt also voll in die PR.
– Doomsday PR: langfristig eher schädlich für ChatGPT u.ä., vlt. kurz noch gut für Konkurrenz, denn es bedingt Regulierung. Ohne Regulierung brennt die Bude garantiert auch ohne Doomsday.
Wenn wir uns von dem „Hype“ um ein bestimmtes System lösen, ist das nahzukünftliche Problempotential riesig. Von SCHUFA, über allesbeherrschende Cloudsysteme, die „frei“ alles als Trainingsdaten abfischen, was es so gibt, bis zu rückgekoppelten Blackboxtests zur Manipulation möglichst vieler Menschen mit variierendem Zeitrahmen. In aller Regel überschreiten hier Menschen die Grenzen aktiv, lassen „sich“ auf Zukunftswetten ein (Trainingsdaten aus dem Nichts?), und das wird wohl noch eine Weile so bleiben. Die großen strategischen Fehler sollte man hier vermeiden.
Auf die Unterzeichner zu schauen ist das genaue Gegenteil von wissenschaftlichem Handeln. Es ist vollkommen egal wer etwas sagt.
Und ich habe da mal eine Gegenfrage: Warum jetzt? Diese ganzen Koryphäen, wie du sie bezeichnest, warum fällt denen jetzt allen gleichzeitig auf, wie gefährlich ihre Forschung die ganze Zeit gewesen ist? – I call ‚bullshit‘.
Das können die gar nicht alle gleichzeitig rausgefunden haben und eine wissenschaftliche Prüfung der Fakten würde Monate in Anspruch nehmen. Was ich damit sagen will, ist, nichts an dem Ablauf der Ereignisse, weder das Timing, noch die Geschlossenheit, noch die Quellen legen nahe, dass hier irgendeine Art von wissenschaftlichem Prozess stattgefunden hat.
„Warum jetzt?“
Brief, weil: ein ultraschneller Hype mit millionenfachem Nutzerzuwachs passiert ist.
Jetzt: falsch, weil die meißten das schon vorher artikuliert haben. Es ist nur kein Hype mit Millionen von „Nutzern“ draus geworden.