Künstliche Intelligenz„Eines der größten sozialen Experimente aller Zeiten“

Künstliche Intelligenz und andere innovative Technologien entwickeln sich stetig im rasanten Tempo weiter. Was aber braucht es dafür, damit diese Werkzeuge für uns als Gesellschaft wirken?

Gina Neff
Die Soziologin Gina Neff am 3. Mai 2023 in Berlin – Alle Rechte vorbehalten Mathias Völzke, Montage: netzpolitik.org

Ich möchte mit einer Metapher beginnen, die von Stuart Russell stammt, einem britischen KI-Forscher, der in den Vereinigten Staaten lebt. Russel schlägt vor, dass wir uns Straßenbauingenieure vorstellen, die sehr gut darin sind, Asphalt herzustellen. Und diese Ingenieure würden sagen, weil sie so gute Ingenieure seien, sollten sie auch darüber entscheiden, wo der Asphalt verlegt wird.

Der Strand? Brauchen wir eigentlich nicht. Es wäre viel besser, er wäre asphaltiert. Dein Garten? Gras wird überbewertet, Asphalt ist viel effizienter. Du willst doch nicht hinter der Entwicklung zurückbleiben. Du musst anfangen zu pflastern – und zwar jetzt und sofort.

Die KI, die uns umgibt

In vielerlei Hinsicht ist dies eine treffende Metapher für das, was sich derzeit in der Debatte rund um Künstliche Intelligenz vollzieht.

Lassen wir für einen Moment den Hype, den Überschwang und die Ängste beiseite, die generative KI-Modelle wie ChatGPT, DALL-E und ihresgleichen auslösen. Denken wir stattdessen darüber nach, wie diese Technologien bald fast unsichtbar in zahlreiche Produkte und Dienstleistungen integriert sein werden, die wir in unserem Alltag nutzen. Im Gegensatz zu Asphalt werden wir dann nicht mehr in der Lage sein zu erkennen, ob wir auf Werkzeuge, Interaktionen oder Entscheidungen zurückgreifen, die möglicherweise für uns getroffen wurden.

Es gibt noch eine andere Art, wie die Infrastruktur zu einer sehr wichtigen Metapher dafür wird, wie wir über unsere täglichen Interaktionen nachdenken. Wer sich mit Wissenschaft und Technologie beschäftigt, versteht, dass Infrastrukturen große gesellschaftliche Macht entwickeln, sobald sie unsichtbar werden. Dass die Unsichtbarkeit der Infrastruktur buchstäblich das ist, was eine Infrastruktur ausmacht.

Wir haben Entscheidungen getroffen, die uns heute in die Lage versetzen zu verstehen, wie technologische Infrastruktur unsere Gesellschaft beeinflusst. Und wir können heute Entscheidungen treffen, damit Technologien der „Künstlichen Intelligenz“ für uns funktionieren – und besser funktionieren.

Aber leider werden diese Entscheidungen derzeit lautstark von Leuten vertreten, die behaupten, etwas von Technik zu verstehen. Und nicht von denen unter uns, die sagen: Moment mal, wir sollten ein gewisses Maß an Autonomie, Verantwortlichkeit und Transparenz bei den getroffenen Entscheidungen haben.

Daten werden gemacht

Wir können unterschiedlich über die Daten nachdenken, die unsere technologischen Systeme antreiben. Diese Daten sind gemacht. Sie sind nicht natürlich. Es sind auch keine vorgefundenen Daten. Stattdessen sind sie immer das Produkt von Entscheidungen und Wahlmöglichkeiten. Und diese Entscheidungen haben sowohl soziale als auch technologische Auswirkungen.

Der im Silicon Valley häufig wiederholte Satz, Daten seien das neue Öl, stimmt also nicht. Diese Daten liegen nicht herum und warten darauf, gefunden zu werden. Wenn überhaupt, dann sind Daten die neue Wasserkraft. Die Dämme für unsere kollektiven Daten müssen konstruiert und gebaut werden. Die Daten müssen aufgefangen und nutzbar gemacht werden.

Die falsche Vorstellung, dass es da draußen eine irgendwie natürliche und objektive Datenrealität gibt, spielt in eine Reihe politischer und kultureller Entscheidungen hinein. Entscheidungen darüber, wer die Macht über die zu treffenden Entscheidungen haben soll.

Produkte menschlicher Interaktion

Was sind das für Entscheidungen? Es gibt eine zweite Art, wie wir Daten über nachdenken können, die unsere Systeme heute antreiben: als Produkt menschlicher Interaktionen und Kommunikation. Demnach sind die großen Sprachmodelle (LLMs), die laut der Medien eine gewaltige Bedrohung darstellen, aus den Spuren dieser Interaktionen hervorgegangen. Und diese Daten sind wir. Aber ohne den Kontext werden diese Interaktionen bedeutungslos.

Vor zwei Jahren verfassten zwei Google-Forscher:innen gemeinsam mit anderen Autor:innen eine Studie. Diese Studie legt bereits dar, dass der Weg, auf dem sich KI-Entwicklung vollzieht, ein falscher ist. Und tatsächlich ist es für Sozial- und Geisteswissenschaftler:innen eine unsinnige Vorstellung, dass wir massive Datenmengen und unsere Interaktionen dafür nutzen, um Intelligenz zu entwickeln.

Die Forscher:innen schufen die Metapher des stochastische Papageien. Demnach plappern große Sprachmodellen nur das nach, was wahrscheinlich als nächstes Wort, als nächster Satz, als nächste Formulierung folgt. Aber wie wir wissen, ist Sprache, wie die Linguistin Emily Bender betont, mehr als nur Nachplappern. Stattdessen geht es vielmehr darum, den sprachlichen Kontext zu verstehen. Es geht um ein grundlegendes Verständnis all dessen, was mein Mitautor Peter Nagy und ich die imaginären Möglichkeiten von Technologien („Imagined Affordance“) genannt haben.

Ohne Kontext sind Daten entmenschlicht

Ein anderer Linguist hat dazu eine interessante Idee vorgebracht: Stellen wir uns vor, dass eine Arbeiterin im Restaurant ihr Haarnetz vergessen hat. Wenn wir jetzt fragen würden, was sich besser als Ersatz für dieses Haarnetz eignen würde – ein Hamburgerbrötchen oder eine Sandwichpackung –, dann wäre das für Menschen keine schwere Entscheidung.

Stell Dir vor, Du würdest Dir ein Brötchen auf Deinen Hinterkopf legen. Das funktioniert konzeptionell nicht besonders gut. Wir haben ein mentales Bild, das uns sagt, dass das nicht richtig ist. Doch Sprachmodelle verfügen über diese Bilder nicht. Was sie haben, ist eine Karte. Eine Karte der Gespräche, die im Internet stattgefunden haben, eine Karte unserer Interaktionen. Aber sie haben keine Karte der konzeptionellen Navigation.

Ohne diesen Kontext sind die Daten zwar menschlichen Ursprungs, aber zugleich sind sie völlig entmenschlicht. Die großen Sprachmodelle, die aktuell den Enthusiasmus für Künstliche Intelligenz beflügeln, können uns deswegen auch nicht helfen, uns in diesen Systemen zurechtfinden.

Der Griff nach politischer, wirtschaftlicher und sozialer Macht

Nach der Veröffentlichung sahen sich die Google-Forscher:innen mit dem Vorwurf konfrontiert, bei der Entwicklung großer Sprachmodelle zu allzu großer Vorsicht aufgerufen zu haben. Tatsächlich mahnten sie, dass für die Entwicklung von KI-Modellen immer mehr Ressourcen benötigen würden. Diese müssten immer feiner in das System eingearbeitet werden, so dass dieses nicht nur stochastisch, sondern am Ende auch asymptotisch würde. Die Erweiterung dieser Modelle erfordert demnach immer mehr Daten, Ressourcen und Zeit, wobei der Ertrag immer geringer würde. Die Autor:innen haben daher vorgeschlagen, dass die Vorteile besserer Modelle gegen die finanziellen und ökologischen Kosten abgewogen werden sollten.

Kürzlich schrieb der „New York Times“-Kolumnist Thomas Friedman, dass die Menschheit derzeit zwei Büchsen der Pandora zugleich öffne – nämlich die der KI und die des Klimawandels. Was wäre, so Friedman, wenn wir das eine dazu nutzten, um dem anderen zu helfen? Dieser Vorschlag leugnet allerdings die Tatsache, dass derzeit eine wachsende physische Infrastruktur aufgebaut wird, die diese Modelle vorantreiben soll. Wo aber sind die Leitplanken? Wo ist die Farbe auf dem Asphalt? Wo sind die Autobahnschilder? Wo ist die Fahrausbildung? Wo ist die Infrastruktur, die wir alle für die Sicherheit in unserer sozialen und kulturellen Welt genießen?

Angesichts all dessen würde ich die These aufstellen, dass wir es derzeit mit einem der weltweit größten sozialen Experimente aller Zeiten zu tun haben. Dass die Vorstellung, dass Macht in Daten steckt, auf einer überaus schlichten Vorstellung sozialen Verhaltens beruht. Und dass die Vorstellung von Menschlichkeit, die in die KI-Modelle eingebaut ist, ebenfalls sehr simpel ist. Dahinter aber steht der Griff nach politischer, wirtschaftlicher und sozialer Macht. Und wir haben zugelassen, dass die Idee datengesteuerter Effizienz das Kriterium ist, nach dem wir unsere Entscheidungen bewerten.

Die Folgen unserer Entscheidungen

Die Daten, die diese Unternehmen verwenden, stellen eine enorme finanzielle Investition dar. Und machen wir uns nichts vor: Die großen Sprachmodelle, über die wir hier sprechen, befinden sich in der Hand einiger weniger Unternehmen, die selbst eine der gewaltigsten finanziellen Machtkonzentrationen darstellen, die die Menschheit je gesehen hat. Wenn wir also über Daten als Macht sprechen, müssen wir auch über jene Entscheidungen nachdenken, die in eine solche Infrastruktur und derartige ökonomische Machtkonzentration hineinwirken, und auf denen unsere Gesellschaft dann gründet.

Die derzeitigen Betriebskosten für ChatGPT – nicht die Trainingskosten, sondern die täglichen Betriebskosten – liegen bei schätzungsweise mehr als 600.000 Euro pro Tag. Diese Summe fällt allein für den Betrieb der Infrastruktur dieses Sprachmodells an und für die Menschen, die es begeistert nutzen. Ist dies die Art von Zukunft, die wir wollen? Und wollen und können wir uns als Gesellschaft diese Art von Zukunft leisten – wenn wir den Kampf gegen die Klimakrise und für das Ziel der „Netto Null“-Emissionen als Teil der anderen Büchse der Pandora betrachten?

Was ist mit den Arbeitsplätzen?

Wir haben über Infrastruktur gesprochen, und jetzt möchte ich über Arbeit sprechen. Gerade heute schickte mir ein Reporter ein paar Fragen: Wird die KI unsere Jobs wegnehmen? Gibt es Branchen, in denen KI besonders viele Jobs kosten wird? Und wie lange wird das dauern? Kein Problem, lassen Sie mich diese Fragen in gerade einmal drei Sätzen per E-Mail beantworten!

Schauen wir uns den Stand des ökonomischen Wissens über Produktivität an, dann sehen wir vor allem eine Art kollektives Achselzucken. Wir wissen eigentlich nicht, wie sich Künstliche Intelligenz auf die Arbeit auswirken wird. Die Internationale Arbeitsorganisation ILO schätzt, dass in den kommenden zehn Jahren 100 Millionen Arbeitsplätze hinzukommen werden, 75 Millionen Arbeitsplätze werden verloren gehen. Im Ergebnis wäre das ein Nettogewinn von 25 Millionen Arbeitsplätzen. Das ist großartig – es sei denn, Du bist einer der 75 Millionen Menschen, die wegen Künstlicher Intelligenz ihren Arbeitsplatz verlieren werden.

Die Art unserer Arbeit kann sich jederzeit rasant ändern – konkret die einzelnen Aufgaben, die unsere beruflichen Tätigkeiten ausmachen. Wenn die KI mich eines Tages als Betreuerin von Doktorarbeiten ablöst, dann wird sie den Studierenden drei Dinge sagen: Du brauchst eine stärkere Einleitung. Du brauchst bessere Übergänge zwischen Deinen Thesen und du brauchst einen stärkeren Schluss. Denn das ist, was ich immer sage.

In dem Getöse der vergangenen Monate rund um KI haben wir vergessen, dass eine besonders wichtige Aufgabe darin besteht, Technologien in der Praxis zum Laufen zu bringen. Wenn wir uns die Anfänge der automatisierten Technologie ansehen, die etwa die Arbeit umfassend revolutionieren sollte, dann fiel die Begeisterung damals gewaltig aus. Allgemein wurde erwartet, dass die neuen Technologien die Unternehmen, die Beschäftigten und die Art, wie gearbeitet wird, geradezu auf den Kopf stellen. Die Automatisierung werde Arbeitsplätze vernichten und Arbeitsplätze schaffen, hieß es – ganz so, wie wir es derzeit über die KI hören.

Doch auch nach all den Jahren sind die erhofften Veränderungen nicht eingetreten, obwohl die Automatisierung inzwischen weit vorangeschritten ist. Warum aber ist es so schwer, ganze Branche auszulöschen oder Arbeitsweisen umzukrempeln?

Die Menschen, die den Wandel herbeiführen

Die Antwort lautet: Wir selbst sind der Grund. Wir sprechen meist über Technologie, als würde sie etwas für uns tun. Und nicht so, als wäre Technologie das Ergebnis zahlreicher Aus- und Verhandlungen.

Diese Verhandlungen werden Menschen am Arbeitsplatz auch mit Blick auf die KI führen. Sie werden fragen, wie sich die neuen Instrumente zu ihrem Vorteil nutzen lassen. Springt dabei etwas Nützliches für sie heraus? Und welche Teile können sie einfach ignorieren oder ablehnen?

Dahinter steht ein Konzept der verhandelten Innovation, konkret ein mehrstufiges Modell dafür, wie neue Technologien sinnvoll eingesetzt werden und wie sie unsere Arbeit verändern. Die Sozialwissenschaftler werden erkennen, dass es sich dabei um ein Zusammenspiel von sozialen Strukturen und lokalisierten Praktiken handelt – mit anderen Worten: Das Konzept enthält Bausteine der Sozialtheorie, die das Verhältnis von individuellem Handeln sowie organisatorischen und institutionellen Zwängen beschreiben. Dieses Gleichgewicht zwischen dem Individuum auf der einen Seite sowie dem Institutionellen, dem Organisatorischen, dem Sozialen und dem Kulturellen auf der anderen Seite werden sie nicht in Theorien über technologische Störungen finden, geschweige denn in den aktuellen Schlagzeilen zu ChatGPT.

Wir müssen als Gesellschaft herausfinden, was wir wollen

Unser Modell beginnt mit dem Prozess der Sinnfindung. Und ein Teil dieser Sinnfindung ist das, was wir „Zukunft der Arbeit“ nennen, die Frage also, wie wir Zukunft gestalten und welche Rolle eine neue Technologie dabei spielt.

Diese sinnstiftende Arbeit – und hier verwende ich „Sinnstiftung“ im Sinne des Organisationspsychologen Karl Weich – führt zu bestimmten Erwartungen, die festlegen, wie wir mit neuen Technologien an unserem Arbeitsplatz interagieren. Diese Erwartungen bewirken und formen, wie neue Technologien entstehen. Und es zeigt sich, dass die Menschen, die einen solchen Wandel herbeiführen, nicht die Technologieentwickler:innen sind. Es sind nicht die CEOs und auch nicht die CTOs. Sondern es sind jene Menschen, die an ihrem Arbeitsplatz entscheiden, was für sie und für ihr Team funktioniert. Und in diesem Prozess entscheiden sie auch, welche Regeln sie brechen – also gegen welche sozialen, organisatorischen und institutionellen Zwänge sie verstoßen.

Hier schließt sich der Kreis. Denn um diese Veränderungen auszuhandeln, braucht es Zeit. Und es ist dieser Prozess des Aushandelns, der es uns ermöglicht, die Technologie im Einsatz zu sehen, die sozio-technische Infrastruktur, die sie sein kann.

Wenn wir also die Künstliche Intelligenz für uns arbeiten lassen wollen, dann müssen wir sie zum Laufen bringen. Wir müssen als Gesellschaft herausfinden, was wir tun und was wir ändern wollen. Mit dieser Vorstellung von sozialer Handlungsfähigkeit werden die zu fällenden Entscheidungen erkennbar. Und diese Entscheidungen sind wichtig für unsere Zukunft.

Die Zukunft der KI

Und damit komme ich zur Frage der Zukunft – oder konkreter zur These, dass KI das ist, was wir daraus machen. Ich möchte vorab einen kurzen Überblick darüber geben, wie Arbeit und Infrastruktur uns dabei helfen, über die Zukunft nachzudenken.

Erstens, der Begriff der Infrastruktur, also die Entscheidungen darüber, welche Art technologischer Grundlagen aktuell geschaffen werden. Damit meine ich: Welche Arten von Standards, Daten, Systemen, Normen und Herausforderungen werden wir innerhalb unserer Gesellschaften zulassen und tolerieren? Und werden diese Entscheidungen, die jetzt getroffen werden, einer breiten Öffentlichkeit gegenüber zu rechtfertigen sein?

Eine zweite Entscheidung im Zusammenhang mit der Infrastruktur besteht darin, ob wir bestimmten Unternehmen, die über enorme Datenmengen verfügen, ihre Macht erhalten oder nicht. Das beginnt bereits mit einer allzu panikmachenden Rhetorik gegenüber KI-Technologien. Denn diese unterstützt letztendlich die Argumente der Unternehmen, indem wir sagen: Es gibt keine Alternative zur KI.

Tatsache aber ist: Es gibt solche Alternativen. Die Fragen, die ich mir beispielsweise stelle, lauten: Wie können wir die Offenheit dieser Systeme erhalten? Wollen wir eine geopolitische Realität forcieren, in der die materiellen und infrastrukturellen Ressourcen für den Aufbau gewaltiger Rechensysteme so groß sind, dass dafür staatliches Handeln und demokratische Werte an den Rand geschoben werden? Wollen wir tatsächlich Entscheidungen zugunsten einer Infrastruktur treffen, die der Innovation Vorrang vor allen anderen Werten einräumen? Oder werden wir danach streben, wie wir diese Technologien kreativ und zum Wohle der Gesellschaft einsetzen können?

Eine digitale Gesellschaft, die funktioniert – für uns alle

Was aber ist dieses Wohl? Was heißt das? Wenn wir eine gute digitale Gesellschaft haben wollen, müssen wir verstehen, wie das Gute aussieht. Wir sollten in der Lage sein, es zu definieren und zu messen. Und wir müssen in der Lage sein, entsprechende technische Spezifikationen an die Ingenieur:innen zu übergeben.

Die Herausforderung besteht darin, über diese Ideen des Guten nachzudenken und darüber, wie wir aus sozialwissenschaftlicher Sicht dazu etwas beitragen können. Das ist eine Herausforderung, vor der viele von uns – mich eingeschlossen – bisher zurückgeschreckt sind.

Mein Appell vor allem an die Forscher:innen lautet daher wie folgt: Wir müssen aktiv dazu beitragen, dass unsere digitale technologische Infrastruktur funktioniert – und zwar für uns alle. Die Entscheidungen, die wir aktuell mit Blick auf Technologien der Künstlichen Intelligenz treffen, sind noch keineswegs in Stein gemeißelt. Wir verfügen vielmehr über verschiedene Optionen. Aber es wird viel Arbeit und schwierige Verhandlungen erfordern, dominante Narrative in Frage zu stellen und sich dem Wandel zu widersetzen. Doch nur so können wir die digitale Gesellschaft aufbauen, die funktioniert – und zwar für uns alle.

Der Text basiert auf einem Vortrag, den Gina Neff im Rahmen der Reihe Making sense of the digital society gehalten hat. Die Redenreihe ist eine Kooperation des Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG) und der Bundeszentrale für politische Bildung (bpb).

Gina Neff ist geschäftsführende Direktorin des Minderoo Centre for Technology & Democracy an der University of Cambridge. Sie erforscht, wie sich die rasante Ausbreitung unserer digitalen Informationsumgebung auf Beschäftigte und Arbeitsplätze sowie auf unser Alltagsleben auswirkt. Gina Neff hat an der Columbia University in Soziologie promoviert und berät internationale Organisationen wie die UNESCO, die OECD und das Women’s Forum for the Economy and Society. Zu ihren Veröffentlichungen gehören Venture Labor (MIT Press 2012), Self-Tracking (MIT Press 2016) und Human-Centered Data Science (MIT Press 2022).

29 Ergänzungen

  1. „Metapher“

    Vielen Dank, dass Sie diese hier ansetzen. Das passt sehr gut.

    Das erinnert an Trickle-Down, bzgl. der Variante mit der Schutzkleidung und den Bodyguards. Also der wohlmeinende Reiche Mensch stellt sich in Schutzkleidung auf der Gartenparty hin, und erklärt den Gästen, ihre Anwesenheit sei doch für alle gut, schon aus Sicherheitsgründen. Denn schießt jemand herum, kann die Schutzkleidung des Wohlmeinenden ja die Projektile aufhalten, oder die Bodyguards greifen sogar noch frühzeitig ein. Übersehen wird dann gerne das 1. schon mal von Begin an nicht alle auf die Party eingeladen sind, 2. der Wohlmeinende wirklich auch aktiv vor Ort dabei sein muss, bzw. 3. der Angriff dann auch ungefähr auf ihn gerichtet sein muss, damit die Bodyguards überhaupt eingreifen, bzw. ein Projektil eben zuerst den Wohlmeinenden treffen müsste, der sich sicherlich gerne in der Mitte des Geschehens zu tummeln pflegt, 4. Rüstung und Männer unter Waffen naturgemäß Geld kosten, euer Geld, 5. es für den „vollen Schutz“ offensichtlich jede Menge Daten braucht, ergo Überwachung, damit man Angreifer noch früher findet, und 6. die Leute immer schön nett sein und wählen sollen, damit der Wohlmeinende sich nicht greinend verpieselt.

  2. Der entscheidende Absatz für mich ist folgender: „ Die Herausforderung besteht darin, über diese Ideen des Guten nachzudenken und darüber, wie wir aus sozialwissenschaftlicher Sicht dazu etwas beitragen können. Das ist eine Herausforderung, vor der viele von uns – mich eingeschlossen – bisher zurückgeschreckt sind.“

    Hier liegt der Knackpunkt: die Sozialwissenschaftler versagen (in ihrem Ideal des wissenschaftlichen Objektivismus) schon seit Jahrzehnten, normative Leitplanken für menschliches Denken und Handeln anzubieten. Stattdessen häufen sie einen riesigen Berg an (empirisch statistischen) Puzzle-Teilchen an, mit deren Sortierung man sich lebenslang beschäftigen kann. Das, wovor sozialwissenschaftliche Professoren und Doktoren (und nach eigenem Bekenntnis auch die Autorin) zurückschrecken, stellt sich gefühlt schon seit Anbeginn der rein korrelationsbasierten Wissenschaftsmethodik und nicht erst im Zeitalter mit künstlicher Intelligenz (also nicht erst jetzt). Doch jetzt kann man sich darum nicht mehr herumdrücken und das ist doch mal was! In den nächsten Jahren werde ich gespannt und aufmerksam verfolgen, ob und wieviele Sozialwissenschaftler die Hürde des Zurückschreckens überwinden, ob und was sie anzubieten haben. Nachdem man damit schon seit Jahrzehnten versagt hat, frage ich mich, woher ich Optimismus nehmen sollte.

    Sich zum „zurückgeschreckt haben“ zu bekennen mag ja nett sein, aber es bringt uns definitiv nicht weiter : mal wieder überspringt man die Latte überhaupt nicht.

  3. ChatGPT ist mehr als nur ein nachplappernder Papagei. Er mag zwar noch viele Fehler produzieren, aber einige Antworten auf komplexe Fragestellungen deuten schon darauf hin, dass er ein tieferes Verständnis entwickeln kann.

    1. Entschuldigung, ich hab mich gerade verschluckt vor Lachen. Das „Verständnis“, was manche Menschen in den Antworten erkennen, hat damit zu tun, dass ihnen nicht klar ist, was die Software kann und eben nicht kann. „Tieferes Verständnis“? Nichts deutet darauf hin, dass ChatGPT die Semantik der produzierten Texte erfassen kann. Das behauptet übrigens auch niemand, nicht einmal die Anbieter.

      1. Und hierin sehe ich das eigentliche Problem. Die meisten Menschen (und das meine ich ganz bestimmt nicht persönlich) besitzen nicht genug eigenen Verstand um einschätzen zu können, ob eine KI etwas versteht oder ob nicht; von konkretem Wissen um die mathematischen Zusammenhänge ganz abgesehen.

        Wir haben uns und unsere Mitmenschen so dermaßen an die Dynamik im Umgang mit Computern gewöhnt, die aus fehlerhaften Eingaben, in Folge fehlerhaften Ausgaben und daraus resultierenden Interpretationen (die zu anderen fehlerhaften Eingaben führen um „Fortschritt“ zu machen), dass teilweise das Konzept von „Verständnis“ im Angesicht von Computern ganz abgelehnt wird, à la „Wer weiß schon was in Computern passiert“ oder „Fehlerfreie Software gibt es nicht“. Das liegt natürlich auch an der hohen Unzuverlässigkeit vernetzter Systeme und dem teilweise beliebigen Umgang mit Ausnahmezuständen, die es auf User-Seite wie Magie erscheinen lassen, ob und wann z.B. eine Antwort aus dem Netz kommt oder ob nicht, siehe „Neustart probiert“, „F5 drücken“. Und die meisten Menschen denken, das seien ernsthafte Fehlerbehebungsstrategien.

        Handbücher werden nicht einmal mehr geschrieben, weil sie sowieso niemand liest, geschweige denn sich hinsetzt und die Konsequenzen durchdenkt.

      2. Naja, das „Verständnis“ hat wohl auch damit zu tun, dass in den Ausgangsdaten solches zu finden ist.

        Ob nun eine Art 1-Schrittlösung statistisch signifikant genug in den Daten vorhanden sein muss, oder ob „komplexere“ Schlüsse nötig sind, um solches dann zusammenzusetzen, ist eine weitere Frage. Sicher scheint jedoch, dass für viele prinzipielle Probleme Lösungen im Internet und in der Literatur, inklusive Sammlungen von Prüfungsaufgaben mit Musterlösungen, durchaus in Schritt-für-Schritt aufbereiteter Form zu finden sein dürften.

        Auf das enzyklopädische reinzufallen ist schon bei Menschen blöd, aber bei einer mehr als millionenfach skalierenden „Cloudlösung“ soll es jetzt besser sein. Wie gesagt, Menschen bauen Enzyklopädien, oder eben ChatGPT „gen 2“. Sie lernen nicht alles auswendig, um dann den Planeten als Individuum zu schmeißen. Häufig benutztes, nicht nur im Lehrkontext, wird natürlich gerne auswendig gewusst, und das ist z.B. in der mathematischen Physik vielleicht nicht so wenig. Bei diesen Sachen ist denkbar, das Systeme mit Sprachmodellanteil durchaus irgendwann man als kleine Helferlein fungieren, aber das hat Bedingungen:
        1. Läuft quasi auf Armbanduhr.
        2. Benötigt kein Internet.
        3. Kann nicht am nächsten Tag durch Unternehmens- oder Geopolitik blockiert werden, ergo eher open-source-non-profit, oder ein perfektes Gerät für Formeln u.ä. das nie wieder ein Update benötigen wird.
        4. Menschen müssen weiterhin Fähigkeiten behalten und nicht signifikant degradieren, auch nicht durch wirtschaftliche Folgen oder wie auch immer, z.B. effektiv in der Zahl der Menschen, die sich mit Wissenschaft beschäftigen. Das wäre vermutlich fatal.

        1. Unbenommen, aber wo bleibt das tiefere Verständnis jetzt, das sich bei ChatGPT andeuten soll?

          1. >> Unbenommen, aber wo bleibt das tiefere Verständnis jetzt, das sich bei ChatGPT andeuten soll?

            Das „tiefere Verständnis“ das large language models (LLM) unermüdlich angedichtet wird, ist die Folge eines Mix von PR-Marketing-Hype befeuert durch Medien. Es steckt in den Köpfen jener, die dafür anfällig sind. Und dort wird es wohl auch noch lange bleiben.

          2. Naja, das System besteht schon allerlei Tests, und kann vieles durchaus beantworten. Weiß man was man tut, kann man die tatsächlich vorhandenen Fähigkeiten des Systems unter Umständen für sich nutzen. Hätte ich ein photographisches Gedächtnis gehabt, hätte ich auch nebenbei noch Chinesisch komplett gelernt, Aussprache konnte ich schon ganz gut (simulieren). Für vieles, was Verständnis betrifft, ist auch wissen bzw. irgendwie „Orientierung in Wissen“ notwendig, wobei Menschen nicht alles aktive auswendig wissen müssen, um nach erfogter Ausbildung Fachliches einordnen zu können, wenn sie dann damit konfrontiert sind. Hier kann so ein System auch eine Brücke bilden. Bzw. die nächste/x-te Version von solchem oder ähnlichem.

            Das Enzyklopädische zusammen mit Sprachfähigkeiten hat schon etwas für sich. Ist halt kein Vulkanier…

          3. Ja, allerlei Tests bestanden (was auch viel über die Tests sagt), aber wo bleibt nun das tiefere Verständnis, das sich andeuten soll?

          4. „Ja, allerlei Tests bestanden (was auch viel über die Tests sagt), aber wo bleibt nun das tiefere Verständnis, das sich andeuten soll?“

            Das meine ich nicht zu entdecken, nutze das System allerdings auch nicht. War mehr als „Korrekturbewegung“ zu „nur Hype“ gedacht ;), da es durchaus Nutzen haben kann, wenn man Stärken und Schwächen einzuordnen weiß. Zu bedenken ist, dass ein „innerhalb der Spezifikationen nutzen“ bei einem solchen System schwierig umzusetzen ist, wenn es „irgendwie intelligent“ oder „schon etwas gruselig“ ist.

            Viel Ausschluß hat in der Geschichte über Zugänglichkeit von Wissen stattgefunden, da sind Enzyklopädien ganz nett, Internetsuche auch, Systeme mit LLMs vielleicht auch…

          5. Also mit der Schritt-für-Schritt-Idee sollte das jetzige „Verständnis“ erklärt werden, nicht notwendigerweise ein „tiefes“.

            Ein bischen muss man offenlassen, wenn vielleicht größere oder irgendwie rückgekoppelte (+-Echtzeit) Netzwerke mal bestehen, und dann „plötzlich“ besser sind, aber irgendwo ist die Praktikabilität für das womit die Geld machen dann flöten, bzw. dann allerlei Risiken plötzlich scharfgeschaltet (anderes Thema). Bedenken sollte man, dass z.B. tiefes Verständnis vielleicht wirklich ohne „Rechenfähigkeit“ erlangt werden kann /könnte, oder ziemlich weites. Zur Veranschaulichung AlphaGO: zwei Komponenten (irgendwie neuronale Netzwerke / deep learning), mit Aufgabenverteilung 1. Kandidatenzüge auswählen und 2. Stellung bewerten. Vor allem 2. wäre vielleicht übergeordnet ein Kandidat für „tieferes Verständnis“. Zu bedenken sind die einfachen Regeln gegenüber der echten (Sprach-) Welt, sowie die Tatsache, dass das ganze wohl noch in den Monte-Carlo-Algorithmus eingebettet war, also die eigentliche „Rechenpower“ dort schon gottgegeben war :). An dem Beispiel gemessen, muss der Mensch also platt gesagt 1. die Auswahl der Felder leisten, sowie die Rechenpower, also auch Überprüfung von Behauptungen („Fakten“) leisten!

          6. Monte Carlo mit LLMS, warum denn nicht?

            6 Mio. am Tag mal, äh, Tage, und, äh…

            Spass beiseite, es gibt noch eine Menge magischen Scheißes, den man hier versuchen kann, mit z.T. druchaus erstaunlichen Ergebnissen. Z.B. Monte Carlo ;), wobei dann eine Einschätzung über Kontexte passieren könnte, oder z.B. Eigenfragen wie „Würde ich mich mit dieser Antwort vor mir selbst lächerlich machen?“, oder „Was sagt Kant dazu?“. Ist naturgemäß viel teurer und schwer abschätzbar.

          7. „Würde ich mich mit dieser Antwort vor mir selbst lächerlich machen?“

            Früher hat man das nicht gemacht, weil man dann nicht hat algorithmisch einschätzen können, ob die Antwort ein Ja oder ein Nein bedeuten soll. Wo steht welches System diesbezüglich heute? Bzw. ist man bereit, trotzdem vorwärtszumarschieren?

      3. Wo ist der Daumen nach oben? Besser als Constanzes erster Antwortsatz kann man es nicht beschreiben.

        1. Oft verkennen beide Seiten worauf sich etwas bezieht bzw. beziehen kann.

          Papagei: Ja und nein. Ich sage auch eher Papagei, vor allem wegen des Verständnis. Es wäre allerdings auch Täuschung die bestehenden Fähigkeiten des Systems konkret mit Papageien gleichzusetzen, so wie es ein Fehler ist Fähigkeiten von Vögeln mit mehr oder weniger großem Frontalkortex, Papageien inklusive, mit unseren Vorurteilen über sie gleichzusetzen.
          Verständnis: Da ist das wohl recht präzise. Allerdings wissen wir nicht mal ganz genau, wie es zu dem kommt, was das System jetzt kann. Extrapolation ist wohl nicht so angebracht, wie sie oft angebracht wird („Nur noch einige Fehler ausmerzen.“ – es ist kein Algorithmus mit Konfiguration für „den Fehler“ o.ä., und wenn was verbessert wird, weiß auch keiner, ob das am resultierenden LLM liegt, an frisierten Trainingsdaten, an einem Ausgabefilter, oder an einem Zwischensystem, das während der Lösungsfindung zum Einsatz kommt, z.B. einem kleinen Prozessgedächtnis, oder einem Expertensystembestandteil – da ist Verwirrung vorprogrammiert.)

      4. Sehr geehrte Constanze,

        was wäre wenn du ein normales Leben führen würdest und diese oder eine andere Künstliche Intelligenz (welche du für dieses Beispiel nicht selber trainiert hättest), verfügt über alle Daten deines Lebens rückwirkend bis auf die deiner Eltern der letzten +5 Jahre deiner Lebenszeit?.

        Wäre es vielleicht genug „tieferes Verständnis“? Hier geht es um ein Training von Wörtern, Vektoren und Nähe womit es im Grunde schon möglich ist ein tieferes Verständnis von „Sprache“ zu erschaffen als es den meisten Menschen möglich ist. Ein neuronales Netz lässt sich halt auf verschiedene Dinge trainieren und kann diese dann ganz unterschiedlich wahr nehmen. Es sind Sinne über die wir nicht verfügten. Beispielsweise Muster in Wifi-Signalen und Laufzeiten, verbunden mit einer optischen korellation von Menschen in einem Raum, welche die Signal-Laufzeit verzerren und zugleich individuelle Kommunikationsmuster verraten.

        Für mich ist es leider ein klassischer Fall von, Menschen die mit ihren Gehirnen und exzellten Denkmustern noch in der Vergangenheit stecken und deswegen einfach nicht schnell genug adaptieren können was hier gerade geschieht.

        – Ist ein bisschen wie mit dem Klimawandel, nur war es da eher langsam statt exponentiell und „schnell“.-

        1. Ich verstehe, was du meinst, das hat aber mit dem tieferen Verständnis, was ursprünglich gemeint war, kaum was zu tun.

  4. >> Wenn wir eine gute digitale Gesellschaft haben wollen, müssen wir verstehen, wie das Gute aussieht. Wir sollten in der Lage sein, es zu definieren und zu messen. <<

    Darin dürften die Chinesen weltweit führend sein. Und darauf beruht deren Social-Scoring. Doch wer über das Gute spricht, wird nicht umhin kommen auch über das Böse und Schlechte zu reden. Ist gut, was der Herrschaft dient?

    Xunzi meinte, die angeborene Natur des Menschen sei schlecht, sie sei von Gier und Neid geprägt, was zur Gewalttätigkeit führe. Man könne diese Natur nicht verändern, sondern ihr nur per Willensakt etwas Gegenteiliges entgegensetzen. Das Gute müsse künstlich durch Erziehung erzeugt werden, was Überwindung der menschlichen Natur bedeute. In der Weltnatur sei nichts im ethischen Sinne Gutes anzutreffen; es gebe keinen wohlwollenden Himmel, die menschlichen Bedürfnisse seien dem Universum gleichgültig.

  5. lol….dabei ist chatGPT nicht mal eine wirkliche KI.

    Dieser Umgang mit diesem Begriff ist der erste Fehler überhaupt….

    1. „AI“ zumindest ist schon mal so gut wie alles, auch ein Algorithmus mit zwei Zufallszahlen für die Persönlichkeit, zur Steurung der gegnerischen Raumschiffe in „Aschderoids!“, ohne jegliches Maschinenlernen.

      Die Diskussion ist müßig, starke, allgemeine oder irgendwie KI. Ein Fehler den ich auch sehe, ist wie gefühlt alles „die KI“ wird, also andersherum. Sie wird immer besser (sic!), …. dazu… wo sie wohl Morgen ist (autsch), lineare Extrapolation everywhere (da drüben!), diese ist jetzt stark (auf dem Budget), das ist Intelligenz (mein Prompt), mein Job ist weg (oops), usw. usf. Das ist aber auch eine konkrete Gefahr mit dem Zeug, dass die Menschen verrückt werden, bzw. es genau dafür benutzt wird, bzw. solches für etwas anderes, usw. usf.

  6. Ich möchte der Diskussion um den Begriff (menschliches) „Verständnis“ etwas hinzusetzen, zu bedenken geben. Ich mache das anekdotisch.

    Stellen Sie sich einen Patienten in der Psychiatrie vor, der seinem Psychiater mitteilt, dass auf dessen Schoß ein weißes Kaninchen sitzt. Schließlich steht eine ganze Traube an Psychiatern herum, die darauf beharren, dass da kein weißes Kaninchen sitzt. Der Patient sagt daraufhin: „Mag sein, aber da ist eines, Sie können es nur noch nicht sehen“.

    Nehmen wir jetzt den Astrophysiker, der mit den Gravitationsgesetzen den Zusammenhalt der Spiralgalaxie nicht erklären kann (eigentlich müßte mangels Masse alles auseinanderfliegen). Also fügt er „dunkle Materie“ hinzu. Darauf befragt, was das denn sein könne, antwortet er: das wissen wir noch nicht, da wir es weder sehen noch messen können, aber es ist da (und zu deren Auffindung werden Massen an Forschungsgeldern aufgebracht).

    Das Muster von Patient und Astrophysiker könnte das gleiche sein: Es fehlt noch was, das unsere Argumentation schlüssig macht. Dann greifen wir uns halt was. Ist also menschliches Denken wirklich so besonders ? Oder erwarten wir von KI etwas, zu dem noch nicht einmal der Mensch fähig ist ?! Vielleicht ist alles viel einfacher: ein paar Aspekte werden zu einer „Realität“ zusammengebastelt.

    Das machen auch Verschwörungstheoretiker.

    „… unsere Feinstoffkörper flüstern – wir sollten hinhören und die Sprache wieder erlernen“, sagt eine Frau, die mit einem öffentlichen Aushang für ihre Kurse damit wirbt, eine „Spezialistin für die innere Ordnung des Menschen“ zu sein.

    Meine Meinung: aus ein paar Aspekten wird ein Bild konstruiert. Das wars. Das ist der Mensch. Und das macht auch KI (zur Verzweiflung von Informatiker:innen, die den Begriff KI-Halluzinationen ins Spiel gebracht haben, hahaha). Geoffrey Hinton spricht hier (wie ich finde passender) von „Konfabulieren“.

    Jajajajaja !!! Das ist der Mensch :)

    1. Naja, in der Betrachtung eines Menschen. Ich sehe da vor allem Fallstricke. Die LLMs überzeugen auf keiner Ebene, außer der enzyklopädischen und der des Sprachgebrauchs in diesem Zusammenhang (zumindest für viele). Kein LLM weiß, wie es ist, in einem Fussballstadium zu stehen, und auf Klo zu müssen…

  7. Die von mir ausprobierte KI bei dem neuen Bing hat enttäuschende Resultate gebracht; letztlich lief nichts als eine 2. Alexa, man will „Tipps“ geben und „Hilfen“.
    Diesen Amerikanismus braucht kein Mensch.
    (a la Edge- „News“ und „Hilfe“)
    Kinderkram und billige Werbung!

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.