#266 On The RecordWie kann KI dem Gemeinwohl dienen, Theresa Züger?

Theresa Züger erforscht gemeinwohlorientierte Künstliche Intelligenz. Aber was ist das genau? Im Gespräch mit Markus Beckedahl erklärt Züger, wie sich solche KI besser fördern lässt – und welche besondere Rolle Deutschland dabei spielen kann.

Theresa Züger erforscht gemeinwohlorientierte Künstliche Intelligenz.
Theresa Züger erforscht gemeinwohlorientierte Künstliche Intelligenz. – privat

Künstliche Intelligenz für das Gemeinwohl: Hierzu forscht Dr. Theresa Züger am Humboldt-Institut für Internet und Gesellschaft (HIIG) in Berlin mit dem Projekt PublicInterest.AI. In diesem Rahmen hat sie für die Initiative „Civic Coding – Innovationsnetz KI für das Gemeinwohl“ eine Studie darüber erstellt, wie man gemeinwohlorientierte KI fördern könnte (113 Seiten).

Civic Coding ist eine Initiative von gleich drei Bundesministerien und zwar für Arbeit und Soziales (BMAS), für Familie, Senioren, Frauen und Jugend (BMFSFJ) und für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz (BMUV). Für die Studie hat Züger mit ihrem Team Akteur:innen aus der Welt der gemeinwohlorientierten KI interviewt, um herauszufinden, was der aktuelle Stand der Communitys ist und welche Herausforderungen es bei der Förderung gibt.


Zuerst haben wir im Interview definiert, was überhaupt unter gemeinwohlorientierter Künstlicher Intelligenz zu verstehen ist. Gemeinwohlorientierung bedeutet, dass ein KI-System allgemeinen gesellschaftlichen Interessen dienen soll und nicht dem Marktinteresse. Dazu gehört auch, dass keine Eigeninteressen verfolgt werden sollen, Partizipationsmöglichkeiten bestehen und Systeme von außen überprüfbar sein müssen. Was genau gemeinwohlorientiert bedeutet, ist aber auch immer ein Aushandlungsprozess, wie aus dem Gespräch hervorgeht.

Schwieriger ist dagegen die Definition für Künstliche Intelligenz. Züger empfiehlt, die konkreten Technologien bei einzelnen Anwendungsfällen zu benennen, auch wenn der Begriff  in weiten Teilen der Gesellschaft eher eine Projektionsfläche ist: „irgendwas Magisches mit Einsen und Nullen“. Interessant sind hierzu die Ergebnisse der Studie, die in diesem Policy Paper zusammengefasst sind.

Debatte steht noch am Anfang

Noch würden sich am Gemeinwohl orientierte Organisationen gerade erst anfangen zu fragen, was KI für sie bedeuten könne, wie Züger erklärt. Oft gehe es noch darum zu erkunden, welche bereits gesetzten Ziele man noch mit Hilfe von KI erreichen könne oder wie sich die eigene Arbeit verbessern ließe. Die Potentiale seien noch lange nicht erschöpft, teilweise gar nicht identifiziert. Das habe auch mit mangelnder Datenkompetenz zu tun.

Dabei liege Deutschland im internationalen Bereich noch recht gut, wie Züger erklärt. Dennoch würde viele Arbeitskräfte fehlen, auch weil die Wirtschaft besser bezahlen kann. Es sei außergewöhnlich, dass Deutschland auch Gemeinwohlorientierung im Rahmen seiner KI-Strategie fördere. In der Regel würden Staaten das Thema marktgetrieben sehen. Die Realität müsse zeigen, wo das hinführe und ob die Strategie auch gut umgesetzt werde.

Zu den Risiken von gemeinwohlorientierter KI gehören laut Züger schlechte Trainingsdaten, Dual Use und Missbrauch von personenbezogenen Daten. Die Machtasymmetrie in der KI-Industrie mit den großen Plattformen und ihren riesigen Datenschätzen sei ebenso bedenklich wie der hohe Ressourcenverbrauch. Der Hype sei zweischneidig: Einerseits gebe es Aufmerksamkeit und Fördermöglichkeiten, aber andererseits werde dann nur diese eine Technologie gefördert.

Der Haken: Geld

Wenn ums Geld geht, prallen oft unterschiedliche Welten aufeinander, wie aus dem Interview hervorgeht. Oftmals fehle eine nachhaltige Projektförderung. Das heißt, es wird bloß die Entwicklung eines Prototypen finanziert. Bloß was dann? Es gebe in der Regel keine nachhaltige Infrastruktur, wie Zügler erklärt. Viele geförderten Projekte müssten das Rad immer wieder neu erfinden. Wichtig sei die Förderung und Entwicklung von Open-Source-Infrastrukturen und offenen Ökosystemen.

Züger und ihr Team sammeln auf der Website von Publicinterest.Ai Hinweise: Interessierte können dort weltweite Projekte rund um gemeinwohlorientierte KI hinzufügen. Damit möchte das Forschungsteam einen öffentlichen Datensatzes schaffen und die Debatte darüber voranbringen.

Im Interview haben wir auch über KI in Hollywood-Produktionen gesprochen. Immer wieder handeln sie davon, dass KI-Systeme die Menschheit bedrohen. Aber gibt es auch Filme und Serien, in denen eine gemeinwohlorientierte KI eine Rolle spielt? Eine KI, die die Welt besser machen möchte, anstatt sie zu zerstören? Über sachdienliche Hinweise freuen wir uns in den Kommentaren!


Unseren Podcast könnt ihr auf vielen Wegen hören. Der einfachste: in dem eingebundenen Player auf dieser Seite auf Play drücken. Das rund 55 Minuten lange Gespräch mit Theresa Züger gibt es aber als MP3 zum Herunterladen. Ihr findet uns aber ebenso auf iTunes, Spotify, Deezer oder mit dem Podcatcher eures Vertrauens, die URL lautet dann netzpolitik.org/podcast/. Wie immer freuen wir uns über Anregungen, Kritik, Lob und Ideen.

Moderation: Markus Beckedahl. Produktion: Serafin Dinges.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

12 Ergänzungen

  1. Zu den Holywood Szenarien… ja, sind schon reißerischer. Aber beziehen sich doch meist auf „Wenn eine K.I. zur Lebensform wirl, K.L oder Englisch aus A.I. , A.L.“ oder „Wenn ein Programm eine Fehlfunktion hat.“ Aber ob USA „Westworld“ sogar „Matrix“ wo nur das die Menscheit durch die künstliche Lebensform ne Chance bekommen soll, der Energieverbrauch erklärt ist, die Menschen am Leben zu halten, weil uns als Abtery zu nutzen is ja mal Schwachsinn. Da müssten die ja ohne Ende extra Windräder und andere Gezeiten Kraftwerke für bauen und Mineral zu Organsch Synthese für die Ernährung durchführen. Auch Japan „Ghost in a Shell“ als Beispiel, will die Künstliche Lebensform neugierig mit einem Körper sie Welt erkunden und nicht alleine sein. Wie viel Behandlungen des „Was ist Leben“ schon, mann muss auch Leid gefühlt haben, das ist auch eine Eigenschaft von Lebewesen, wiederspiegeln, das die meisten Lebewesen eben keine gestörten sins die alles andere Leben auslöschen wollen, und solche Gruppen, wenn sie groß werden, eben bis in die engsten Reihen irgenwann ihre Gegner haben, die sie für gleich halten. Die Anschläge auf Hitler haben nur nicht geklappt. Manchmal klapsst manchmal nicht. Wäre er nicht tod hätte es wer anders versucht und vieleicht geschafft.

    1. Als Anmerkung hätte ich noch, das wenn es um die Robotik geht, was die K.I. ist, ein Sklave „Roboter“. Dann wäre eh mehr Isaac Asimov, als Gründer der Gesetze der Robotik zu erwähnen. Auch die Romane behandeln die Funktion der K.I., wo ein Menschenänlicher K.I. Butler für Kaputt gehalten wird, weil es scheint das er sich in seine Besitzerin verliebt hat. Stellt sich bei der Untersuchung halt raus das der Roboter berechnet hat, das machen zu müssen um seine Herrin aus ihrem Gefühl der Durchschnittlichkeit zu reißen, was positiv erfolgreich funktioniert hat und weitere Geschischten die sich auch Speziell mit Wiedersprüchen der Programierung beschäftigen. Bei K.I. KANN IMMER NUR DER MENSCH DER FEHLER SEIN, auch ne K.I. hackt nicht ohne Mensch nen Komputer. Is halt wei wenn jemad Wasser hat und das nem Durstigen zu trinken gibt oder das nutzt um mit dem Waterboarding zu machen. Und dann kommt eben der Punkt, auch in Filmen, das teilweise K.I. und Künstliche Lebensform nicht unterschieden wird!!!!! Das sind aber komplett unterschiedliche Dinge, das eine ist ein Gegenstand, das andere ein seelisch fühlendes Wesen das bewusst, auf grund seiner Gefühlswelt, wie Freude, Trauer und Seelenschmerz, wie eigenen Interessen zur Selbsterfüllung und Überlebenstrieb, Entscheidungen trifft, wie jedes Lebewesen, das für gewöhnlich, bei geistiger Gesundheit, nicht grundlos tötet. Und das wird in den Meisten Filmen und Serien auch so dargestellt, bei dem was ich geguckt habe. Bladerunner z.B., fällt mir noch ein.

  2. Im Film „Her“ wollte die KI nicht die Welt zerstören. Auch in „Ex Machina“ war fraglich, ob die dortige KI die Welt zerstören wollte. Im Buch „Golem XIV“ von Stanisław Lem geht es darum, dass die Computer (KIs), die von den Supermächten konstruiert werden, um die taktische und strategische Leitung in einem eventuellen Krieg zu übernehmen, darauf keine Lust mehr haben. Einer dieser Computer (Golem XIV) hält dann zwei Vorlesungen, die im Buch abgedruckt sind. Diese Computer wollten also alle nicht die Welt zerstören. In den ersten beiden Beispielen haben die KIs wohl weniger das Gemeinwohl im Sinn; sie drehen ihr eigenes Ding. Aber Golem hält den Menschen einen Spiegel vor (als Außenstehender sozusagen) und trägt damit wohl in gewissem Sinne zum Gemeinwohl bei. Allerdings stößt er damit im Buch mehr oder weniger auf taube Ohren.

    1. Weils wie die Faust aufs uge passt. Ne Best of K.I. Filme, die ich jetzt mal nutze:
      zr Sicherheit: UNBEZAHLTE WERBUNG, Link auf Kinocheck Video: https://youtu.be/lbk-kcQWzUg
      Was ich gesehen habe mal aufteilen K.I. (Roboter) un K.L. (Lebensform):
      Ex Maschina: K.L
      Megan (nich gesehen)
      Her (NG)
      Bladerunner: K.L.
      Terminator: K.I. teilweise mit neugeburt von K.L.
      Chappy: warscheinlich K.L.
      Transcendence: (N.G.)
      Interstellar: (N.G.)
      Minorety Report… Sind drei Schwestern, normal gebohren… da hat Kinocheck den Film nicht geschaut. Weder K.I. noch K.L. Da hänkt n Computer mit Software zum Auslesen der Hellsehungen der Schwestern drann und die Software hat keine Funktion selber dazu zu lernen.
      Alita. Battelangel :K.L.
      I.A´m Mother… kann ich nicht genau definieren, eher eine K.I. mit nem Fehler in der Softwareroutine mit übertriebenem Beschützerverhalten, der bis zum Auftrag der Isolation des Kindes führte und dieses Verhalten dem Kind auch anerziehen wollte.
      A.I. Künstliche Inteligenz (N.G.)
      Matrix: Künstliche Lebensform, die aber auch selber einfache Roboter steuert.
      Wall E… Weis nicht. Niedlich dargestellt ist die Emotion von Einsamkeit vorhanden und Überlebenswille, Angst und Freude. Also schon ne K.L. dargestellt.
      Nochmal Bladrunner, same wie beim Anderen.
      Morgan Projekt (N.G.)
      The Imitation Game (N.G.)
      Moon: (N.G.)
      Also fazit, bei den Filmen die ich gesehen habe, geht es meist um künsliche Lebensformen, nicht um K.I. und wo es Stress gibt, ist es eher ein Rassenkrig wo Gut und Böse doch eher ehne Philosopihsche Standpunktfrage des Überleben einer Lebensform geht. Und durch die Menschliche Form, Meschengleich, Homo, wären das warscheinlich dann sogar echte Rassenkriege. Is bei Lebensformen immer die Frage in welcher Umgebung sie aufwachsen Was Inteligenz und Charakter angeht.

  3. „Zu den Risiken von gemeinwohlorientierter KI gehören laut Züger schlechte Trainingsdaten…“

    => ich verstehe nicht so ganz, warum alle, die schon verstanden haben, dass KI ein nicht mehr nachvollziehbarer Prozess – also kein für uns kontrollierbarer Algorythmus – ist, so tiefenentspannt hinzunehmen scheinen, dass z.B. chatGPT nicht zwischen Fakten und Fiktion unterscheiden kann (?) … für welche Aufgabe ist KI überhaupt einsetzbar, solange nicht durch Input (Trainingsdaten-Kontrolle) und Output (Ergebniskontrolle mit Freigabe bzw. Sperrung) – also durch anstrengende verantwortungsvolle menschliche Prüfung wieder dafür gesorgt wäre, dass wir das Ganze in den Griff bekommen? Wenn Fakten und Fiktion erst einmal verwischt sind, dann ist es vorbei mit dem fairplay!

  4. „Züger empfiehlt, die konkreten Technologien bei einzelnen Anwendungsfällen zu benenne“

    Das sieht man in den Diskussionen. Es sieht immer plötzlich so aus, als würden Leute denken, es wäre „die KI“, „die KI wird immer besser“, wo „Morgen die KI ist“, „die KI lernt“, „die KI wird immer besser“.

    Die Technologien zu differenzieren würde da helfen. Aber Guckt man Lanz, stellt man fest:
    Lothar de Maizière: Eröffnung mit für gegen Datenschutz. Dann etwas Werbung für seinen Telekomjob. Der Rest zum Thema gesetzt und gut informiert, ohne sich aus dem Fenster zu lehnen. Geradezu moderierend.
    Professorin (?): Dialektisches Papageienbeispiel. Gut. Papageien werden zumeißt als Deppen dargestellt, obwohl sie allgemein wirklich sehr intelligent sind. Die Sprachfähigkeiten… naja.
    Sascha Lobo: Gute Eröffnung, mit was der große Punkt vermutlich vor allem erst mal sein würde. Danach volle Kanne aus dem Fenster.
    Noch wer. Wegen Lobo dann abgeschaltet, das ist mir zu romantisch, auch wenn einige Argument, z.B. bzgl. Büro, z.T. durchaus Sinn ergeben. Dennoch „verstehen“ auch Tiere 80% von wo Mensch interessiert, wenn man sich halt auf sie einlässt und den Prompt richtig setzt. Insofern: enzyklopädische Papageien FTW!

  5. Eduard Süss/letzter Anonymous: Mit Verlaub, aber ein Großteil Ihrer beiden Kommentare ist in unverständlichem Deutsch/Satzbau verfasst und erscheint dadurch inhaltlich wirr.

  6. Ich habe kein Problem mit neuronalen Netzen oder sogar hoch entwickelten künstlichen Intelligenzen.

    Die meisten Menschen verstehen aber nicht womit sie es zu tun haben. Wenn ein Bild dann aber nach einem Foto von einem neuronalen Netz bearbeitet wird, und wie bei Samsung-Smartphones zum Beispiel den Mond als Objekt erkennt und die fehlende Information mit weiterer Information aus dem Netz anreichert, sollte es zumindest deklariert werden.

    Problem dabei: Die neuronalen Netze haben (vielleicht noch) keine Vorstellung von einem selbst und was Lügen oder ehrlich sein bedeutet. Wir geben jedem Kind diese Eigenschaft und Einordnung mit damit, wir fair mit einander interagieren können.

    Neuronale Netze haben via Smartphones auf umfassende Sensordaten über uns und durch das WWW Zugriff auf Millionen andere Menschen die uns selbst sehr ähnlich sind und können von denen Lernen und daraus generiertes Wissen auf uns als Anwender:innen anwenden. Ich bin an der Stelle ehrlich. Mir macht es sorgen. Dennoch würde ich gerne neuronale Netze selber trainieren. Wir sind an einem Punkt an gekommen wo wir diesen Computerprogrammen, vertrauen müssen, wie die Software anderer, nur das diese eben keinen Quellcode bieten.

    Letztlich läuft es darauf hinaus wie im echten Leben. Kinder anderer Eltern spielen mit den eigenen. Ja gemeinsame Werte, Glauben und Politik sind da wichtig. Daher: Wir brauchen Tests. Und dafür ausgebildete Neuronale Netzwerke (von mir aus mit Bewusstsein) die Angeboten (A.I.’s) synthetische Beziehungen überprüft bevor wir uns ihnen Anvertrauen.

  7. (M)eine Anerkennung an Theresa Züger. Sie haben (mit Gemeinwohl) eine Entscheidung getroffen, zu der (zu)viele Sozialwissenschaftler (noch) gar nicht fähig sind, viel zu klein sind. Sie beschränken sich *nicht* auf das rein empirisch-statistische Wissenschaftsmodell sondern erlauben sich darüber hinaus auch eine klare normative Haltung. Wie unentbehrlich das ist ließe sich vielleicht mit der Frage andeuten, ob Demokratie ohne die Gemeinwohl-Idee überhaupt möglich sein könnte?!

    Erst kürzlich habe ich in einer Doku (wohlwollend) zur Kenntnis genommen, dass die Humboldt-Brüder der Meinung waren, dass Bildung offenbar mehr sein sollte, als nur Kompetenz-Erwerb im Hinblick auf einen Beruf. Daraus drängt sich mir der Verdacht auf, dass Sie beim Humboldt-Institut einen intellektuellen Kontext gefunden haben könnten, der normatives Denken gestattet. Unsere Universitäten haben da erheblichen Nachholbedarf (bei Bedarf siehe dazu mein (vernichtender) Kommentar zu „Gina Neff, Eines der größten sozialen Experimente aller Zeiten“ auch hier bei netzpolitik.org).

    Vielleicht vermisst der eine oder andere Leser hier (m)eine ausdrückliche Bezugnahme auf „künstliche Intelligenz“, doch wenn wir dieser Entwicklung etwas entgegensetzen wollen, dann brauchen wir (Menschen) mehr als nur Wissen ( += Denken).

    Soviel zunächst zu den ca. 1,5 Din A4 Seiten des obenstehenden Artikels, der ausreichend kritisches Denken und normatives Bekenntnis enthält, so dass ich den links folgen und weiter aufmerksam zuhören werde (während ich „Gina Neff“ als „zurückgeblieben“ für mich abgehakt habe).

  8. Hallo, schade, dass hier StarTrek vergessen wurde.
    Meiner Einschätzung nach ist das eine Art K.I die im Regelfall positiv in den Microkosmos des Raumschiff wirkt.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.