Künstliche Intelligenz

Gemeinwohl und Nachhaltigkeit statt nur Profit

Mit Blick auf die Diskussionen um die Agrar-, Energie- oder Verkehrswende sind die Hoffnungen auf die Künstliche Intelligenz groß. Doch sie wird nur marginale Wissens- und Effizienzzuwächse ermöglichen, nicht aber der entscheidende Faktor der Transformation sein. Maschinelles Lernen kann nur begrenzt zu Nachhaltigkeit beitragen – und das auch nur, wenn es politisch gewünscht wird.

CC public domain GPA Photo Archive

Annika Kettenburg studierte Umwelt- und Nachhaltigkeitswissenschaften in Lüneburg, Thailand und Lund (Schweden). In ihrer Masterarbeit, auf der dieser Artikel basiert, untersuchte sie die Potentiale und Grenzen von Künstlicher Intelligenz für Nachhaltigkeit sowie die vorherrschenden Motive im politischen Diskurs um KI.

Künstliche Intelligenz und Nachhaltigkeit: Eine kritische Analyse

Wohin wir blicken: Die hohen gesellschaftlichen Erwartungen an Künstliche Intelligenz (KI) bleiben omnipräsent. Man schreibt KI Chancen und Risiken riesigen Ausmaßes zu oder stilisiert KI gar als „game changer for climate change and the environment“.

Jedoch ist Maschinelles Lernen (ML) – der Kerninhalt des Oberbegriffs KI – nur für wenige Bereiche sehr gut geeignet und, wie jede Technologie, keine Lösung für soziale und ökologische Probleme.

Um dies zu erläutern, unterscheide ich zwei Ebenen, die im öffentlichen Diskurs zu KI und Nachhaltigkeit häufig nicht stark genug getrennt werden: Da ist die Sphäre der technischen Möglichkeiten, in der KI-Anwendungen für gesellschaftliche Probleme erdacht oder ihre Kosten und Nutzen für Nachhaltigkeit abgewogen werden. Auf dieser Ebene, im Elfenbeinturm der abstrakten Ideen, spielt sich nahezu die gesamte Debatte ab.

Ausgeblendet wird dabei die zweite Ebene: ihr realweltlicher Schauplatz. Hier verlieren logische Argumente über den gemeinwohlfördernden Einsatz von KI an Bedeutung gegenüber ganz anderen Logiken – zum Beispiel dem Streben, mit KI den eigenen Einfluss zu vergrößern.

KI im Elfenbeinturm: Theoretische Limitationen und Chancen für Nachhaltigkeit

Maschinelle Lernverfahren generalisieren Daten in Modellen und extrapolieren Werte auf Basis der abgeleiteten Funktionen, meist im Rahmen von Regressions- oder Clusteranalysen. Besonders durch den Einsatz neuronaler Netze erfuhren diese bewährten statistischen Verfahren in den letzten Jahren eine große Steigerung ihrer Performanz.

Immer noch aktuell bleibt zugleich die Mahnung zur Vorsicht im Umgang mit solchen Analysen: Daten sind immer von Menschen erzeugt, somit Konstrukte und nie ein objektives Abbild der Realität. Die Repräsentativität von Daten wird stets vorausgesetzt, jedoch faktisch nie erreicht. Fehler sind und bleiben inhärente Bestandteile von ML-Modellen. Die Intransparenz neuronaler Netze verbirgt Fehler und bietet Einfallstore für die gezielte Manipulation.

Wie wünschenswert ist Maschinelles Lernen, und wie mächtig?

Umso komplexer die zu modellierenden Zusammenhänge und umso folgenreicher die Anwendung dieser Modelle, desto wichtiger wird die ethische Abwägung des Einsatzes von ML. So ist es zwar möglich, ML zur Vorhersage von sozialem Verhalten für automatisierte Entscheidungsverfahren zu verwenden, etwa für das Kredit-Scoring, Berechnungen der Rückfallwahrscheinlichkeit oder für die Verteilung von Sozialhilfe. Doch während man einen technischen Prozess durch Daten annäherungsweise abbilden kann, ist dagegen die soziale Wirklichkeit nur subjektiv selektiv modellierbar. Zugleich wären Fehlentscheidungen des Modells hier weitaus folgenreicher für die Betroffenen. Darum fokussiert sich dieser Artikel auf die ökologische Komponente der Nachhaltigkeit.

Wie mächtig ist ML? Begriffe wie Künstliche Intelligenz oder Maschinelles Lernen suggerieren, dass die Technologie selbst zum Akteur wird. Doch Daten und ML-Modelle sind Produkte menschlichen Handelns: Daten werden gesammelt und gelabelt, ML-Methoden ausgewählt, Hyperparameter bestimmt, damit herumexperimentiert, erreichte Treffgenauigkeiten als ausreichend akzeptiert und dann das Modell in konkrete Anwendungen eingebettet. Diese menschliche Kontrolle entzaubert KI.

Wie kann ML zu Nachhaltigkeit beitragen? Die Nachhaltigkeitspotentiale von ML kann man grob in zwei Klassen einteilen: zum einen die Generierung empirischen Wissens über Umweltprozesse, gegebenfalls angewandt in Frühwarnsystemen; zum anderen die Steigerung von technischer Effizienz durch genauere Abstimmung von Angebot und Nachfrage.

Generierung empirischen Wissens

Mit Hilfe von ML kann beispielsweise besser vorhergesagt werden, an welchen Standorten und zu welchen Zeitpunkten Dürre droht, Starkregen zunimmt, Gewässer eutrophieren oder die Biodiversität besonders stark abnimmt.

Doch was bewirkt es, das Insektensterben genauer zu kartieren, wenn dort dann kein Lebensraum geschaffen wird? Die Hauptgründe für den Artenrückgang, also intensive Landwirtschaft und Zersiedlung, sind gesellschaftliche Prioritäten. Diese ändern sich nicht automatisch durch mehr Wissen um den damit einhergehenden Biodiversitätsverlust. Umweltwissenschaftler*innen rennen mit ihrer Forschung gegen Wände, und das schon seit Jahrzehnten.

Selbst Frühwarnsysteme vor Naturkatastrophen sind nur so effektiv wie das Krisenmanagement, in das sie eingebettet sind. So sind beispielsweise Warnungen vor Hurrikans in allen Karibikstaaten verfügbar, dennoch unterscheiden sich ihre Opferzahlen erheblich – wie Telepolis bei Hurrikane Matthew titelte: „542 Tote in Haiti, 21 Tote in den USA, 0 Tote in Kuba“. Was zählt, sind die Taten vor und nach einer Katastrophenwarnung, die sofortige Evakuierung und langfristige Prävention, sprich das soziale und politische Krisenmanagementsystem.

Grundlagenforschung ist und bleibt elementar, um unseren Planeten besser zu verstehen und gefährliche Entwicklungen zu antizipieren. Ohne hochkomplexe Klimamodelle – die durch Maschinelle Lernverfahren weiter verbessert werden können – gäbe es Klimawandelbekämpfung und -anpassung in ihrem heutigen Ausmaß wohl nicht. Wie beim Artensterben oder bei Naturkatastrophen ist es hier jedoch eine gesellschaftliche und politische Aufgabe, diesen Umweltveränderungen die entsprechende Relevanz beizumessen sowie Erkenntnisse in politische Strategien und praktische Routinen zu übersetzen.

Blick in das Death Valley
Das 

Steigerung technischer Effizienz

ML-Verfahren können die Genauigkeit von Vorhersagen verbessern. Diese Stärke wird für technische Innovationen genutzt, die mit höherer Treffsicherheit Angebot und Nachfrage zusammenführen.

Einige Beispiele: Durch die Vorhersage der Stromverfügbarkeit in Abhängigkeit von Wetterdaten kann in einem Smart Grid Energie zu den richtigen Zeiten gespeichert beziehungsweise besonders stark verbraucht werden. In der Landwirtschaft können lokale Analysen der Boden- und Pflanzenparameter Entscheidungen über den Dünge- oder Pflanzenschutzbedarf unterstützen. Fahrpläne und Routen im öffentlichen Nahverkehr können auf Basis von Auslastungsdaten besser geplant werden. Durch eine gleichmäßigere Fahrweise können Fahrzeugassistenten etwas Sprit sparen und Staus vermeiden.

Doch Fahrzeugassistenten reduzieren nicht per se das Verkehrsaufkommen, noch motivieren sie uns dazu, Fahrzeuge zu teilen oder gar auf das Fahrrad umzusteigen. Womöglich führen sie dazu, dass Mobilität noch günstiger und bequemer wird, so dass wir häufiger fahren – der bekannte Rebound-Effekt, der Effizienzsteigerungen durch Konsumzunahme energetisch zunichtemacht.

Die häufig geforderten Agrar-, Energie- und Verkehrswenden benötigen primär ganz andere Erfolgszutaten als die marginalen Wissens- und Effizienzzuwächse, die KI ermöglicht. Es bedarf neuer gesellschaftlicher Institutionen, die uns Güter wie Lebensmittel, Energie und Mobilität auf andere Weise bereitstellen. Zum Beispiel ein Verkehrssystem, das viel stärker auf öffentliche, geteilte Fahrten setzt, auf der letzten Meile vielleicht auch selbstfahrend; ein Energiesystem, das auf erneuerbare Quellen umstellt, dabei Nutzer einbindet und Akzeptanz schafft; ein Ernährungssystem, das regionalen und saisonalen Waren den Vorrang einräumt, kleine, nachhaltig wirtschaftende Landwirtschaftsbetriebe unterstützt und Lebensmittelverschwendung eindämmt.

ML kann hier durchaus Beiträge leisten, indem man durch die Vorhersage und Synchronisierung von Angebot und Nachfrage Öko-Effizienz steigert – vorausgesetzt der Effizienzzuwachs ist größer als der materielle Fußabdruck von ML, also der Ressourcenbedarf für Training und Nutzung von ML-Verfahren. Diese Beiträge von KI sind jedoch nichts als Gedankenspielereien, wenn die nötigen Umstrukturierungen nicht gesellschaftlich gewünscht und politisch in Gesamtstrategien eingebettet werden.

KI in der echten Welt: Spielball im fossilen Status quo gesellschaftlicher Machtstrukturen

Eine effektive Bekämpfung der Klimakrise, des Biodiversitätsverlusts und globaler sozialer Ungleichheit – kurz: die „Große Transformation“ – verlangt nach solchen tiefgreifenden Umstrukturierungen. Technologien können als Werkzeuge nur dazu beitragen, wenn ihr gemeinwohlorientierter Einsatz politisch durchgesetzt wird. Doch die politische Kehrtwende erscheint utopisch – unsere gesellschaftlichen Strukturen und Prozesse spiegeln das Primat des globalen Wettbewerbs um Wirtschaftsmacht wider, während unsere Infrastruktur uns in Abhängigkeit von fossilen Ressourcen hält.

Zugleich ist Technik kein neutraler Faktor, der für Gutes und Schlechtes jederzeit gleichermaßen dient – abstrakt gesehen schon, aber realweltlich nicht. Technologien sind Produkte menschlicher Vorstellungen und Interessen, und solange wir in den beschriebenen Strukturen leben, werden sie zum Großteil erdacht und eingesetzt, um diese dominanten Strukturen zu reproduzieren.

Wofür die ausgereiftesten KI-Systeme heutzutage vornehmlich entwickelt werden

In diesem großen Bild des fossilen Status quo ist darum viel mehr zu fragen, wie mächtige Akteure KI für ihre Zwecke instrumentalisieren, um die sie begünstigenden Machtverhältnisse aufrechtzuerhalten. Warum werden Smart-Grid-Systeme, Precision Farming oder Fahrzeugassistenten entwickelt? Weil diese Technologien Kosten sparen oder neue Absatzmärkte erschließen, weil sie die Bilanz des nächsten Quartalsberichts aufpolieren und nicht, weil sie dem Gemeinwohl nützen. Das betriebswirtschaftliche Kalkül treibt die heutige KI-Entwicklung fern der nachhaltigen Nische an.

Momentan entscheidet eine Handvoll Unternehmen darüber, welche der vielen KI-Entwicklungen weiter verfolgt wird und wer die Ressourcen erlangt, neue Anwendungen zu erdenken. Auch Regierungen streben durch eine gezielte Forschungs- und Wirtschaftsförderung primär an, ihre nationale Produktivkraft zu steigern oder sich geopolitisch zu behaupten.

So verwundert es nicht, dass die ausgereiftesten KI-Systeme heutzutage vornehmlich für Konsumsteigerung und Kundenbindung entwickelt werden, etwa in Form von Empfehlungssystemen und Sprachassistenten, zur Erschließung neuer Absatzmärkte in der Autoindustrie, zur Automatisierung in Fabriken, für den Hochfrequenzhandel im Aktienmarkt, für die Gesichtserkennung zur staatlichen Überwachung oder gar für eine effektivere Kriegsführung durch autonome Waffensysteme.

Häufig heißt es in solchen Zusammenhängen, die Technologie rase dem Gesetzgeber davon – aber sind es nicht auch Unternehmen, die Technologien vorschnell implementieren, Gesetzeslücken gezielt ausnutzen und Gesetzgebungsprozesse beeinflussen? Sind es nicht auch Gesetzgeber selbst, die Lücken bewusst offenlassen oder die vorhandene Rechtsprechung nicht konsequent durchsetzen?

Es gilt jedoch, nicht nur die Praktiken von Unternehmenszentralen und Regierungen zu kritisieren, sondern zu fragen, welche Umstände ein solches Agieren fördern. Es sind geschichtlich eingebettete Logiken und Diskurse, Institutionen und Infrastrukturen, Regeln und Normen, Gesetze und Wirtschaftsordnungen, die unser Leben bedingen und formen. Sie gestalten unseren Möglichkeitsraum.

Überspitzt formuliert: Ohne sichere Radwege und ausgebauten ÖPNV – keine nachhaltige Mobilität; ohne Preise, die externe Kosten abbilden, – kein nachhaltiger Konsum; ohne finanzielle Grundsicherheit – wenig Gedanken an die sozial-ökologische Utopie oder Zeit für demokratische Einflussnahme; ohne Repräsentanz im Parlament – keine ausgeglichene Vertretung gesellschaftlicher Interessen; im globalen Wettbewerb um knappe Ressourcen, stets die verinnerlichte Selbstoptimierung und institutionalisierte Kostenminimierung; im Finanzmarkt des Überschusskapitals, nur die Jagd auf die höchsten Rendite bei der Wahl von KI als Investitionsobjekt. Strukturen sind größer als Individuen – und so kann man selbst Trump als Symptom seiner Gesellschaft sehen.

Fazit: Erwartungen an KI begrenzen und strukturelle Probleme angehen

In diesem großen Bild der ausbleibenden Nachhaltigkeitstransformation spielt Technik eine untergeordnete Rolle – und für KI bleibt nur eine wesentlich kleinere. Frühwarnsysteme und Energieeffizienzgewinne sind Bausteine einer Großen Transformation, aber nicht ihr Fundament.

Es gibt viele umweltrelevante Einsatzbereiche für ML – all jene, in denen sich ein Problem als quantitativ-statistische Frage beschreiben und durch Daten abbilden lässt. Solche Fragen sind thematisch weit gestreut und betreffen beispielsweise Klimaschutz, Energie, Transport, Landwirtschaft bis zu Naturschutz. Es ist nur nicht absehbar, dass ML-Analysen in diesen Bereichen als „game changer“ zum Wandel zur Nachhaltigkeit beitragen werden – denkbar sind schrittweise Verbesserungen, maximal Etappensiege.

Ich möchte die Beiträge von KI nicht per se schmälern, nur die Erwartungen in Bezug auf sozio-ökologische Probleme zurechtrücken. Es bleibt richtig und gut, die Nische zu stärken, nachhaltige KI-Anwendungen zu fördern und der öffentlichen Imagination Alternativen entgegenzusetzen. Fast allen Akteuren der Nische ist ihre Position schmerzlich bewusst. Denn ohne politisch durchgesetzte Änderungen unserer gesellschaftlichen Strukturen werden diese KI-Anwendungen ihr Potential nicht systematisch entfalten können. Ohne strukturelle Änderungen wird eine Elite weiter Technologien aus primär wirtschaftlichem Kalkül entwickeln und wir uns im Nachhinein fragen, ob und wie diese jetzt eigentlich zum Gemeinwohl beitragen.

Du möchtest mehr kritische Berichterstattung?

Unsere Arbeit bei netzpolitik.org wird fast ausschließlich durch freiwillige Spenden unserer Leserinnen und Leser finanziert. Das ermöglicht uns mit einer Redaktion von derzeit 15 Menschen viele wichtige Themen und Debatten einer digitalen Gesellschaft journalistisch zu bearbeiten. Mit Deiner Unterstützung können wir noch mehr aufklären, viel öfter investigativ recherchieren, mehr Hintergründe liefern - und noch stärker digitale Grundrechte verteidigen!

 

Unterstütze auch Du unsere Arbeit jetzt mit deiner Spende.

7 Ergänzungen
  1. Mal wieder eine Studie – hier in Form einer Masterarbeit – die darauf verzichtet, zu definieren. Was ist denn nun Nachhaltigkeit?

    Was ist daran nachhaltig, wenn Leute sich das Auto teilen? Es verbraucht Sprit produziert CO2 und kostet Herstellungsenergie. Nur etwas weniger, als wenn jeder ein eigenes Auto hätte. ist das nachhaltig?

    Und wie kann man überhaupt auf die Ausgangsthese kommen, Maschinelles Lernen könnte etwas mit Nachhaltigkeit zu tun haben. Die These müsste erst mal abgeleitet werden. Ich halte das von vornherein für abwegig.

  2. Solange wir ein Zinsgeldsystem haben bei dem Reiche Geld bekommen, weil sie Geld haben (und 99% unterjocht werden), und solange Privatbanken Giralgeld drucken dürfen, wird keine Besserung zum Wohle der Menschheit stattfinden.

  3. Sehr guter Artikel, der wunderbar beschreibt, dass wir bisher die KI nur für die alten Strukturen benutzen, die uns so nicht aus dem Dilemma Bevökerungswachstum und immer weniger werdenden Ressourcen herausholt. Sie muss engebettet werden in ein größeres Konzept und nicht dafür benutzt werden das Dilemma noch zuzuspitzen. Und ausserdem zeigt der Artikel gut in meinen Augen, dass Technikgläubigkeit kein „größeres Konzept“ ersetzen kann, sondern nur hilfreich ist auf dem Weg dahin.

    1. Die „KI unserer Zeit“ ist ein Werkzeug, keine Wundertüte. Das Ẃerkzeug wird von Menschen verplant und eingesetzt. Von besseren Werkzeugen profitieren nicht nur demokratische und soziale Bestrebungen, sondern auch Unternehmen und Investoren. Die Balance …

  4. Eine „KI“ ist nur so „I“ wie deren Entwickler. Man nehme ein zu erreichendes Ziel, einige Prozess-Erfahrungen und eine Hand voll Wahrscheinlichkeits-Algorithmen und fertig ist eine so genannte KI. Ich frage mich immer noch, was daran intelligent sein soll. Und dies noch in Verbindung mit einer so genannten Nachhaltigkeit zu bringen, scheint fragwürdig. Kurzes Beispiel: Dass die „KI“ nunmal zuerst der „persönlichen Nutzer-Erfahrung“ im Konsumbereich zuteil wird, liegt klar an deren Gewinnmargen. Wie im Text geschrieben, können Smartgrid-Systeme usw. die Kosten senken – hier ist sicherlich von Investitionskosten die Rede. Der Bürger/Nutzer bekommt allerdings von der Kostensenkung direkt nix mit. Ihm wird nur suggeriert, dass er durch die KI optimierten Prozesse an einer nachhaltigen Welt teilnimmt und so ruhig gestellt. Dass für die KI selbst und zuvor für die Entwicklung der KI Kosten anfallen, fehlt in der Diskussion um eine Nachhaltigkeit komplett. Ich wage zu behaupten, dass die meisten KI-Systeme eine negative Umwelt-Bilanz erzeugen.

    1. >>> Eine „KI“ ist nur so „I“ wie deren Entwickler. <<<

      Naaaaja…

      Keine KI ist auch nur entfernt so intelligent wie die Entwickler.
      Aber es gibt Begrenzungen:
      – Intelligenz der Entwickler.
      – Dummheit der Entwickler.
      – Zugestandene Resourcen (wirtschaftliche Zwänge / Management).
      – Verfügbarkeit von Trainingsdaten in Qualität und Quantität.
      – Grenzen der Methode. (Ein Würfel wird durch einen intelligenten Entwickler nicht viel besser als ein Würfel werden.)

      Eine spezialisierte Methode wird Entwickler auf dem Spezialgebiet vielleicht um Längen schlagen, aber nicht in allgemeiner Intelligenz. Es sind Werkzeuge, keine legendären magischen Pendel womöglich noch mit eigenem Willen.

      Alles nur nicht "so wie" :)…

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.