Datenanalyse- und Plattformtechnologien

Künstliche Intelligenz oder Künstliche Dummheit?

Künstliche Intelligenz ist der Hype. Doch was kann man damit eigentlich für die Gesellschaft tun – und was kann schief gehen, wenn die Chancen der Datenanalyse- und Plattformtechnologien nicht hinreichend bekannt sind? Am Beispiel einer neuen Sicherheitspolitik, die den Klimawandel ins Zentrum der Aufmerksamkeit setzt, wird gezeigt, wie eine nachhaltige Grundversorgung für alle funktionieren kann.

Aquarellzeichnung zeigt kahlen, in den Himmel strebenden, blau-grün eingefärbten Baum umgeben von bunten Flammen vor gelbem Hintergrundn.
Genoss_innen, es brennt. Alle Rechte vorbehalten Julia Krueger

„We need to talk, AI“ zeigt in einem Comic von Dr. Julia Schneider und Lena Kadriye Ziyal anschaulich, wo wir in Deutschland bei Technologien der Künstlichen Intelligenz (KI) stehen: Jenseits der jahrzehntelangen Forschung zu logisch konstruierter KI (etwa Schachcomputer), Weltmodellen und Expertensystemen sind in den letzten Jahren Durchbrüche in einer ganzen Reihe von Datenanalyse-Systemen gelungen. Sie ermöglichten in Verbindung mit großen Mengen an Daten, Rechenpower und hoher Vernetzung – wie sie etwa bei Plattformtechnologien gegeben sind -, wovon Menschen seit Jahrzehnten träumten: Die Entwicklung von lernfähigen Maschinen – aus Daten lernende Software, die in Verbindung mit steuerungsfähiger Hardware Aufgaben übernehmen kann, die bislang Menschen vorbehalten waren: die Analyse, Bewertung und Steuerung komplexer Sachverhalte (so genannte „Wissensarbeit“, mehr zu Geschichte bei Stuart Russel/ Peter Norvig 2012, Definition bei Thomas Ramge 2018 und technologischen Grundlagen bei Katharina Zweig 2019.

1. Was ist Künstliche Intelligenz – und wenn ja, wie viele?

Generell zu unterscheiden ist dabei der Einsatz solcher Technologien zur Analyse (Krebsdiagnose) oder Anwendung in einfachen, statischen Systemen (automatisierte Bettenverteilung im Krankenhaus) oder komplexen, mitunter dynamischen Systemen (plattform-basierte Vernetzung von Patienten und Ärzten, die besonderen Informationsbedürfnissen wie Sprachkenntnissen oder Rechtskenntnissen Rechnung trägt). In allen Fällen von großer Bedeutung sind:

  • Basis des Systems (Daten, Algorithmen/Lernverfahren, Modelle/berücksichtigte Korrelationen);
  • Funktionsweise und Sicherheit (Performanz, Schwachstellen, Manipulationsmöglichkeiten, etc.);
  • Ziele, beziehungsweise Ausrichtung der Optimierung (Soll eine automatisierte Bettenverteilung im Krankenhaus dem Patientenwohl dienen, dem Renommee des Arztes oder der Krankenhausauslastung?).

Allgemein wächst die Komplexität solcher Systeme: Früher war vorhersagebasierte Polizeiarbeit in der Regel orts- oder personenbezogen. Heute können alle möglichen Daten in Echtzeit analysiert werden, beispielsweise aus sozialen Netzwerken. Das birgt Herausforderungen der Kontrolle und Nachvollziehbarkeit , die bislang ungelöst sind, denn 1. stoßen klassische Varianten des Algorithmen-Auditings, entwickelt für statische und logisch aufgebaute Systeme, bei komplexen und oft auch dynamischen Systemen technisch schnell an ihre Grenzen, 2. ist Expert_innen oft der Zugriff auf die Daten verwehrt, die sie zur Entwicklung eines nachvollziehenden Verständnisses maschineller Lernverfahren mittels Input-Output-Analyse bräuchten (AGBs, Normen des IT-Sicherheits- oder Immaterialgüterrechts), 3. gibt es extrem wenige Expert_innen. Das ist ungünstig, führt doch der internationale Entwicklungskontext – verteilte Datensammlung, Algorithmen- und Systementwicklung, Implementierung – zu unvorhersehbaren Sicherheitsrisiken, die bislang oft ignoriert wurden: Die Bundesregierung konnte auf Anfrage von Saskia Esken 2018 keine Antwort geben, wie die Gesichtserkennungssoftware entwickelt wurde, die am Berliner Südkreuz getestet wird. Wenn gleichzeitig Erfolgsparameter unklar sind, bleibt die Frage nach dem Wozu des Systems offen (zu Herausforderungen und Lösungsansätzen bei KI Julia Krüger und Konrad Lischka 2018).

Diese Technologien sollen dem gesellschaftlichen Wohlstand und Teilhabe, einer prosperierenden Wirtschaft und dem Schutz von Umwelt und Klima, Wissenschaft und staatlichem Handeln dienen, so heißt es beispielsweise in den aktuellen Eckpunkten für eine Datenstrategie der Bundesregierung. Offen bleibt dabei, wie genau – seit 35 Jahren. Das ist ungünstig, denn es besteht die Möglichkeit, das Datenanalyse- und Plattformtechnologien, vor allem die Personalisierung, das Scoring und das Nudging, klassische Regulierung durch eine sogenannte Kontextsteuerung ablösen oder abgelöst haben, so Klaus Lenk 2016. Das entspräche einer starken KI – einer KI, die selbst Ziele sucht – verwirklicht durch das Netz, wie Bernd von Brincken 2019 zwischen den Zeilen beschreibt.

Eine Kontextsteuerung meint die Steuerung einer Gesellschaft, indem deren Kontext in Interaktion mit Menschen und Organisationen so gestaltet wird, dass sie wahrscheinlich das tut, worauf die interagierenden Technologien optimiert sind. Um es kurz zu sagen: Den Theorien fehlen die praktischen Belege, wir wissen nicht, welche Systeme wie existieren, funktionieren oder miteinander interagieren. Mit Blick auf die Bugs und Probleme der großen Plattformen, zusammenfassend Ingrid Brodnig 2019, könnte man sicher streiten, ob eine solche starke KI dann klug oder dumm ist. Aber vielleicht ist wichtiger, wie diese Technologien dem Gemeinwohl dienen könnten. Denn die Möglichkeiten für neuartiges Wissen und Steuerung sind enorm. Das soll im Folgenden am Beispiel der Sicherheits- und Umweltpolitik skizziert werden, wobei der Klimawandel als das zentrale Sicherheitsrisiko für die Menschheit begriffen wird.

2. Sicherheitspolitik im Kontext von KI-Technologien

Vor kurzem veröffentlichte der den Wissenschaftlichen Diensten des Deutschen Bundestages vergleichbare Congressional Research Service einen Bericht für den US-Kongress zum Thema Nationale Sicherheit und KI. Dieser besticht wie die KI-Strategie der Bundesregierung (2018) oder die Resolution des Europäischen Parlaments zur Cybersicherheit (2018) dadurch, dass alle traditionellen Politikprämissen aufrechterhalten bleiben: Es geht in erster Linie um Verteidigung – wie KI-Technologien dabei helfen können, alte Sicherheitsinstrumente wie Spionage, Überwachung und Ausspähen zu verbessern, militärische Prozesse und Operationen zu optimieren und – natürlich – besser Krieg zu führen mittels autonom agierender Maschinen, auch wenn die Erklärbarkeit dieser Technologien nicht gegeben ist. Neu im Programm ist die Bekämpfung von Fake News mittels KI und die Herstellung von Personenprofilen als Ressource militärischer Operationen. Herausgestellt wird der Rückzug Googles aus der autonomen Kriegsführung – im Gegensatz zu Amazon.

Diese simple Fortführung alter Politikprämissen mittels neuer Technologien findet sich auch bei anderen Akteuren in Deutschland, zum Beispiel der Bundesakademie für Sicherheitspolitik, der Deutschen Atlantischen Gesellschaft oder der Clausewitz Gesellschaft. Das ist sehr bedauerlich, vergibt dies die Chancen der Technologie: die neuartige Generierung von Wissen und Steuerung.

2.1 Threat-Analyses, first: Mensch oder Klimawandel?

Was ist ein Sicherheitsrisiko für die Gesellschaft und warum? Diese Frage beschäftigt Politikwissenschaftler_innen schon länger. In seiner Thesis schrieb Tim Scheerer (2012) lapidar: Terrorismus wird von den USA als Bedrohung angesehen, weil Terroristen mächtig und aggressiv sind. Klimawandel wird nicht als Bedrohung angesehen, weil er kein Sicherheitsproblem ist. Das sehen andere Wissenschaftler_innen natürlich anders. Aber bislang wurden in der Realpolitik zumeist Menschen oder Gruppen von Menschen ins Zentrum gerückt. Dies rechtfertigte diverse Repressionen wie Überwachung, Ausspähung oder Tötung. Datenanalyse in der Sicherheitspolitik offenbarte möglicherweise ganz andere Risiken: Klimawandel, Soziale Ungleichheit oder etwas völlig Unbekanntes? Setzte man folgerichtig den Klimawandel an erste Stelle, ergäben sich neue Politikprämissen der Innen- und Sicherheitspolitik: zum Beispiel die Entwicklung und Steuerung einer nachhaltigen Wirtschaft, die Klimarisiken sukzessive minimiert. Dazu bräuchte man Fachkräfte; IT-Entwickler und Datenanalysten sind Mangelware, die bislang allzu oft im Sicherheitsbereich arbeiten oder in der Medienindustrie (Werbung) – also den Schauplätzen des aktuellen Informationskrieges.

Wollte man diese Fachkräfte umsteuern, stünde man vor einer existentiellen, ethisch-normativen Frage: Sollen alle Menschen überleben oder keiner? Denn sobald irgendjemand ausgeschlossen ist, braucht es die Investitionen in Grenzen, Überwachung und Krieg. Das bedeutet, eine smarte Sicherheitspolitik ist global und integrativ und managt das Überleben aller.

2.2 Anti-Terrorism-Measures, second: willkürliche Netzzensur oder demokratische Plattformkontrolle?

Eine Sicherheitspolitik, die alle einschließen soll, meint auch Feinde, auch: Terroristen. Terrorismus ist in prominenten Lehrbüchern definiert als „inelactably political in aims and motives; violent – or, equally important, threatens violence“, wobei „attention, acknowledgement, and recognition“ von besonderer Bedeutung sind für diese Menschen und Organisationen, die zur Durchsetzung politischer Ziele und Ideen zu Mitteln öffentlicher Gewalt oder Gewaltandrohung greifen.

Seit 2001 steht der islamistische Terrorismus im Visier westlicher Sicherheitspolitik, der mit vermeintlicher Feindschaft westlicher Gesellschaften gegenüber dem Islam begründet wird und zahlreiche Sicherheitsmaßnahmen inspirierte wie aktuell: die EU-Verordnung zum Löschen terroristischer Inhalte in sozialen Netzwerken. Nun stellt Terrorismus sicher ein Sicherheitsrisiko dar, das behoben werden muss. Folgerichtig stehen auch Methoden im Visier von Sicherheitskräften, die Terroristen online nutzen, um Trainingsinformationen und Propaganda zu verbreiten oder sich auszutauschen und zu organisieren. Allerdings bergen alle bislang bekannten Verfahren der Inhalte-Regulierung gravierende Probleme, noch schlimmer: Die Entwicklung künstlich intelligenter Systeme zum Identifizieren von Terrorismus verschwendet rare Fachkräfte und führt dazu, dass KI das Schlechteste vom Menschen lernt – statt konstruktiver Ideen, kooperativen Verhaltens und Innovation.

Was zudem erstaunt, ist die Ignoranz gegenüber dem Wirken der großen Kommunikationsplattformen: Wiewohl bekannt ist, dass die Manipulation von Menschen zu politischen Zwecken längst elaborierte Methoden des daten-basierten Targetings hervor gebracht hat, die durch ein intransparentes, politisierendes Plattformdesign und eine undurchsichtige Datenindustrie gefördert werden, fehlt die daraus folgende Konsequenz sowohl in einschlägigen Lehrbüchern wie auch in der Politik: Legt die Funktionsweise und die Bugs der großen Plattformen offen und gebt uns Mitsprache bei der Herstellung konstruktiver Informations- und Kommunikationsplattformen, damit wir Terrorismus kooperativ bewältigen können (detaillierte Optionen DE)!

2.3 Security strategy, 3rd: Choice for open, defensive, minimal IT to support people + souvereign human-machine-interaction

Technik kann auch ein Sicherheitsrisiko darstellen kann – was bislang unter Stichwort IT-Sicherheit fällt. Denn mit der Vernetzung steigen die Risiken, wie Roßnagel und andere bereits 1990 in ihrer Studie zur „Verletzlichkeit der Informationsgesellschaft“ hervorgehoben haben. Sie differenzierten 1) potentielle technische Fehlerquellen – Hard- und Softwarefehler, 2) Fehlerarten – Anwendungsfehler, Systemfehler, Schadenspotentiale – mit ggf. Kumulations-, Multiplikations- und Kopplungseffekten – sowie 3) die Vielfalt von Angriffsformen und -motiven – intern, extern, individuell, kollektiv usw.

Diese Risiken werden heute gesteigert durch Investment-Finanzierung vieler Start-Ups, die Komponenten ungeprüft zusammengestückeln, so Constanze Kurz und Frank Rieger 2018, und weil Individuen und Organisationen proprietäre Software einsetzen, die vor allem im Bereich irrelevanter Applikationen Hintertürchen und Schwachstellen eingebaut haben, so Bernd von Brincken 2019.

Dies ermöglicht nicht nur Angriffe wie auf die Saudi-Arabische Ölindustrie im September 2019, wo viele Systeme versagten. Sondern es birgt die Frage, ob bei Sicherheitsvorfällen nicht generell auch das Einwirken maschineller Bugs – neben intendiertem oder nicht-intendiertem menschlichen Verhalten – berücksichtigt werden muss. Zumal es, wie der Guardian jüngst hervorhob, gerade im Bereich autonomer Waffensysteme durch Probleme wie fehlerhafter Wettererkennung zu Problemen kommen kann, die Menschen töten. Eine IT-affine Sicherheitspolitik orientiert sich damit nicht nur am Melden von Schwachstellen oder an besserer Koordination involvierter Akteure nach Schadensfällen, sondern an einer defensiven, funktional ausgerichteten Sicherheitsarchitektur ohne Trojaner oder Schwachstellen-Management. Idealerweise ist sie überprüfbar, das heißt orientiert an freier Software und offenen Daten. Gleichzeitig können immer Probleme auftreten, denn die meisten Systeme sind zu komplex, um überschaubar zu sein. Daher sollten auch maschinelle Fehler als Ursache bei Anschlägen einkalkuliert werden – bevor gegenseitige Anschuldigungen zwischen Staaten erfolgen. Und: desto weniger KI-Technologien zur Automatisierung menschlicher Tätigkeiten eingesetzt werden anstelle des Supports, zum Beispiel in Politik und Verwaltung, desto weniger Anschläge sind zu erwarten.

3. Umweltpolitik ist Sicherheitspolitik ist smarte Digitalpolitik mit neuen Mitteln: der Eco-Score

Begreift man den Klimawandel als Sicherheitsrisiko, dann brauchen wir dringend eine nachhaltige Wirtschaft – sowohl in Bezug auf den Ressourcenverbrauch wie auch auf die Schuldenlast künftiger Generationen – nur wie? Eine recht einfache Möglichkeit, die globale Wirtschaft mittelfristig auf die Bereitstellung einer erschwinglichen und nachhaltigen Grundversorgung hin zu optimieren, bestünde in der Nutzung von Plattformen wie Amazon. Denn diese vollbringen etwas, das bislang noch keinem Staat gelang, zu geringen Kosten: effiziente, datenbasierte Koordinierung mehrseitiger Märkte – bislang allerdings oft zum Schaden von Mensch und Umwelt, da sie nur auf Profite optimiert sind.

Würde man allerdings so etwas wie ein Eco-Scoring entwickeln, ökologische Risiken wie eine Art ökologischen Fußabdruck datenbasiert in das Ranking aufnehmen und die Plattform auf sukzessive Risikenminimierung hin optimieren, dürfte das Angebot und die Nachfrage für nachhaltige Konsumgüter transformiert werden – ohne staatliche Kontrolle oder Sanktionen (zu den Datenpolitik-Konsequenzen dazu auch Saskia Esken 2018: Dateneigentum und Datenhandel). Eine solche Lösung würde den Wettbewerb an gemeinwohlverträglichen Zielen ausrichten und gleichzeitig ein Problem lösen, das alle kooperativ ausgerichteten Gesellschaften hatten: Planwirtschaft funktioniert nicht – man braucht gerade in sich veränderten Gesellschaften eine Kommunikation über Bedarf und Angebot, damit es nicht zu Marktversagen kommt. Das könnte in seiner Bedeutung nicht unterschätzt werden: denn Kooperation mag für den Einzelnen von Nachteil sein, so Benkler in „The Penguin and the Leviathan (2011)“, für das Überleben der Gruppe jedoch von entscheidender Bedeutung.

Aber wer soll so etwas entscheiden oder durchsetzen? Führte uns das nicht in eine Ökodiktatur? Was bedeutete die Akzeptanz digitaler Plattformen für die Governance-Theorie, zusammen gefasst: Sebastian Botzem/ Jeanette Hofmann 2009? Könnte man den realitätsfernen – Parteien, Medien und Wettbewerb ignorierenden – Politikzyklus von Werner Jann (2003) ins Digitale transformieren und durch Datenanalyse- und Plattformtechnologien zu einem lösungsorientierten, demokratischen Regieren (Heinz Kleger 2018) weiter entwickeln?

Schlussfolgerungen für die smarte Gesellschaft

Die vielen Beispiele zeigen: es ist nicht die KI, die klug oder dumm ist, sondern es kommt auf das Design und den Einsatz von Datenanalyse- und Plattformtechnologien. Ob uns diese Technologien in den Abgrund führen oder retten hängt aktuell an Politikschaffenden, uns zwar im Sicherheitsbereich. Falls diese sich für das Management globaler Risiken mit Fokus auf das Überleben aller entscheiden, stellen sich trotzdem noch ein paar Probleme:

  • eine nachhaltige Technologieentwicklung braucht bessere Daten und einen breiteren Zugriff vieler Akteure, elaborierte Daten-Management-Technologien und entsprechende Zugriffsrechte. Dies darf nun nicht in der Prüfung hängen bleiben, sondern muss möglichst schnell, vermutlich in Kooperation mit den großen Unternehmen realisiert werden, mit dem Fokus auf gesellschaftlich relevante Daten, nicht: personen-bezogene.
  • eine nachhaltige Technikentwicklung brauch eine neue Urheberrechtsreform, die 1) Daten auch in Datenbanken und Datenpools vielen Akteuren zugänglich macht, 2) wissenschaftliche und juristische Texte in Datenbanken der Entwicklung von neuen Technologien wie übersichtlichen Informationsplattformen zugänglich macht, 3) es erlaubt, soziale Netzwerke mit Qualitätsinhalten zu fluten, damit ein Gleichgewicht gegenüber Hate Speech und Fake News hergestellt werden kann ohne in kostspielige, gefährliche Filtertechnologien investieren zu müssen.
  • eine nachhaltige Technologieentwicklung braucht ein Grundeinkommen: bereits bei den hier aufgeführten Beispielen zeigt sich, dass sich viele Jobs ändern müssen, wenn diese Technologien sinnvoll eingesetzt werden sollen. Menschen haben Angst, sich selbst und ihre Kinder ernähren zu können. Sie brauchen eine Grundsicherheit, um notwendige Transformationsschritte zu gehen, sich ggf. weiter zu bilden oder einen neuen Job oder eine neue Rolle zu suchen. Die Mitarbeitenden des Arbeitsamtes könnten dabei unterstützen anstelle der Verteilung von Sanktionen.
  • eine nachhaltige Technologieentwicklung braucht eine gleichberechtigte (transparente und effiziente) Kooperation aller relevanten Stakeholder, d.h. mindestens: Politik und Verwaltung, Wirtschaft (national und international) und Zivilgesellschaft, eine effiziente internationale Koordination der unterschiedlichen Gemeinschaften und eine tatsächliche Transformation entscheidungsrelevanten, qualitativen Wissens für alle Stakeholder durch digitale Methoden.

Zum Nachgucken: Sicherheitspolitik im Kontext von KI auf dem 88. Netzpolitischen Abend der Digitalen Gesellschaft:

Sicherheitspolitik im Kontext von KI

 

Du möchtest mehr kritische Berichterstattung?

Unsere Arbeit bei netzpolitik.org wird fast ausschließlich durch freiwillige Spenden unserer Leserinnen und Leser finanziert. Das ermöglicht uns mit einer Redaktion von derzeit 15 Menschen viele wichtige Themen und Debatten einer digitalen Gesellschaft journalistisch zu bearbeiten. Mit Deiner Unterstützung können wir noch mehr aufklären, viel öfter investigativ recherchieren, mehr Hintergründe liefern - und noch stärker digitale Grundrechte verteidigen!

 

Unterstütze auch Du unsere Arbeit jetzt mit deiner Spende.

7 Ergänzungen
  1. Nicht nur eine „smarte“ Sicherheitspolitik erfordert Hirn:

    (i) Es gibt keine Alternative dazu, umfassend gewaltverzichtsbasiert vorzugehen. Nur so ist die Definition von Auslöschung zu befriedigen abwendbar.

    (ii) Es gibt keine validen Übergangszustände.

    Wie kommt man dahin? Mit gewaltig Mächtigen Deep Learning AI-Schnecken, oder muss man ersteinmal die theoretische Seite auf den Stand der Gegenwart bringen? Es fehlen massive Investitionen im Modellierungsbereich (mit AI) aber auch im modelltheoretischen Bereich, sowie bei Verifikation und sicheren Systemen. Es gibt viel Lenkungswirkung, so dass Machterhaltsforschung noch „sehr interessant“ ist, inklusive Verschlüsselung ohne theoretische Verschlüsselung oder Menschenrechten mit eingeschränktem Sichtfeld, während beim Erhalt biologischen Lebens als Grundvoraussetzung für eine Fortsetzung der rohen Anwesenheit zunächst, eher „Land unter“ in Aussicht ist.

  2. Well i see this modern era has changed us to machines instead making us a Good Human Being. I totally agree with you, my son is sitting all the time home and watching tv, mobiles, video games etc. I remember in my childhood, we use to play cricket, bedminton and lots of physical games. We now don’t have time to sit and talk to others. Well i really missed those old days!!

  3. ‚Zwischen den Zeilen schreiben‘ – das macht nachdenklich. Klar, nach einer Veröffentlichung kommt häufig noch ein Gedanke, der es nicht in den Text schaffte. Hier als Ergänzung zu den Tier-Verweisen in ‚Künstliche Dummheit‘ – wir brauchen ein Benchmark-Tier, als Intelligenz-Latte, welche die KI überwinden muss:
    Blattella germanica, die deutsche Schabe, hat nur 1 Mio. Neuronen, die sich mit aktueller Hardware ganz gut simulieren lassen. Spannend aber vor allem – Blattella lebt als Einzelgänger, in Kleingruppen und ebenso in dichten Siedlungen und weiss die jeweiligen Vorteile zu nutzen: Essensreste allein vertilgen, arbeitsteilig Unterschlupfe bauen, eng beeinander Wärme spenden.
    Soziale Kompetenz, oder? Das markiert auch den Fortschritt gegenüber Feudalstaaten (vgl. Bienen) oder reinen Einzelgängern (Revierverhalten, vgl. Spinnen).
    Nach der ersten KI-Schabe sollte die Skalierung auf Menschen dann kein großer Akt sein.
    Übrigens, Schaben mögen es warm – im Zuge des Klimawandels werden wir ihnen ohnehin öfter begegnen.

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.