KI zum Wohle der Gesellschaft nutzen oder für ihren Untergang?

In Diskussionen über „Künstliche Intelligenz“ mangelt es oft an Überblick. Auf unserer Konferenz erklärte Julia Krüger, wo Probleme liegen und warum das Thema bei einigen Angst hervorruft. Die mächtigen Technologien können sehr wohl für das Gemeinwohl genutzt werden. Entscheidend sind dabei auch offene Daten.

Julia Krüger ist seit Juni 2018 wissenschaftliche Mitarbeiterin bei der Bundestagsabgeordneten Saskia Esken (SPD). Sie hat einen Vortrag auf unserer „Das ist Netzpolitik“-Konferenz gehalten und schreibt Gastbeiträge für netzpolitik.org. Ihre Schwerpunktthemen sind Algorithmen, Künstliche Intelligenz und Content-Regulierung.

In zwanzig Minuten einen Vortrag über Künstliche Intelligenz zu halten, ist keine leichte Aufgabe. Denn KI ist einerseits ein sehr breites Thema und andererseits für viele ein „Buzzword“, das bestimmte Emotionen und Assoziationen weckt. Dabei ist oft nicht klar, worüber genau gesprochen wird und womit wir es überhaupt zu tun haben. Der Vortrag von Julia Krüger auf unserer „Das ist Netzpolitik“-Konferenz sollte deshalb vor allem als Orientierungshilfe, Handlungsempfehlung und Wegweiser für die Zivilgesellschaft dienen.

Größtes Problem ist mangelnde Übersicht

Der gesellschaftliche Diskurs rund um die Themen „Künstliche Intelligenz“ und „Algorithmen“ weist eine Reihe von Problemen auf, analysierte Julia Krüger. Zunächst bleibt oft unklar, was eigentlich konkret gemeint ist, wenn von Künstlicher Intelligenz gesprochen wird. Unter die Überschrift fallen eine ganze Reihe von Analysesystemen, bei denen in Verbindung mit weltweiter Vernetzung, vielen Daten und Rechnerkapazitäten große Fortschritte gemacht wurden. Schon allein im Bereich neuronaler Netzwerke gibt es viele verschiedene Varianten.

Häufig bleibt zudem undurchsichtig, welche konkreten Methoden bereits für welche Zwecke eingesetzt werden. Genaue Informationen sind jedoch sehr wichtig, um beispielsweise unterscheiden zu können, ob über den Einsatz von Künstlicher Intelligenz in der Analyse oder in der Anwendung gesprochen wird. Gerade im Bereich der Anwendung, zum Beispiel bei automatisierten Entscheidungsfindungen, gibt es viel mehr Stellschrauben, zahlreiche Unklarheiten und größere Risiken, betonte Krüger.

Außerdem bestehen Missverständnisse darüber, wie weit fortgeschritten die technologische Entwicklung heute bereits ist und welche weiteren Fortschritte in Zukunft realistisch sind. „Wenn über algorithmische Entscheidungsfindung gesprochen wird, sind die meisten Beispiele komplett veraltet“, merkte Krüger in diesem Zusammenhang an.

Was wir wirklich brauchen, sind offene Daten

All dies zeigt, dass Nachvollziehbarkeit und Kontrolle gegeben sein müssen. Dahingehend sollten Algorithmen geprüft werden. Darüber besteht weitgehend Einigkeit. Allerdings ist so eine Prüfung leichter gesagt als getan:

Die neuen Datenerhebungs- und Datenanalyseverfahren [ergeben] ganz komplexe und ganz dynamische Algorithmenentscheidungssysteme […] mit zahlreichen Feedback-Schleifen und das auf Basis von sehr sehr dynamischen Datensätzen. Das kann logisch kaum noch überprüft werden – da braucht man eigentlich immer Input- und Output-Analysen.

Kontrolle funktioniert also nur über Daten, schlussfolgert Krüger. Wenn die Daten jedoch nicht offen zugänglich sind, sondern in kommerzieller Hand liegen, kann keine Nachvollziehbarkeit und Kontrolle erreicht werden. Was wir wirklich brauchen, sind deshalb offene Daten. Dafür müssen zwangsweise Geschäftsmodelle geändert werden, so Krüger.

Werte und Normen einbeziehen

Julia Krüger hat viele Ideen, in welche Richtung es langfristig gehen kann und wie Werte und Normen in die Entwicklung einbezogen werden könnten. Beispielsweise könnte Amazon mit nachhaltigen Zielen verbunden werden. Auf LinkedIn könnten gesellschaftlich relevante Sektoren wie Bildung oder Gesundheit prioritisiert werden, um dem Fachkräftemangel entgegenzuwirken. Plattformen wie Facebook könnten positiv für den Gesellschaftsdiskurs genutzt werden. Die Potenziale der Datenanalyse könnten dazu verwendet werden, wirklich reale Probleme zu identifizieren. All dies funktioniere aber nur, wenn die richtigen Werte und Normen in die technologische Entwicklung einbezogen werden.

Video-Aufzeichnung des Vortrags:

Hier klicken, um den Inhalt von media.ccc.de anzuzeigen

Hier gibt es den Vortrag außerdem als Audio-Datei (mp3):

Alle Aufzeichnungen unserer Konferenz.

2 Ergänzungen

  1. der letzte Satz sagen?
    Daß es sowieso nix werden kann oder daß es einfach nur naiv ist?
    Wer legt fest, was „richtig“ ist? Welches „richtig“ ist „richtig“? Mein „richtig“ oder z.B. das „richtig“ eines Seehofers oder Trumps?

    1. Nun, wir Menschen bekriegen uns aus den verschiedensten Gründen, wir Menschen fügen uns gegenseitig Schmerzen zu, manche aus Not, andere zum Vergnügen!
      Wenn du es schaffst einer KI, die für die allgemeine Sicherheit der Menschen zuständig wäre, zu verklickern, wie sie sich zu verhalten hat, also nicht alle Menschen unter ständigen Arrest zu stellen, um sie gegenseitig vor Übergriffen zu schützen, dann könnte KI eine Richtungsweisende Technologie werden, die unsere Lebensqualität erhöhen könnte!
      Klar, unter der Bedingung, das wir uns immernoch unkontrolliert bekriegen und uns gegenseitig Schmerzen zufügen dürfen!

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.