Interview mit Konrad Lischka: Ethik der Algorithmen

Im Gespräch fordert Konrad Lischka eine Ethik der Algorithmen. Ihre bisherige Funktion als beurteilende Macht müsse transparenter und stärker reguliert werden, gleichzeitig sollte ihr enormes Potential aber auch dem Einzelnen zur Verfügung stehen.

Konrad Lischka im Interview mit Stefanie Talaska. CC-BY-ND 4.0

„Wir sind gerade erst am Anfang“, mit diesem Worten leitete Konrad Lischka seinen Vortrag zur Ethik der Algorithmen ein, mit der er sich auch in einem gleichnamigen Projekt der Bertelsmann-Stiftung beschäftigt. Grundlegende Dinge seien bei diesem Thema noch völlig ungeklärt. Ein großes Problem sei neben der mangelnden Transparenz beim Einsatz von Algorithmen auch eine fehlende öffentliche Auseinandersetzung mit dem Thema, trotz der großen Relevanz.

Beim sogenannten predictive policing kommen Algorithmen auch bei der deutschen Polizei schon vereinzelt zum Einsatz. Wie aber beispielsweise die Nutzung in den Arbeitsämtern zum Vorbereiten oder gar zum Treffen von Entscheidungen aussieht, sei unklar.

Neben dem Gesetzgeber, der hier Regulierungen schaffen müsse, sieht Lischka aber auch die Zivilgesellschaft in der Pflicht. Eine Art staatliche Prüfstelle wurde unter dem eingängigen Namen Algorithmen-TÜV bereits diskutiert, noch wichtiger findet Lischka jedoch eine breitere öffentliche Debatte. Interessenvertreter der Bürger seien bei Umweltthemen schon etabliert, eine ähnlich präsente Gruppe fehle aber für den Umgang mit Algorithmen und Digitalisierung noch.

Insgesamt müsse man hin zu einer neuen Art der Algorithmennutzung, die „den Menschen dient“ und weniger Überwachungs- und Bewertungsinstrument ist. Denn wenn sie verfügbar sind, könnten Algorithmen auch den Einzelnen bei schwierigen Entscheidungen unterstützen, beispielsweise bei seiner Finanzplanung oder der Berufswahl.

Das Gespräch gibt es auch als als Podcast. Viel Spaß!

Seinen Vortrag auf der „Das ist Netzpolitik!“-Konferenz findet Ihr bei Youtube und media.ccc.de.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

2 Ergänzungen

  1. Wenn Algorithmen auf Menschen angewendet werden, werden sie zu einem Herrschaftsinstrument über Menschen, die diese „Verarbeitung“ nicht wahrnehmen können.

    Algorithmen kann man weder sehen, tasten, riechen, hören noch schmecken. Aber sie wirken auf Betroffene, nicht selten ohne dass dieser es bemerkt oder sich dagegen wehren könnte. Radioaktivität lässt sich immerhin noch messen, aber wie kann ein Mensch feststellen, dass er von Algorithmen beeinträchtigt wird?

    Ethik und Algorithmen sind ein noch weitgehend unbeachtetes Feld für die Zukunft unserer Gesellschaft. Ein Diskurs darüber findet gegenwärtig aber nicht statt, und es scheint so, dass die Wirkmächtigen naturgemäß auch wenig Interessen an einem solchen haben.

    Wir müssen den Akteuren diese Diskussion in der Öffentlichkeit hartnäckig aufdrängen!

    Wir müssen Bürgerrechte so früh wie möglich proaktiv verteidigen, denn die Macht des Faktischen hat es an sich, dass im Nachhinein es oft zu spät ist, Auswüchse zu bereinigen.

    Ethik musste schon immer erkämpft werden, es gab sie nie „umsonst“.

  2. Den Netzpolitik-Leser_innen sind solche Themen bewusst und wir können uns etwas darunter vorstellen. Aber die meisten interessiert es doch schon nicht mehr, wenn sie online von allen möglichen Unternehmen getrackt werden – es also Daten über ihr Verhalten erhoben werden. Der nächste Schritt, dass Algorithmen dann etwas (teilweise quasi unvorstellbares) mit diesen oder anderen Daten machen, liegt noch weiter weg und ist „denktechnisch“ viel abstrakter. Ich würde gerne ein anderes Fazit ziehen aber ich glaube wir sind hier meilenweit von einer breiten öffentlichen Debate entfernt.
    Und das obwohl es bitter nötig ist. Hier müssen Regelungen gefunden werden und diese werden sicher nicht aus dem Silicon Valley/Privatwirtschaft kommen. Unsere Daten gehören uns genau wie die Werte die ein Algorithmus damit wohlmöglich schöpfen kann.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.