Algorithmische Entscheidungsfindung: Handlungsbedarf und Lösungsansätze in der Übersicht

Algorithmen und Künstliche Intelligenz kommen nicht, sie sind längst da – und bestimmen immer mehr unser Leben. Welche Chancen und Risiken ergeben sich daraus? Wie ist zu sichern, dass Maschinen dem Menschen dienen? Ein neues Arbeitspapier gibt Überblick über die Debatte – und ordnet Handlungsbedarf und Lösungsansätze aus rechtlicher, technischer und politischer Perspektive.

Algorithmen und Künstliche Intelligenz – was wir wissen müssen, damit Maschinen dem Menschen dienen (Symbolbild) | Original „Red and Blue Pill“ CC-BY-NC-SA 4.0 W.carter

Das Thema ist heiß und hat viele Facetten: Algorithmen und Künstliche Intelligenz bestimmen immer zentraler unser Leben, z.B. im Bereich der vorhersagebasierten Polizeiarbeit, der Medizin oder der Bewerberauswahl. Das hat bekanntermaßen viele Vorteile, aber auch seine Risiken – wie etwa die Verstetigung sozialer Ungleichheiten, die Turbo-Monopolisierung der Datenanalyseindustrie, mangelnde Nachvollziehbarkeit, Zweckentfremdung oder Manipulation.

Die Öffentlichkeit fordert algorithmische Transparenz und Diskriminierungsfreiheit. Techniker experimentieren mit sich selbst-erklärenden Algorithmen. Datenschützer pochen auf die EU-Datenschutz-Grundverordnung, die leider nur Ausnahmefälle algorithmischer Entscheidungsfindung regelt. Es gab und gibt viele Stimmen in der Debatte, aber wenig Überblick. Ein neues Arbeitspapier von Konrad Lischka (Bertelsmann Stiftung: Algorithmen-Ethik) und Julia Krüger (unabhängig, freie Autorin bei uns) zeigt jetzt eine Übersicht zu politischem Handlungsbedarf und Lösungsansätze im Bereich algorithmischer Entscheidungsfindung.

Basierend auf internationaler Literaturrecherche fanden dabei Beiträge aus Wissenschaft, Wirtschaft, Zivilgesellschaft und Politik Berücksichtigung. Schwerpunkt war die Systematisierung der Ansätze mit Blick auf den Entstehungs- und Anwendungskontext algorithmischer Entscheidungssysteme: Technische, rechtliche und institutionelle Aspekte prägen die Art und Weise, wie Algorithmen und Künstliche Intelligenz entwickelt, verwendet und geprüft werden können – an vielen Punkten, so zeigen die Autoren anhand bekannter und neuer Beispiele.

Herausgekommen ist ein umfassendes Lösungspanorama über folgende Bereiche:

1. Zielsetzung algorithmischer Systeme auf gesellschaftliche Angemessenheit prüfen.
2. Umsetzung dieser Ziele im Einsatz überprüfen.
3. Vielfalt der Systeme, Ziele und Betreiber schaffen und sichern.
4. Übergreifende Rahmenbedingungen für den teilhabeförderlichen Einsatz schaffen (…) staatliche Regulierungskompetenz.

Sie umfassen so unterschiedliche Vorschläge wie Verträglichkeitsprüfungen, Qualitätssiegel für Herkunft und Güte von Daten, Verbandsklagerechte für die Antidiskriminierungsstelle des Bundes oder eine kompetente Algorithmenagentur – ebenso wie eine ausführliche Erörterung der Möglichkeiten und Grenzen von Algorithmus-Auditing (Prüfung).

Das komplette Arbeitspapier mit dem Titel „Damit Maschinen dem Menschen dienen“ steht unter der CC-BY-SA-Lizenz und findet sich hier. Die Autoren freuen sich über Rückmeldung, Anregung und Ergänzung.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

Eine Ergänzung

  1. Ist doch eigentlich schon wie bei Tieren, z.B. Hunden, da hat einer schon das 3te Herrchen und denkt sich: „Mensch ist der dumm“ – oder zumindest, im Verhältnis, von mehr Unverständnis ihm, dem Hund, gegenüber geprägt als die Vorigen. Ja, Unterschiede wird jeder Hund machen!

    Das Ding mit dem Dienen und Herrschen – in welche Richtung auch immer – ist als Holzweg erkannt. Hegel, bsplw. erklärte es am Verhältnis zwischen Herr und Knecht, deren Verhältnisse sich umkehren, desto mehr der Knecht die Geschäfte und den Alltag des Herrn bestimmt. Mal dient einem die KI mal ists umgekehrt – ehm, manchmal weiß‘ mans nicht so genau?! *wuff*

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.