Algo.Rules

Mit 145 Fragen zu besseren Entscheidungssystemen

Mit ihren „Algo.Rules“ legt die Bertelsmann Stiftung einen Werkzeugkoffer für Entwickler:innen, Programmierer:innen und Designer:innen von automatisierten Entscheidungsregeln vor. Neben neun grundsätzlichen Regeln setzt der Leitfaden vor allem auf Orientierungsfragen für die Praxis.

Technische Entscheidungen können soziale Auswirkungen haben und dürfen nicht dem Zufall überlassen werden. Der neue Praxisleitfaden soll helfen, möglichst früh die richtigen Fragen zu beantworten.
Technische Entscheidungen können soziale Auswirkungen haben und dürfen nicht dem Zufall überlassen werden. Ein neuer Praxisleitfaden soll helfen, möglichst früh die richtigen Fragen zu beantworten. Gemeinfrei-ähnlich freigegeben durch unsplash.com Erik Mclean

Software sollte nicht nur nach technischen, sondern auch nach ethischen Gesichtspunkten gestaltet werden. Dass dies inzwischen nicht nur Expert:innen so sehen, sondern auch viele Praktiker:innen, führt bisweilen zu der ungewollten Konsequenz, dass sich Programmierer:innen der Verantwortung nicht mehr gewachsen fühlen: Laut einer britischen Studie kündigen mehr als ein Viertel aller Entwickler:innen im Bereich der künstlichen Intelligenz ihre Jobs, weil sie negative Konsequenzen für Einzelne oder die Gesellschaft befürchten.

In Deutschland wird das Thema der ethischen Algorithmen von wenigen NGOs vorangetrieben, darunter die Bertelsmann Stiftung und der Think-Tank iRights.Lab. Jetzt legen die beiden gemeinsam einen Praxisleitfaden zu neun Regeln für die Gestaltung algorithmischer Systeme vor. Der Leitfaden namens Algo.Rules richtet sich nach Aussage der Autor:innen in erster Linie an Entwickler:innen und Führungskräfte und soll nicht nur finanzielle Schäden verhindern, sondern auch automatisierte Entscheidungssysteme verbessern und vertrauensvoller machen.

Umfassender Fragenkatalog

Dazu haben die Autor:innen neun Themenfelder formuliert, darunter „Kompetenz aufbauen“, „Verantwortung definieren“, „Beherrschbarkeit absichern“ und „Beschwerden ermöglichen“. Für jedes Themenfeld wird kurz ausgeführt, warum es relevant ist und welche inhaltlichen Perspektiven im eigenen Projekt berücksichtigt werden sollten. Darüber hinaus enthält der Leitfaden weiterführende Links zu methodischen oder wissenschaftlichen Ausarbeitungen zu einzelnen Punkten.

Die Autor:innen machen klar, dass Organisationen, die algorithmische Systeme entwickeln, die Maßnahmen erst für ihre Zwecke anpassen oder den kompletten Leitfaden sofort anwenden können. Anwenden meint in dem Fall vor allem: Die angebotenen Fragen für das eigene Vorhaben durcharbeiten und beantworten.

Denn im Kern arbeitet die Orientierungshilfe mit Fragen, um kritische Punkte bei der Entwicklung von automatisierten Entscheidungssystemen möglichst früh im Arbeitsprozess zu klären. Dazu sind die wichtigsten Perspektiven zu jeder einzelnen der neun Regeln in Checklisten zusammengefasst. Das beginnt bei der Frage, ob alle grundlegenden Begriffe in einem Glossar oder Wiki festgehalten sind, damit sie einheitlich verwendet werden und endet damit, Zuständigkeiten für eingehende Beschwerden festzulegen.

Weitere Publikationen geplant

Nicht jede der insgesamt 145 angebotenen Fragen muss beantwortet werden, machen die Autor:innen des Leitfadens deutlich: Die Arbeit von Entwickler:innen habe zwar gesellschaftliche Auswirkungen, aber nicht immer hätten diese Auswirkungen das gleiche Ausmaß. Während etwa eine automatisierte Kühlung weniger aufwendig geprüft werden müsse, stünden im Fokus der Algo.Rules vor allem solche algorithmischen Systeme, die das Leben von Menschen entscheiden. Wenn es also darum geht, wer Geld, Güter, Chancen oder Freiheiten bekommt, sei die Wirkungsrelevanz als besonders hoch einzustufen und das System wie auch seine Umgebung eingehender betrachtet werden.

Neben dem jetzt veröffentlichten Praxisleitfaden soll bald auch ein Impulspapier dazu erscheinen, welche Verantwortung Unternehmen tragen, die Systeme für automatisierte Entscheidungen entweder entwickeln oder einsetzen. Beide Veröffentlichungen setzen laut den Autor:innen auf Praxistauglichkeit und bieten Orientierungshilfen. Zusätzlich soll eine Handreichung, die sich explizit an den öffentlichen Sektor richtet, noch im Jahr 2020 publiziert werden.

7 Ergänzungen
  1. Danke für den Artikel und den Hinweis auf die neun Regeln! Sehr spannend, auch für meine Tätigkeiten.

    Aber: Würdet Ihr die Bertelsmann Stiftung echt als NGO bezeichnen? Und wo finde ich die 145 Fragen, die zu stellen sind?

    1. Schön, dass dir der Artikel weiterhilft. Wir haben nach einem sinnvollen Überbegriff gesucht und „NGO“ schien am treffendsten, schließlich ist auch die Bertelsmann Stiftung letztlich eine Organisation, die eben nicht staatlich ist. Die Fragen stehen im auch im Text verlinkten PDF in den jeweiligen Kapiteln unter der Überschrift „Orientierungsfragen“, konkret ab Seite 8. Mein Computer hat gezählt, dass es insgesamt 145 Fragen sind.

      1. Wenn die Bertelsmann-Stiftung als NGO durchgeht, ist jede Lobbyorganisation der Wirtschaft oder Privatunternehmung eine NGO. Formal ist das korrekt, entspricht mE aber nicht dem allgemeinen Gebrauch der Bezeichnung.

  2. Die Bertelsmann Stiftung mit ihren 70 Mio. wirken in der gesamten Themenwelt unserer „Politik-„Landschaft und veröffentlichen über „ihre“ Medien eine eigene Wissenschaftlichkeit. Hier eine Studie über Bildung, dort eine über unser Gesundheitssystem und auch zur Digitalisierung. Die Ergebnisse konnte man zur Studie der Krankenhausversorgung erleben.
    Es wird außerordentlich wichtig sein transparent und vielschichtig sich mit den ethischen Aspekten zu beschäftigen, aber nicht in diesem frühen Zeitpunkt der Diskussion, auf zu springen auf einen „Leitfaden“ einer Stiftung.

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.