Datenethik: Projekt #algorules will Richtlinien für Programmierer*innen

Die Bertelsmann Stiftung und das iRightsLab arbeiten an einem Ethik-Kodex für Entwicklerinnen und Entwickler von Algorithmen. Bis zum 21. Dezember können Interessierte Feedback zum aktuellen Stand der Entwicklung geben.

Der heilige Benedikt hat seine Regeln einfach heruntergereicht. #algorules will das etwas offener gestalten. – CC0 Niccolò di Giacomo da Bologna

Ärzt*innen haben den modernisierten hippokratischen Eid, für Journalist*innen gibt es den Pressekodex. Aber an welchen ethischen Richtlinien orientieren sich die Entwicklerinnen und Entwickler von Algorithmen? Schließlich wirkt sich ihr Handeln potentiell auch auf Fragen von Leben und Tod aus – etwa dann, wenn ihre Anwendung darüber entscheidet, wer ins Gefängnis kommt, ins Visier der Polizei gerät, einen Kredit erhält oder eine Chance auf Heilung bekommt. In all diesen Bereichen wird bereits heute maschinelles Lernen eingesetzt, also selbstlernende Algorithmen, die in großen Datenmengen nach Mustern suchen und auf dieser Basis Vorhersagen über die Zukunft treffen.

Das Projekt #algorules will deshalb einen Katalog von Kriterien entwickeln. Dahinter steht der Thinktank iRights.Lab im Auftrag der Bertelsmann Stiftung. Es ist nicht der erste Versuch dieser Art, in den USA gibt es schon verschiedene Aufschläge zu einem solchen Ethik-Kodex. #algorules hat sie als Grundlage genommen und mit einer Expert*innenrunde weiterentwickelt, darunter die ehemalige FDP-Justizministerin Sabine Leutheusser-Schnarrenberger und Stefan Ullrich von der Gesellschaft für Informatik. Folgende acht Kriterien kamen dabei heraus:

  1. Kompetenz aufbauen: Die Funktionsweisen und Wirkungen von Algorithmen müssen verstanden werden.
  2. Verantwortung zuweisen: Für die Wirkungen eines algorithmischen Systems muss eine natürliche Person verantwortlich sein.
  3. Ziele und erwartete Wirkung nachvollziehbar machen: Die Ziele und die erwartete Wirkung eines Algorithmus müssen nachvollziehbar gemacht werden.
  4. Sicherheit gewährleisten : Der Einsatz von algorithmischen Systemen muss sicher sein.
  5. Transparenz erhöhen: Der Einsatz eines algorithmischen Systems muss gekennzeichnet sein.
  6. Beherrschbarkeit sichern: Der Einsatz von algorithmischen Systemen muss beherrschbar sein.
  7. Wirkung überprüfen (lassen): Die Auswirkungen eines algorithmischen Systems auf den Menschen müssen regelmäßig überprüft werden.
  8. Korrigierbarkeit herstellen: Entscheidungen eines Algorithmus dürfen nie unumkehrbar sein.:

Feedback für die Algorithmenethik

Im nächsten Schritt soll der Katalog einem ersten Test unterzogen werden. Seit Montag läuft eine Online-Umfrage, an der sich alle beteiligen und eigene Einschätzungen zu dem bisher Erarbeiteten abgeben können – unabhängig davon, ob sie selbst Algorithmen entwickeln oder mit diesen arbeiten. „Wir hoffen, so einen möglichst breiten Einblick in die Entwicklung und Anwendung algorithmischer Systeme zu erlangen und eine Anwendbarkeit und Verbindlichkeit der erarbeiteten Kriterien zu erreichen“, schreibt Projektleiterin Carla Hustedt. Wer also am algorithmischen Eid mitwirken möchte: Die Umfrage läuft noch bis zum 21. Dezember.

Ob dann in Zukunft Absolvent*innen der Informatik auch den Eid ablegen? „Bei meiner Aufnahme in den programmierenden Berufsstand gelobe ich feierlich: mein Leben in den Dienst der Menschlichkeit zu stellen.“

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

6 Ergänzungen

  1. Zu 2. Verantwortung zuweisen
    Für die Wirkungen eines algorithmischen Systems muss eine natürliche Person verantwortlich sein

    Wie sollte denn, bitteschön, ein Ingenieur für eine Fehler, der (z.B.) zu einem Brückeneinsturz führt, die Haftungssumme bezahlen ?
    Ich möchte hier auf nachfolgenden Link des VDI verweisen.
    Daraus wird deutlich, dass zunächst immer die Firma haftet, alse eine juristische Person.
    Da ist wohl mehr Wunsch der Vater des Gedanken.

    https://www.vdi.de/karriere/recht/musteranstellungsvertrag-vereinbarung-mit-dem-arbeitgeber/15-haftung/

    Der Entwickler arbeitet für eine Firma und diese Firma trägt die Verantwortung.
    Das ist bisher so üblich-
    Lediglich bei grob fahrässigen oder wegen nicht beachteten NORMEN

  2. Die Bertelsmann Stiftung welche nahezu im Alleingang für die finanzielle Armut und all den damit einhergehenden Erkrankungen der Menschen in diesem Land verantwortlich ist, erzählt uns nun also etwas über Ethik…
    Ist der Artikel zynisch gemeint?

    Hartz IV – undemokratisch? (ZDF: Die Anstalt)
    Datum: 24.04.2018, 22:15:00 Uhr * Dauer: 00:08:58
    Max und Claus erörtern, wie demokratisch der Entstehungsprozess von Hartz IV eigentlich war, und was die Bertelsmann Stiftung damit zu tun hat.

    [niedrige Auflösung]
    https://rodlzdf-a.akamaihd.net/none/zdf/18/04/180424_clip_10_dan/2/180424_clip_10_dan_476k_p9v13.mp4

    [standard Auflösung]
    https://rodlzdf-a.akamaihd.net/none/zdf/18/04/180424_clip_10_dan/2/180424_clip_10_dan_2328k_p35v13.mp4

    [hohe Auflösung]
    https://rodlzdf-a.akamaihd.net/none/zdf/18/04/180424_clip_10_dan/2/180424_clip_10_dan_3296k_p15v13.mp4

    [website]
    https://www.zdf.de/comedy/die-anstalt/die-anstalt-hartz-iv-undemokratisch-100.html

  3. Ditto. Bertelsmann Stiftung? You. Must. Be. Kidding.

    Die Frage der Ethik des Algorithmus ist, schlicht gesagt, Unsinn. A method is a method is a…. patent before you can blink.

    Las uns ein konkretes ethisches Dilemmas des Programmierers (definite article, the) als Beispiel nehmen.

    Wohl wissend das die VG Wort hauptsächlich die Interessen von Monopol gewillten Verlagen (im Bereich Bildung, Recht, Gesundheit, you name it) agiert stellt sich der Programmierer (the, definite.) die frage: Ist es zu verantworten, nur um die unterbezahlten Schreiber bei netzpolitik.org zu helfen richtig eines Uhrgeberrechts und Verwertung- regimes zu nutzen das womöglich dem Gemeinwohl schadet?

    Eigentlich, in dem ich die Methoden anwendetet (Algorithmen nutzen auch andere Algos) aber nebenbei mich mit dem rechtlichen Rahmen beschäftigte (und deren Auswirkung auf Bildung, bzw.) war mir schon klar das es NICHT ETHISCH ZU VERANTWORTEN IST.

    Nichts desto trotz, habe ich das (endlich the definite article) plugin (und Algos) geschrieben. Die sichern das Tantiemen die erhoben werden als Schullehrer Kopien machen in einen Topf fließen das die Verlage anzapfen. Das scheint das dem Autor nicht zu interessieren. Oder? Sprich, ist der Autor (the, definte article) Nutznießer des Regimes ohne sich zu kümmern welch ‚Algos‘ dahinter stecken? Fragt sich nicht, sind diese Algos vom nutzen oder ein schaden für die Bildung unsere Kinder (your’s and mine, the definite article, it’s understood)? Und da kommen wir auf dem Punkt. Die Nutzer (the, definite article, Users.) interessiert es nicht. Die Firmen benutzen Copyright und Patents und sichern ‚Intellectual Property‘. Und wir. Na wir Programmierer sind in der regel dagegen.

    Jedes einzelne ‚Rule‘ der oben genannten ist, bezogen auf die Mathematik, fehl am platz. A method for turning the earth is not the subject of ethics. Turning the earth with this method too oft and causing errosion, may well be the subject of ethics. Aber die grundlegende gewollte Blindheit über die eigentliche Problematik, die Auftragsgeber der Programmierer (the, definite article), ie. capitalism, ist etwas erschreckend.

  4. Ich wollte eigentlich nicht die Einzelnen punkte näher betrachten. Jedoch ist eines der Bestreben der Open Source Entwickler, vertreten durch solche wie die Free Software Foundation, bzw, schon lange weitestgehend in Übereinstimmung mit den aufgeführten regeln.

    Das von mir erwähnte Plugin ist unter folgender License veröffentlicht: GPL v2.0 http://www.gnu.org/licenses/gpl-2.0

    Regeln 2 und 8 werden mehr oder weniger vom Präambel ausgeschlossen:

    NO WARRANTY: BECAUSE THE PROGRAM IS LICENSED FREE OF CHARGE, THERE IS NO WARRANTY FOR THE PROGRAM, TO THE EXTENT PERMITTED BY APPLICABLE LAW.

    Sonst glaube ich decken die Veröffentlichung (an sich und angelehnt an Algorithmen die ich übernommen habe von dritten) und die License alle anderen Regeln.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.