#33c3: Das Problem der Ethik bei selbstfahrenden Autos

Maya Ganesh ist Leiterin beim Tactical Tech Collective für angewandte Forschung, Halbzeit-Doktorandin und hielt einen Vortrag beim 33C3 über „Ethik in der Datengesellschaft – Macht und Politik in der Entwicklung fahrerloser Automobile“.

Maya Ganesh beim 33C3 „Ethik in der Datengesellschaft – Macht und Politik in der Entwicklung fahrerloser Automobile.“

Maya Ganesh beim #33C3
„Ethik in der Datengesellschaft – Macht und Politik in der Entwicklung fahrerloser Automobile“

Der 33C3-Vortrag „Ethics in data society – power and politics in the development of driverless cars“ befasst sich mit den Verstrickungen von maschineller Intelligenz, menschlicher Ethik und selbstfahrenden Autos sowie in diesem Kontext mit der Problematik, Software zu programmieren, welche zu moralischen Entscheidungsfindungen fähig ist. Ein Kernproblem der Thematik ist der sogenannte Weichenstellerfall („trolley problem“), auf den Maya Ganesh Bezug nimmt und welcher ein moralisches Dilemma darstellt: In diesem Szenario rast ein Auto unweigerlich auf eine Gruppe von Menschen zu, doch durch Ausweichen besteht die Möglichkeit, nur eine Person zu überfahren – anstatt mehrerer – und den Schaden somit zu begrenzen. (Der Weichenstellerfall nimmt einen Zug als Beispiel.)

Wie sollte man sich nun entscheiden?

Ein Dilemma, welches die Grenzen moralischer Bewertung von Handlungen aufzeigt und in Bezug auf selbstfahrende Autos die Problemstellung aufwirft, ob in einer kritischen Situation das Auto die Insassen um jeden Preis schützen oder aber utilitaristisch handeln soll, um in Summe mehr Leben zu retten („Happiness of the biggest number“). Die Ethik der Technologie ist hierbei kontextgebunden und ein zu weitreichender Begriff, wie ihn Annany beschreibt, um vorschnell in Algorithmen gegossen zu werden:

„Die Ethik der Technologie entsteht aus einer Mischung von institutionalisierten Regeln, sachkundiger Bildung, technischen Möglichkeiten, sozialen Gewohnheiten und individueller Entscheidungsfindung. Allerdings sind ethische Erhebungen nicht ein Test, den es zu bestehen oder eine Kultur, die es zu befragen gilt, sondern eine komplexe soziale und kulturelle Errungenschaft.“
(Annany, 2010)

Ein Team des Massachusetts Institute for Technology (MIT) arbeitet zurzeit an einem Projekt, um eine moralische Maschine zu entwickeln. Dabei versuchen sie, den Weichenstellerfall zu umgehen, indem sie eine Anzahl an Szenarien erstellen, diese öffentlich zugänglich machen und die Bürger über den Ausgang des Dilemmas entscheiden lassen. Eine andere Möglichkeit wäre, das Programm zufällig entscheiden zu lassen.

Jedoch sind beide Lösungsansätze noch nicht ausgereift, wie Maya Ganesh mit dem Beispiel der lernenden Thermostaten illustriert: Diese könnten nicht unterscheiden, ob eine Person aus ökologischen Gründen wenig heizt, weil sie selten zu Hause ist oder auch einfach nur zu warme Räume nicht erträgt. Was wiederum Fragen zur Moralfähigkeit von Maschinen aufwirft.

Screenshot: CCC. Lizenz: Creative Commons BY 3.0. Ausschnitt eines Szenarios des moral-machine Projektes

Screenshot: CCC. Lizenz: Creative Commons BY 3.0.
Ausschnitt eines Szenarios des moral-machine Projektes

Doch sind die ethischen Problemstellungen nicht die Einzigen, die auf uns zukommen werden, da auch andere Fragen noch ungeklärt sind. Etwa: Was aus einer Stadt wird, die nur von selbstfahrenden Autos befahren wird, sollte die Vision tatsächlich eines Tages Realität werden. Würde sich das Stadtbild im unterstützenden Sinne für fehlerfreie Fahrten ändern? Müsste man beispielsweise Schilder durch QR-Codes ersetzen? Die Straßen geradliniger gestalten oder Autos einheitliche Farben zuschreiben? (Ganz zu schweigen von den ökonomischen Implikationen, die damit einhergehen.)

Ebenfalls ändert sich die Fragestellung, von „Was wir über Maschinen denken, die denken“ hin zu „Was denken wir über Maschinen, die lernen“. Eine Frage, die das Mensch-Maschinen-Verhältnis betrifft.

Es steht ein langer Weg bevor

Maya Ganesh ist überzeugt, dass selbstfahrende Autos genauso starke gesellschaftliche Einflüsse auf den Menschen ausüben werden wie die Nutzung von Strom oder die Erfindung des Telefons, auch wenn die Integration der Next-Generation-Autos in die Gesellschaft noch vor einigen Hürden steht und Zeit brauchen wird, da diese Autos derzeit noch langsam lernen.

Abgesehen von Meinungen, dass Ethik nicht in Software abgebildet werden kann, steht die Wissenschaft noch vor einem langen Weg, wie der Unfall eines Tesla-Autos im Mai bewies, als der Autopilot nicht in der Lage war, zwischen dem Himmel und der Ladeklappe eines LKWs zu unterscheiden und somit nicht die Bremsen betätigte.

Und auch bei Fragen, ob etwa ein selbstfahrendes Auto Stadtviertel mit belegt höheren Kriminalitätsraten umfahren darf, welches wiederum in einem gewissem Maße zu einer sozialen Ausgrenzung führt, handelt es sich um Problemstellungen, die nach wie vor noch nicht gründlich genug behandelt wurden – genauso wenig wie weiterhin ungeklärte Versicherungsfragen. Und dies alles stellt dennoch nur einen Bruchteil der kommenden Problematiken dar, die selbstfahrende Autos mit sich bringen werden.

25 Kommentare
    • holy smoke 7. Jan 2017 @ 13:38
  1. Schrott zu Schrottt 7. Jan 2017 @ 11:56

Kommentar hinterlassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Unterstütze unsere Recherchen und Berichterstattung für Grundrechte und ein freies Internet durch eine Spende. Spenden