Anfang des Monats hat der Zündfunk-Generator auf Bayern2 in 35 Minuten über den Science-Fiction-Autor Isaac Asimov berichtet: Isaac Asimov und seine Roboter-Träume.
Künstliche Intelligenz ist auf dem Vormarsch. Die Maschinen-Zukunft scheint so nah, dass manche schon über eine Ethik für Roboter diskutieren. Es wird also dringend Zeit, mal wieder Isaac Asimov zu lesen: Asimov hat schon vor über 70 Jahren „Robotergesetze“ formuliert.
Zu den Robotorgesetzen von Asimov sei gesagt, dass diese einen großen konzeptionellen Fehler haben:
Als Beispiel nehme man folgende theoretische Situation:
Ein Zug fährt mit hoher Geschwindigkeit auf eine Weiche zu.
Auf dem einen Gleis befindet sich eine Person, auf dem anderen 2 Personen.
Der Roboter kann durch umstellen der Weiche entscheiden, welches der beiden Gleise befahren wird.
In dieser Situation kann man sich moralisch nur „falsch“ entscheiden. Alein für die Bewertung welche der Optionen weniger falsch ist, müsste man Moral in Zahlen ausdrücken können, was schlicht nicht möglich ist.
Ja man könnte Argumentieren, bei einer der Optionen stirbt nur eine Person, aber was wenn diese ein Kind ist?
Da haben die Philosophen und Prgrammierer noch sehr viel Arbeit vor sich, bevor Asimovs Gesetze auch nur annähernd umsetzbar sind.
Mit freundlichen Grüßen
Philipp Lange
Die Problematik nicht oder schwer entscheidbarer Probleme kann durch Algos mit Zufallskomponente gut genug an Realsituationen angepasst werden, zumal Menschen auch nicht in der Schrecksekunde im Ethikhandbuch nachschlagen sondern einfach nur reagieren, mit auch immer auch welchem Ergebnis.