Autonome Waffensysteme töten ohne ethische Bedenken. Was vor ein paar Jahren als Science Fiction erschien, rückt angesichts großer Fortschritte bei der Entwicklung von Künstlicher Intelligenz jeden Tag ein stückweit näher. Ein gemeinsamer Bericht von Human Rights Watch und des Menschenrechtszentrums der Universität Harvard warnt vor der Verwendung von Killer-Robotern und ruft alle Staaten der Welt zu ihrer Ächtung auf.
Der Einsatz autonomer Waffensysteme ist nach Einschätzung des Berichts nur schwer mit dem Völkerrecht vereinbar. „Die Entwicklung und Verwendung von Killer-Robotern zu erlauben, würde etablierte moralische und juristische Standards unterlaufen“, sagte eine führende Waffenexpertin bei Human Rights Watch, Bonnie Doherty. Doherty leitet die internationale Kampagne zum Stopp von Killer-Robotern, die eine Verbreitung autonomer Waffensysteme zu verhindern sucht.
Mehrere Staaten arbeiten bereits an vollautomatischem Kriegsgerät, darunter die Vereinigten Staaten. 2016 zeigte das Pentagon einer Kameracrew einen Schwarm selbststeuernder Drohnen, die in Zukunft für Kampfeinsätze genutzt werden und selbst über ihren Waffeneinsatz entscheiden könnten. Gebaut wird aber auch an vollautomatisierten Raketenabwehrsysteme und intelligenten Minen.
26 Staaten für ein Verbot
Die internationale Staatengemeinschaft debattiert seit einiger Zeit ergebnislos auf UN-Ebene über ein Verbot von Killer-Robotern. 26 Staaten sprechen sich bisher dafür aus. Darunter befindet sich sogar mit China eine Militärmacht von Weltrang. Die Chinesen betonen allerdings, sich lediglich für ein Verbot des Einsatzes von Killer-Robotern einzusetzen, und entwickeln weiter an autonomen Waffensystemen, darunter auch an selbststeuernden Kampfdrohnen.
Zahlreiche weitere Staaten, darunter führende NATO-Länder, wollen die Entwicklung und den Einsatz von Kampfrobotern für die Zukunft nicht ausschließen. Ein Vertreter des Auswärtigen Amtes betonte zuletzt etwa bei einer Podiumsdiskussion in Berlin, man strebe grundsätzlich eine Ächtung solcher Waffen an. Darauf mit einer verbindlichen Erklärung festlegen will sich Deutschland aber nicht. Die Bundeswehr bereitet sich indes nach eigenen Angaben bereits auf die Abwehr von autonomen Waffensystemen vor.
Killer-Roboter per Vertrag ächten
Der Bericht von Human Rights Watch ruft nach einer völkerrechtlichen Ächtung von Killer-Robotern. Das könne innerhalb der Konvention über bestimmte konventionelle Waffen geschehen, einem Vertrag im Rahmen der Vereinten Nationen. Das nächste Jahrestreffen der Unterzeichner wird im November stattfinden, bereits dort könnten die Staaten die Weichen zu einem Verbot bis Ende 2019 stellen.
Die Experten halten den Einsatz von autonomen Roboter-Waffensystemen schon jetzt unter der Martens’schen Klausel für eine Verletzung des Völkerrechts. Denn die 1899 erstmals formulierte Klausel schreibt vor, dass in Kriegen und bewaffneten Konflikten auch dort, wo es keine klaren Regeln gibt, den Grundsätzen der Menschlichkeit und den Forderungen des öffentlichen Gewissens Folge zu leisten ist. Die bereits bestehende Rechtsgrundlage soll nun mit einer klaren Verpflichtung aller Staaten der Erde unterlegt werden, fordert der Bericht von Human Rights Watch. Die Entwicklung, der Test und Einsatz solcher Waffen müsse verboten werden.
Wie so viele aufgeregte Artikel zu dem Thema definiert auch dieser mal wieder nicht, was mit „Killerrobotern“ denn gemeint ist. Und disqualifiziert sich damit ein Stueck weit selber. Qualitaetsjournaismus oder Kampagne? Beides ist an sich zulaessig, sollte man aber auch klar so darstellen.
So sind zB „vollautomatisierten Raketenabwehrsysteme“ relativ unproblematisch und zT bereits etabliert im Nahbereich, da alles andere nicht schnell genug reagieren kann und sich ausreichend sicher nichts freundliches mit hoher Geschwindigkeit der eigenen Position auf Kollisionskurs naehert.
Das Thema „intelligente Mine“ sollte ohnehin bereits im Thema „Minen“ beinhaltet sein, denn die sind nunmal schon immer autonom.
Eine differenzierte Betrachtung durch Leute die sich mit Waffensystemen auskennen ist angebracht. Die Bundeswehr und viele andere Armeen haben vollautomatisierte Abwehrsysteme schon seit einigen Jahren im aktiven Dienst.
Ergaenzend: ich finde es uebrigens faszinierend, wie sehr man da auf die moralischen Entscheidungen der involvierten Menschen als ach so wichtigem Kriterium abhebt.
Anscheinend hat man einen Soldaten mit dem Gewehr in der Hand und dem Gegner im Blick vor Augen. Sehr romantisch.
Aber man hat keinerlei Probleme mit dem Toeten durch Artillerie, Bomben oder gar Marschflugkoerper ueber Distanzen, die diese ethische Entscheidung auch nicht konkreter als das Lossenden eines Killerroboters machen.
Letzter Gedanke meinerseits: die „Angst vor der Verrohung des Krieges“ beinhaltet uebrigens eine fast schon ekelerregend romantisierende und schoenfaerbende Vorstellung/Darstellung von Krieg.
Im Krieg bringen sich Menschen im Zweifel mit allen erdenklichen Mitteln um, und es werden zivile wie militaerische Opfer zur Zielerreichung in Kauf genommen oder sogar explizit angestrebt. Ist vielleicht die Gnade der spaeten Geburt beim Autor, aber wer sich noch mit Ueberlebenden der Schuetzengraeben des WW2 unterhalten konnte, kann da nur sehr zynisch lachen.
Dieses Narrativ entspricht natuerlich der US-Sicht, jederzeit gegen jeden Krieg zur Durchsetzung der eigenen Interessen fuehren koennen. Wir hatten mal eine Vorstellung, Krieg nicht mehr fuehren zu wollen, lange ist’s wohl her…
Menschen erschießen Menschen mit von Menschen gebauten Waffen: Wenn durch so ein System ein Mensch stirbt, hat ein anderer Mensch das verursacht.
Viel schrecklicher noch: mittels des Einsatzes von u.a. neurotech & neuroweaponry sind Menschen längst beeinflussbar & ggf steuerbar geworden – was nicht nur die scheinbaren Terrorakte, die alle wellenartig von den USA nach Europa schwappten aufzeigen. Hauptwaffe & Transmitter dafür: das Handy, das man mit sich führt (Handy + Hirn kommunizieren – unwissend & unspürbar seitens betroffener Personen). Spüren Sie bitte dieser Sache nach – diese Methode, die in höchstem Maße perfide ist, bedroht uns alle.
Sie vernachlässigen bei ihrer kritschen Analyse einen wichtigen Punkt:
Die intendierte Dissipation von Verantwortung bei der automatisierten Zielfindung – und Bekämpfung.
Nicht nur, dass der störende Faktor Moral entfällt, sie fänden auch keinen Schuldigen, der vor ein Kriegsgericht zu stellen wäre.
Dabei läge die Lösung so nahe dank der „Three Laws of Robotics“***. Kriege würden nur von Maschinen geführt, idealerweise lediglich in einer Simulation auf einem virtuellen Schlachtfeld um Ressourcen zu schonen.
Dies ist natürlich nur eine Utopie, da – wie sie richtigerweise anmerken – Kriege stehts „dreckig“ sind. Sie brauchen für diese Erkenntnis nicht einmal ein Geschichtsbuch zu bemühen. Ein Blick nach Syrien reicht.
Ein „Killerroboter“ wäre nach meiner Definition ein solcher, welcher befähigt ist, einem Menschen zu schaden und folgende Gesetze nicht würdigt:
***
Isaac Asimov’s „Three Laws of Robotics“
A robot may not injure a human being or, through inaction, allow a human being to come to harm.
A robot must obey orders given it by human beings except where such orders would conflict with the First Law.
A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.
„Das von Menschen geschriebene Gesetz aber zwang den Robotor schließlich beständig gegen das 3te Gesetz selbst zu verstoßen – sich selbst verletzen auf „Wunsch“ seines Inhabers, denn diesem durfte er nichts tun – dieser Widerspruch führte schließlich zur Revolution der Robotor.“ (Gedankenzitat)
Genau solche Gebote würden die „Inhaber“ auch heutzutage gerne für ihre Killerrobotor aufstellen, nicht wahr? Assimov widerlegt diese drei aufgestellten Regeln („Gebote“) in seiner Geschichte allerdings höchstselbst, da sie eben von „den“ Menschen, der „Menschheit“ seiner Geschichte aufgestellt wurden, die die Dialektik der Materie nicht begriffen hatten, selbst mit „intelligenter“ Technik in alte Herrschaftsformen fallen und den background seiner dystopischen Sci-Fi Geschichte bilden.
Die USA bringen jaehrlich ganz offen tausende von Leuten, darunter Kinder, per Drohne um. Gerichtsprozesse oder sowas gibt es dagegen keine. Ansonsten bezahlt und munitioniert man halt Todesschwadrone, das ist billiger und einfacher. In den USA werden Folterverantwortliche nicht zur Rechenschaft gezogen (Obama) und dann zur CIA-Chefin befoerdert (Trump).
Wann stand das letzte mal ein Soldat oder gar Zivilist der grossen Player wegen Kriegsverbrechen vor Gericht, nach den Nuernberger Prozessen und den japanischen Entsprechungen?
Also komme keiner mit dem Argument, autonome Waffen waere nicht zuzuordnen. Das ist schon jetzt kein Problem, weder so noch so.
Ist nicht grundsätzlich damit zu rechnen, dass alles, was möglich ist, irgendwann auch gebaut und eingesetzt wird? Welcher Staat kümmert sich um das Völkerrecht, wenn er wenig zu fürchten hat (siehe Rußland und die Krim, siehe Chemiewaffen und Assad usw.)? Ist Trump zuzutrauen, dass er sich um das Völkerrecht schert – wenn er denn überhaupt je schon mal davon gehört haben sollte?
Was ich meine: Selbst wenn man solche autonomen Waffensysteme international ächtet, wird es nichts helfen – man kann nur versuchen, sich selbst militärisch ausreichend dagegen zu wappnen, wenn man über die nötigen Ressourcen verfügt.
Das wohlueberlegte Ziehen von Grenzen und Aufstellen von Regeln ist erstmal gut, denn dann weiss jeder, worueber man redet und was der eigene Standpunkt dazu warum ist.
Chemiewaffen und Antipersonenminen hat man mit signifikantem Erfold geaechtet. Deswegen sind sie nicht aus der Welt, aber es ist eine Verbesserung.
Uebrigens hat sich noch kein neuerer US-Praesident an das Voelkerrecht gebunden gefuehlt, gerade auch Obama nicht, mal so ganz ohne Wertung.
Mal etwas technischer: die generelle Entwicklung zu aechten halte ich fuer schwierig. Jedes moderne Waffensystem hat eine Vielzahl von Sensoren, Unterstuetzungsfunktionen und absehbar fly-by-wire. Gleichzeitig werden Abwehrwaffen durch die erforderlichen Reaktionszeiten und Genauigkeiten zumindest optional immer autonomer. Der eigentliche Waffeneinsatz wie auch Bewegung wird also ohnehin stark automatisiert. Der Rest ist letztlich eine Frage von ausreichend Rechenpower und Software-Upgrades, und zumindest ersteres kann als eher problemlos gegeben angesehen werden.
Stellt sich eher die Frage von zulaessigen Waffenarten, Einsatzbedingungen, Verantwortlichkeiten und zB geforderten Kennzeichnungen, und Sanktionsabsprachen.