Bürgerrechtler fordern Verbot autonomer Waffensysteme

Screenshot aus der HRW-Studie „Mind the Gap: The Lack of Accountability for Killer Robots“

Für die Ächtung von autonomen Waffensystemen spricht sich ein Bericht der Menschenrechtsorganisation Human Rights Watch (HRW) aus, der letzte Woche veröffentlicht wurde. Im Mittelpunkt der Kritik steht die ungeklärte Frage, wer die Verantwortung im Falle eines unrechtmäßigen Zwischenfalls übernähme, wenn dabei Zivilisten zu Schaden kommen sollten. Weil solche Maschinen ohne menschliche Interaktion arbeiten würden, wäre es schwer bis unmöglich, Hersteller, Programmierer oder Militärpersonal zu belangen:

Neither criminal law nor civil law guarantees adequate accountability for individuals directly or indirectly involved in the use of fully autonomous weapons.

Der Zeitpunkt der Veröffentlichung kommt nicht von ungefähr, denn diese Woche tagt in Genf eine Arbeitsgruppe, die sich mit „Lethal Autonomous Weapons Systems“ (LAWS) auseinandersetzt. Zwar räumt die Studie ein, dass solche Systeme noch nicht in freier Wildbahn anzutreffen wären, Vorläufer-Technologien wie das israelische Iron-Dome-Raketenabwehrsystem oder die US-Systeme Phalanx respektive C-RAM würden jedoch die Richtung weisen; Prototypen wie britische Taranis-Flieger könnten jetzt schon selbständig interkontinentale Missionen ausführen. Einmal eingeführt und etabliert, wäre es kaum möglich, solche Systeme wieder aus den Arsenalen zu verbannen. Die „Mind the Gap“ betitelte Studie, die in Zusammenarbeit mit der Harvard Law School International Human Rights Clinic (IHRC) entstanden ist, fordert daher ein präemptives Verbot solcher sogenannten „Killer-Roboter“.

In Deutschland geht der schwarz-rote Koalitionsvertrag (pdf) in einem Absatz auf autonome Waffensysteme ein:

Deutschland wird für die Einbeziehung bewaffneter unbemannter Luftfahrzeuge in internationale Abrüstungs- und Rüstungskontrollregime eintreten und sich für eine völkerrechtliche Ächtung vollautomatisierter Waffensysteme einsetzen, die dem Menschen die Entscheidung über den Waffeneinsatz entziehen.

Die jüngst veröffentlichte Studie knüpft inhaltlich an die aus dem Jahr 2012 stammende Publikation „Losing Humanity: The Case against Killer Robots“ an, die ebenfalls von HRW und IHRC veröffentlicht wurde. Schon damals haben die Organisationen auf ungeklärte straf- und zivilrechtliche Rechtsfragen verwiesen und sich für ein Verbot autonomer Waffen eingesetzt. Unter anderem daraus entstand schließlich 2013 die Initiative „Stop Killer Robots“, die insgesamt 54 NGOs unter einem Dach versammelt.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

6 Ergänzungen

  1. Genause wie heute schon auch wären jene Verantwortlich die den Einsatz des (autonomen) Waffensystems angeordnet haben. Und solange Computer noch nicht autonom Kriege erklären und alleine führen, wird es immer einen Menschen, einen Politiker bzw einen Offizier geben der den Waffeneinsatz angeordnet hat. Dieser ist natürlich auch vollumfänglich für alle Kollateralschäden bzw Verstösse gegen das Kriegsrecht verantwortlich.
    Diese ganze Verbotsdiskussion um Drohnen oder autonome Waffensysteme ist völlig irrational und dem Irrglauben verhaftet Menschen würden humer Krieg führen wenn sie sich beim Abschlachten in die Augen sehen können. Die ganzen Kriegsverbrechen die von Boko Haram, IS und Co verübt werden, oft mit der Machete von Angesicht zu Angesicht, beweisen täglich das Gegenteil.

  2. Da Autonome Waffensystemen bald jedem Soldaten oder bemannten Fahrzeug überlegen sein werden ist davon auszugehen das Krieg in Zukunft nur noch so geführt werden wird. Kein Staat wird dann mehr Soldaten in die Schützengräben schicken oder in den Panzer setzen, das würde keinen Sinn mehr machen im Roboter Krieg. Evtl gibts dann ja sogar weniger Tote sondern eher mehr symbolische Konflikte bei denen eben viel Technik geschrottet wird aber sonst nix weiter passiert. Wer weiß das schon so genau ?

    Fakt ist jedoch die Dinger werden kommen, wenn Russland und China sich sowas leisten dann kann die Nato das sicherlich nicht ignorieren. Die Verbotsforderungen erscheinen mir daher etwas naiv.

    Mal davon abgesehen, für Kriegsverbrechen und Genozid braucht man kein Hightech, das hat man im 30 Jährigen Krieg auch mit Pieken und Schwertern geschafft und auch die Moderne Kriegsmaschinerie ist dazu mühelos in der Lage, siehe die Weltkriege. Denke daher nicht das autonome Drohnen usw da die Gefahr und das Außmas solcher Verbrechen erhöhen.

    Viel mehr sollte sich unabhängig davon die Frage stellen wie man eine Weltordnung schaffen kann in der Krieg endgültig der Vergangenheit angehört und es auch keinen Platz mehr für Terrormilizen ala ISIS, Boko Haram und so weiter gibt. Aber an diese Weltpolitischen Fragen traut sich ja kaum jemand mehr heran, das wären aber genau die Fragen auf die wir Antworten brauchen. Verbotsforderungen von Drohnen und co sind da doch eher rein symbolisch weil einerseits unrealistisch und andererseits würde auch ein Verbot nichts an den furchtbaren Schrecken des Krieges ändern wenn diese weiterhin wie bisher geführt werden würde.

  3. Die zwei vorherigen Kommentare sind schon berechtigt. Aber: Erst ergänzt geben sie das richtige Bild.
    Zuordenbare Verantwortung beim Einsatz? Nur theoretisch: Der Einsatzoffizier verweist auf den Hersteller, der verweist auf die Spezifikation, diese auf die Anforderung…. geteilte Verantwortung führt bei Strafrecht-relevanten Themen – und guter Argumentation – regelmäßig zu Freispruch.
    Boko Haram ist schlimm? Kein Grund, andere schlimme Dinge zuzulassen.
    China wird sich ohnehin nicht daran halten? Dafür muss man erstmal das „daran“ definieren und die Ächtung diskutieren. Wenn die restlichen Weltmächte sich einig sind – Chemiewaffen – scheint das schon wirksam. Wenn nicht – Todesstrafe – tja, dann nicht.
    Aber der wesentliche Punkt ist: Derzeit lebe ich mich auf meinem Balkon nach Gutdünken aus, tanze vielleicht spontan im öffentlichen Raum. Will ich dafür getötet werden können, weil mich eine Maschine dabei falsch verstanden hat?

  4. Angeblich sind die Drohnen bereits heute so präzise, dass für die Militärs allein aus dem Ersatz der menschlichen Kämpfer durch die Technik längst keine (lästigen) Fragen mehr offen sind. Ich frage mich nur ernsthaft, warum ausgerechnet bei Osama bin Ladens Hinrichtung zwei Hubschrauber voll Elite-Soldaten ausgesandt wurden, wenn alle Voraussetzungen für einen Drohnen-Einsatz gegeben waren (per Mobilfunk-Metadaten einer Mittelsperson in Pakistan geortete „Zielperson“, die zu der Zeit als feindlicher Kämpfer eingeordnet war).
    [Wer hier die Werte „Verantwortung“ oder gar (westliche Standards von) „Rechtssprechung“ erörtert, verplempert nur seine Zeit, während andere unbekümmert handeln. Das ist zumindest meine Beobachtung.]

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.