Demokratie

Kriegsroboter und Drohnen: Human Rights Watch fordert Verbot von „Killer Robots“

Roboter statt Soldaten: Immer mehr Staaten treiben die Entwicklung voran, dass Maschinen in Kriegen eingesetzt werden dürfen. Auch die Entscheidung über Leben und Tod wird zunehmend in Computer und Algorithmen ausgelagert. In einem neuen Bericht kritisiert Human Rights Watch diese Entwicklung – und fordert einen Stopp von Entwicklung, Produktion und Einsatz autonomer Waffen.

Wir finanzieren uns fast vollständig aus Spenden von Leserinnen und Lesern. Unterstütze unsere Arbeit mit einer Spende oder einem Dauerauftrag.

Vor zwei Monaten berichteten wir, dass bald autonome Tötungsmaschinen über Leben und Tod entscheiden. Der öffentliche Diskurs über die weitreichenden Konsequenzen autonomer Tötungsmaschinen ist jedoch noch eher verhalten.

Die internationale Menschenrechtsorganisation Human Rights Watch hat jetzt zusammen mit der Harvard Law School International Human Rights Clinic einen 50-seitigen Bericht veröffentlicht: Losing Humanity – The Case against Killer Robots (PDF). Darin analysieren sie rechtliche, technische und ethische Fragestellungen über autonome Waffen.

Das Fehlen der Menschlichkeit

Die Menschenrechtler arbeiten einige Probleme auf, die die Verlagerung von Tötungsentscheidungen in Technik nach sich zieht. Zum Beispiel können autonome Waffensysteme Regelungen des humanitären Völkerrechts nicht einhalten, da sie nicht angemessen zwischen Soldaten und Zivilisten unterscheiden können. Zudem fehlt ihnen die menschliche Urteilskraft, die erforderlich ist, um die Verhältnismäßigkeit eines Angriffs bewerten. Nicht jeder militärische Vorteil überwiegt auch dem zivilen Schaden.

Maschinen fehlt auch eine nicht-juristische Perspektive: Sie haben kein menschliches Mitgefühl für ihre Opfer. Autoritäre Regime können autonome Kriegsroboter daher gegen ihre eigene Bevölkerung einsetzen, ohne dass sie mit Befehlsverweigerung oder Desertion rechnen müssen. Das könnte die Hemmschwelle, einen (Bürger-)Krieg zu beginnen, senken. Kriegsroboter werden immer damit begründet, das Leben von Soldaten zu schützen. Diese Gefahr verschiebt sich aber nur – hin zu Zivilisten.

Schließlich entsteht durch den Einsatz von Kriegsmaschinen eine Verantwortungslücke. Wer ist tatsächlich verantwortlich für die Handlung eines Roboters? Der Kommandant? Der Programmierer? Der Hersteller? Niemand davon könnte eindeutig rechtlich verantwortlich gemacht werden, was bei Tötungsentscheidungen jedoch essentiell ist. Diese fehlende Verantwortlichkeit untergräbt die Möglichkeit, Verstöße gegen das Völkerrecht zu verhindern und Opfern die Möglichkeit einer sinnvollen Wiedergutmachung oder Entschädigung zu geben.

Keine Entscheidung über Leben und Tod

Aus diesen Gründen fordern Human Rights Watch und die International Human Rights Clinic ein internationales Abkommen, das die Entwicklung, die Produktion und den Einsatz von vollständig autonomen Waffen ohne Ausnahme verbietet. Zudem rufen sie einzelne Staaten auf, Gesetze zu erlassen und Maßnahmen zu ergreifen, um Entwicklung, Produktion und Einsatz solcher Waffen auf nationaler Ebene zu verhindern.

Stephen Goose, Direktor der Arms Division von Human Rights Watch betont: „Es ist wichtig, die Entwicklung von Killer-Roboter zu stoppen, bevor sie in die nationalen Arsenalen einziehen. Je mehr Staaten in diese Technologien investieren, desto schwieriger wird es, sie davon zu überzeugen, es aufzugeben.“

Diese Forderungen klingen auf Anhieb schwierig durchsetzbar. Dennoch betont die Menschenrechts-Aktivistin Jody Williams, die 1997 den Friedensnobelpreis erhielt: „Auch die Kampagnen gegen Landminen und Streumunition waren erfolgreich.“ Sie ist sich sicher: „Wir können das auch für Killer-Roboter erreichen. Wir können sie stoppen, eh sie auf Schlachtfeldern Einzug halten.“

Weitersagen und Unterstützen. Danke!
14 Kommentare
  1. Die Weltsicht von HRW scheint mir dann doch etwas distopisch und von Technikfurcht geprägt. Und so ganz plausibel scheint mir die Argumentation nicht, denn das gegenseitige Abschlachten bekommen Menschen sehr gut ohne technische Hilfsmittel hin.

  2. Das mag jetzt vielleicht naiv sein, aber *wenn* Staaten aus XY Gründen entscheiden das mal wieder Menschen sterben müssen um die Konjunktur anzukur- äh sich verteidigen mussen, ist es dann nicht eine gute Idee etwaige Soldaten mit Drohnen zu ersetzen..? Im Idealfall benutzen beide Seiten Drohnen und nach gepflegtem Deathmatch ist der Krieg vorbei.

    Das entspricht wohl keiner Realität, aber ich wüsste auf Anhieb kein wirklich gutes Argument dagegen? Wenn die Drohnen wieder verschwinden, bleibt deren Mission ja weiterhin bestehen – und muss dann wieder vom Fußvolk verrichtet werden? (Ich finde auch der Vergleich mit Landminen hapert: die bleiben ja tragischerweise noch versteckt liegen, während eine Drohne spätestens nach Konfliktende wieder nach Hause fliegt?)

    In kurz: Mit Drohnen Menschen abzuschießen ist eine genauso schlechte Idee wie Menschen mit Menschen abzuschießen. Aber wenn geschossen wird, dann verliere ich lieber eine Drohne als einen Menschen? o_O

      1. Das ist mir etwas zu schwammig, könntest du das etwas ausführen? (Im Moment habe ich zu dem Thema nur recht vage Ideen und würde gerne stichhaltig argumentieren können.)

  3. Es ist schrecklich, das diese Energie immer wieder in die Ausarbeitung neuer Wege gesteckt wird, wie kann ich die anderen Mitmenschen an effizientesten ausradieren.

    Es ist zum heulen.

    Widmet euch der Verbesserung der Lebensumstände der Menschheit. Krieg ist kein notwendiges Mittel der Auseindersetzung, das sollte klar sein.

    Sofortige Umlenkung der Kriegsindustrie in etwas was die Menschheit weiterbringt.

    Schwerter zu Pflugscharen.

    1. Widmet euch der Verbesserung der Lebensumstände der Menschheit. Krieg ist kein notwendiges Mittel der Auseindersetzung, das sollte klar sein.

      Nein, so klar ist das nicht. Sollte man hier in Deutschland auch wissen.

      Dronen wird es weiterhin geben, und sie werden selbstständig töten können. Man konnte noch nicht einmal Minen eindämmen. Ich wünsche HRW viel Glück, aber ich glaube nicht, dass sie etwas erreichen werden.

  4. Ich bin ja vielleicht etwas romantisch, aber ich fand die 3 Roboter Gesetze immer sinnvoll.

    Neben den ganzen nahe liegenden Problemen, die entstehen wenn man Computern das töten beibringt/erlaubt, ist das doch der erste Schritt um Skynet doch noch die Machtübernahme zu ermöglichen. 

    1. genau.
      Roboter privatisieren den Krieg. Was früher sich nur reiche Menschen leisten konnten wird durch Roboter erschwinglich für jedermann.
      Stellt euch einfach mal die Konsequenzen vor wenn ein kleiner Hacker sich die Drohnenarmee eines Staates unter den Nagel reißt und/oder sich seine Eigene baut.

  5. Alles was machbar ist wird gemacht werden.
    Egal wie oft man sich „Die Physiker“ vornimmt :-P
    Drohnen, Kampfroboter und „Iron Domes“ sind nunmal schöne PR Sachen und lassen sich mit den genannten „Vorteilen“ teuer an den „Staat“ bringen.
    Von den Potentialen die z.B. einfache Schwärme von „Kampfdröhnchen“ so groß wie sagen wir mal eine Hummel bei „terroristischen“ Anschlägen hätten …
    Zum Glück sind die Entscheider schön konservativ und bauen lieber MGs auf Selbstfahrlafetten …

  6. also die KI-Tötungsroboterhalbmenschen machen ziemlich Schlagzeilen. Soweit ich das nachverfolgen kann, geht es in der militärischen Entwicklung aber vor allem um Fernlenkung, also darum, wie man möglichst präzise Informationen in immer kürzerer Zeit sammeln und in einen Kontrollraum übertragen kann. Problem ist dann am ehesten, dass der Mensch sich vor Ort kein „Bild“ mehr machen muss und kann, sondern Tötungsentscheidungen von Datensätzen abhängen. Die Entscheidungen triffen aber (zumeist noch) Menschen, auch bei Hightechwaffen. Das liegt zugegebenermaßen nicht unbedingt an der Menschlichkeit der Entwickler, sondern (wie im Video ja auch zu hören) an der zu großen Zielungenauigkeit von Maschinen, ich glaube nicht, dass sich daran so schnel was ändert…

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.