Killer-Roboter

Bundestag gegen Ächtung autonomer Waffensysteme

Grüne und Linke fordern, dass die Bundesregierung sich weltweit gegen die Vollautomatisierung der Kriegsführung einsetzt. Doch ihre Anträge scheiterten an den Stimmen der anderen Fraktionen.

In der Realität sehen Killerroboter weniger spektakulär aus CC-BY 2.0 Daniel Oberhaus

Der Bundestag hat sich heute gegen die internationale Ächtung von autonomen Waffensystemen ausgesprochen. Eine breite Mehrheit der Abgeordneten stimmte gegen entsprechende Anträge von Grünen und Linken.

Mehrere Staaten arbeiten an vollautomatischem Kriegsgerät, darunter die Vereinigten Staaten. Bereits 2016 zeigte das Pentagon vor Pressevertretern einen Schwarm selbststeuernder Drohnen, die für Kampfeinsätze genutzt werden könnten. Gearbeitet wird  auch an automatisierten Raketenabwehrsystemen und intelligenten Minen.

Auf UN-Ebene wird bisher ergebnislos über ein Verbot von Killer-Robotern debattiert. Für dieses Ziel kämpft die Kampagne „Killer-Roboter stoppen!“. Die Aktivisten argumentieren, dass ein Roboter in asymmetrischen Kriegssituationen nicht in der Lage sein wird, zwischen Zivilisten und Kämpfenden zu unterscheiden. Ein Expertenbericht der NGO Human Rights Watch urteilte bereits 2018, dass ihr Einsatz nur schwer mit dem Völkerrecht vereinbar sei. Die Kampagne gegen Killer-Roboter fürchtet, dass Kriege durch den Einsatz autonomer Waffensysteme endgültig industrialisiert werden und ein internationales Wettrüsten eingeläutet werden könnte.

Völkerrechtliche Ächtung und keine Förderung

Die Bundestagsfraktion der Grünen forderte in ihrem Antrag die Bundesregierung auf, sich für eine völkerrechtliche Ächtung autonomer Waffensysteme einzusetzen: „Eine Entwicklung, die dazu führt, dass Waffen selbständig Ziele erkennen und diese bekämpfen, ohne dass ein Mensch noch eingreifen kann, muss unbedingt verhindert werden.“

In einem zweiten Antrag fordern die Grünen, dass der Europäische Verteidigungsfonds autonome Waffensysteme nicht fördert. Die aktuelle Verordnung zu dem Fonds sei in dieser Hinsicht nicht deutlich genug, weswegen sie die explizite Aufnahme eines Verbots von Kampfrobotern erreichen wollen.

Die Linkspartei möchte mit ihrem Antrag erreichen, dass die Bundesregierung ein Moratorium gegen die Entwicklung und Anschaffung autonomer Waffensysteme ausspricht. In einem zweiten Schritt soll sie dann im EU-Ministerrat erwirken, dass die EU keine Forschung auf diesem Gebiet mehr fördert und andere Mitgliedsstaaten ebenfalls Moratorien erklären.

Alle drei Anträge wurden mit den Stimmen der Großen Koalition und teilweise jenen von FDP und AfD abgelehnt.

Du möchtest mehr kritische Berichterstattung?

Unsere Arbeit bei netzpolitik.org wird fast ausschließlich durch freiwillige Spenden unserer Leserinnen und Leser finanziert. Das ermöglicht uns mit einer Redaktion von derzeit 15 Menschen viele wichtige Themen und Debatten einer digitalen Gesellschaft journalistisch zu bearbeiten.

Mit Deiner Unterstützung können wir noch mehr aufklären, viel öfter investigativ recherchieren, mehr Hintergründe liefern - und noch stärker digitale Grundrechte verteidigen!

Unterstütze auch Du unsere Arbeit jetzt mit deiner Spende.

 

Unsere Arbeit bei netzpolitik.org wird fast ausschließlich durch freiwillige Spenden unserer Leserinnen und Leser finanziert. Das ermöglicht uns mit einer Redaktion von derzeit 15 Menschen viele wichtige Themen und Debatten einer digitalen Gesellschaft journalistisch zu bearbeiten.

Mit Deiner Unterstützung können wir noch mehr aufklären, viel öfter investigativ recherchieren, mehr Hintergründe liefern - und noch stärker digitale Grundrechte verteidigen!

Dann unterstütze uns hier mit einer Spende.

7 Ergänzungen
  1. Nicht so einfach, und mE ist da eine Menge Red Hering und Romantik in der Diskussion.

    Man muss sich vor Augen fuehren, dass die fragliche Entscheidungsfunktion ein relativ kleines und einfach aenderbares Modul eines Waffensystems ist. Die komplette Sensorik, Signalaufbereitung und unterstuetzende Objektbewertung wird ohnehin schon heute benoetigt, die komplette Bekaempfung eines einmal zugeordneten Zieles ueber Aktoren kann, und in Teilen muss, ohnehin automatisiert werden. Ob dann ein Mensch, vor Ort oder remote, die finale Entscheidung zur Bekaempfung trifft oder ein SW-Modul beruehrt den geringsten Teil der Waffensystementwicklung und zT auch des Einsatzes. Von daher ist erstmal die zu aechtende „autonomen Waffe“ zu definieren.

    Gleichzeitig sollte es egal sein, ob eine unbeteiligte Hochzeitsgesellschaft von einem bemannten Flugzeug, einer ferngesteuerten oder einer autonomen Drohne zerfetzt wird: es ist ein Verbrechen und die Verantwortlich muessen dafuer zur Rechenschaft gezogen werden. Es ist also vielleicht viel mehr eine Aechtung von entsprechendem Waffeneinsatz anzustreben. Das ist halt unbequemer und nicht so plakativ wie Terminatorbilder, aber ehrlich.

    Und wer meint, Kampfmaschinen wuerde eine neue Qualitaet an Roheit oder entfesselter Gewalt darstellen, sollte sich mal naeher mit der menschlichen Geschichte und Gegenwart dazu auseinandersetzen. Jeder ausreichend Maechtige findet Leute, die alles fuer ihn tun. Und statt eine Gegend zB zu vermienen, kann man bekanntlich auch einfach Kampfhubschrauber kreisen lassen, die alles und jeden abknallen.

    1. „Das ist halt unbequemer und nicht so plakativ wie Terminatorbilder, aber ehrlich.“
      Beides ist ehrlich. Red-Hering mag ihre Vermutung sein, es müsste aber erstmal belegt werden, dass Linke und Grüne ablenken wollen von Drohnenmorden, die noch mit menschlicher Unterstützung geschehen.

      „Und wer meint, Kampfmaschinen wuerde eine neue Qualitaet an Roheit oder entfesselter Gewalt darstellen, sollte sich mal naeher mit der menschlichen Geschichte und Gegenwart dazu auseinandersetzen.“

      Maschinen müssen nicht schlafen, werden nicht müde, können aus Stahl und Titan gebaut werden, können im Dunkeln perfekt sehen, haben keine Gefühle. Das verbunden mit autonomem Handeln, schafft eine ganze Bandbreite neuer Qualitäten.

      Dass es schreckliche Menschen gab und gibt und sie schreckliche Dinge tun und getan haben, ist kein gültiger Maßstab in der Frage, ob autonome Systeme grausam sein bzw. Grausames tun können oder nicht und ob wir sie bauen sollten oder nicht.

      Die einzige gültige Frage, die mir aktuell einfällt in der Sache ist, ob wir solche Systeme einsetzen würden, wenn wir mit solchen Systemen angegriffen werden.

      Hinzu kommt, dass eine Maschine kein Gewissen hat. Sie wird im Schlaf nicht von bösen Geistern verfolgt. Sie hat keinen Spiegel, in den sie morgens schauen wird. Die kommt sicherlich nicht auf die Idee etwas zu leaken oder eine Instruktion zu verweigern.

      Sorry. Aber ich kann ihre Einwände nicht gut heissen.

      1. Red Hering ist keine Vermutung ueber die Absicht von Gruenen und Linken, Red Hering ist meine beobachtete Wahrnehmung bei vielen Diskussionteilnehmern, erstmal ganz ohne Wertung. Ich rede nicht der Einfuehrung von autonomen Kampfmaschinen das Wort, nur sehe ich das groessere Problem in der Abgrenzung/Definition und ansonsten im Waffeneinsatz an sich.

        Auch in diesem Beitrag sehe ich primaer Terminator-Romantik, aber wenig konkretes. Ernst gemeinte Frage: Welche diesbezueglich neuen Qualitaeten wuerden denn hier durch Autonomie geschaffen?
        Und kommen Sie mir bitte nicht mit Gewissen: zum einen ist eine Maschine nie verantwortlich, sondern immer derjenige, der sie zum Einsatz bringt. Zum anderen bin ich alt genug, mit ehemaligen Waffen-SS Leuten in der Verwandschaft geredet zu haben…

        1. Könnte es sein, dass wir nicht die selbe Sprache sprechen?

          Red Hering ist eine Argumentationsstrategie in Diskussionen, um vom Thema abzulenken und impliziert, dass es einen Willen dazu gibt. Kein Wille kein Red Hering.

          Terminator-Romantik? Wohl eher Drama. Aber auch davon sehe ich nichts im Artikel. Der ist nämlich sachlich.

          Die neuen Qualitäten habe ich schon genannt und ich komme, womit auch immer ich möchte. Mit Verantwortung (tragen) von Maschinen (soll wohl ein Witz sein, oder wie?) hat das alles hier überhaupt nichts zu tun. Es hat was damit zu tun, dass eigenständig Entscheidungen getroffen werden von der Maschine und diese keine Gefühle hat, kein Gewissen, keine Hemmungen und allem was daraus folgt und damit zusammenhängt.

          Und gestatten Sei mir zum Abschluss noch eine kleine Frage. Ihr Alter hat was mit dem Thema hier zu tun und in wiefern hat die Waffen-SS ihnen bei der Meinungsbildung genau geholfen?

          Soll ich Sie etwa als Autorität anerkennen? ROFL

          1. Leider nicht auf meine ernst gemeinte Frage eingegangen, schade.

            „Maschinen müssen nicht schlafen, werden nicht müde,“ das ist im Rahmen des idR kurzen eigentlichen Waffeneinsatzes relativ irrelevant. Ferngelenkte Maschinen agieren zZt mit 24×7 Schichtbetrieb, autonome Aufklaerung und Zielverfolgung ist eben keine Waffeneinsatzentscheidung und wird ohnehin kommen, und bereits heute agieren rein menschliche Organisationen zu beliebigen Zeiten. Gleichzeitig brauchen Maschinen Wartung, Instandsetzung, Pflege (Schmutz, Abnutzung), sowie Versorgung mit Betriebs- und Verbrauchsmaterialen und Energy. Das ist effizienter und uU billiger, aber ich sehe wenig neue Qualitaet und viel Terminator-Bedrohungsromantik.

            „können aus Stahl und Titan gebaut werden“ ist ebenfalls ziemlich irrelevant, modern ausgeruestete und ausgebildete Menschen sind fuer Zivilisten fast nicht zu ueberwaltigen und zB fliegende Waffensysteme ohnehin nur mit Abstandswaffen erreichbar. Unbemannte Kampfmaschinen koennen allerdings kleiner gebaut werden als bemannte. Das ist effizienter und billiger, aber ich sehe wenig neue Qualitaet und viel Terminator-Bedrohungsromantik.

            „können im Dunkeln perfekt sehen“ ist zum einen durch die physikalischen Gegebenheiten durchaus begrenzt (keine Phontonen -> kein Signal im Sensor, aktive Beleuchtung macht die Quelle zum einfachen Ziel), zum anderen kann (und wird) jede Sensorik auch als bildgebende Unterstuetzung fuer Menschen verwendet (Nachsichtgeraet bis Augmented Reality). Und wieder ist die autonome Zielaufklaerung und Zielverfolgung kein Waffeneinsatz und wird daher von einem Verbot autonomer Waffen nicht beschraenkt. Eher weniger neue Qualitaet und viel Terminator-Bedrohungsromantik.

            „Das verbunden mit autonomem Handeln schafft eine ganze Bandbreite neuer Qualitäten.“ nunja, danach hatte ich ernsthaft gefragt. Ich sehe das nicht, aber ich kann ja durchaus Dinge uebersehen oder falsch einschaetzen.

            Technisch interessant ist noch die wesentlich hoehere Praezision und zT Geschwindigkeit einer Maschine im eigentlichen Waffeneinsatz. Aber auch das haben wir zT heute schon, idR nach Freigabe eines erfassten Zieles zur Bekaempfung (Nahverteidigungssysteme grosser Einheiten koennen schon heute vollautomatisch sich schnell naehernde Bedrohungen bekaempfen, da alles andere zu langsam waere).

            „Hinzu kommt, dass eine Maschine kein Gewissen hat. Sie wird im Schlaf nicht von bösen Geistern verfolgt. Sie hat keinen Spiegel, in den sie morgens schauen wird. “ mach idR schlicht keinen Unterschied fuer die Gegner oder Opfer. Abgesehen davon auch wieder viel Romantik, und viele der Ausfuehrenden glauben durchaus, das fuer eine gute Sache, etc, pp zu tun. Man kann hoffen, dass sich jemand verweigert, aber die Geschichte laesst da im Endeffekt eher wenig Hoffnung und erhoffte Einzelfaelle sind mE keine akzeptable Basis. PTBS ist weit verbreitet, aber halt „Post“ und damit ohnehin fuer die anderen zu spaet.

            Das Gespraech mit Leute, die in so einem Umfeld und in Extremsituation waren, ergibt ein gewisses Verstaendnis darueber, wie Menschen in solchen Situationen „funktionieren“, und sie „funktionieren“ erschrecken lange und erschreckend gut. Und die Menschen, die sie getoetet hatten, waren tot, unabhaengig vom guten oder schlechten Gewissen.

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.