Vereinte Nationen Verbot von Killer-Robotern noch in weiter Ferne

Am Freitag endete in Genf das UN-Treffen der Regierungsexperten zur Regulierung von autonomen Waffensystemen. Dabei hat das Gremium erneut keinen Durchbruch erzielen können.

Menschen sitzen in einem Plenarsaal der UN
UN-Konferenz zur Regulierung von autonomen Waffensystemen – Alle Rechte vorbehalten Michael Schulze von Glaßer

Bei einer Konferenz der Vereinten Nationen rangen die Länder erneut erfolglos um ein Verbot von autonomen Waffensystemen. Sie verabschiedeten nach mehrtägiger Debatte nur einen Bericht, der den Stand der Debatte darlegt.

Neben den Vertretern der einzelnen Länder waren auch zivilgesellschaftliche Gruppen bei dem Treffen anwesend, darunter die Deutsche Friedensgesellschaft – Vereinigte KriegsdienstgegnerInnen (DFG-VK). Sie resümiert, dass im Bericht kein substanzieller Fortschritt zu erkennen ist: „Dabei bleibt das verabschiedete Papier weit hinter zuvor verabschiedeten Dokumenten zurück.“ Die Festlegung, dass das humanitäre Völkerrecht auch hier gilt, sei als Ergebnis den ganzen Aufwand dieses Treffen nicht wert.

Der Regulierungsprozess zur Eindämmung von Killer-Robotern wird von einigen Ländern immer wieder blockiert. So hat zum Beispiel Russland am vorletzten Tag der Konferenz mit einem Antrag versucht, alle zivilgesellschaftlichen Gruppierungen aus dem Saal zu verbannen. Dies wurde jedoch von anderen Ländern, wie beispielsweise Deutschland, verhindert.

Erste autonome Waffensysteme verfügbar

Noch besitzen nur wenige Staaten diese Art von Waffen. Allerdings setzen viele Länder bereits Waffensysteme ein, die Aufgaben teilautonom erledigen. Die Unterscheidung zwischen teilautonom und autonom gestaltet sich dabei schwierig. Bis jetzt können sich die Länder nicht auf eine einheitliche Definition einigen.

Eine oft genutzte Begriffserklärung stammt vom US-Verteidigungsministerium. Bei einer autonomen Waffe handelt es sich demnach um ein System, „das nach seiner Aktivierung Ziele auswählen und bekämpfen kann, ohne weitere Einwirkung durch einen menschlichen Bediener. Dies schließt von Menschen überwachte AWS ein, die es menschlichen Bedienern erlauben, das System im Betrieb zu überstimmen.“ Bei teilautonomen Systemen wiederum wird der Mensch zwar von einer Künstlichen Intelligenz unterstützt, er trifft aber am Ende selbst die Angriffsentscheidung.

Einige Länder arbeiten schon seit Jahren an (voll)autonomen Waffen. Da es sich nicht um weit entfernte Zukunftsvisionen handelt, fordern 180 NGOs ein Verbot von autonomen Waffen. Sie kritisieren, dass durch die minimale Gefahr und Einfachheit, die durch diese Systeme entstehen, die Hemmschwelle für eine gezielte Tötung von Menschen sinken würde. Außerdem könne eine Maschine das Konzept von Leben und Tod nicht verstehen und sei somit nicht in der Lage, die Konsequenzen voll einzuschätzen.

Länder haben unterschiedliche Standpunkte

Die UN arbeitet seit 2014 an einer Regulierung beziehungsweise an einem Verbot von autonomen Waffensystemen. Die UN-Expertentreffen der Regierungen werden bereits seit 2017 abgehalten. Viele Beobachter bezweifeln, dass es zu einer Regulierung auf UN-Ebene kommt, denn die Positionen zwischen den Ländern liegen weit auseinander. Einige Länder wie auch viele NGOs fordern ein Verbot der Entwicklung und Nutzung von autonomen Waffensystemen.

Andere Länder, unter anderem die Vereinigten Staaten, Russland, das Vereinigte Königreich und Israel, sind wiederum gegen ein Verbot oder eine starke Regulierung. Sie weisen stattdessen auf die möglichen Vorzüge dieser Systeme hin. So seien durch die angeblich rationalen Algorithmen weniger Kriegsverbrechen zu erwarten. Diese Länder sind auch in der Entwicklung autonomer Waffen tätig.

Eine Gruppe von Ländern, darunter Deutschland, Frankreich oder Finnland, wollen dagegen Waffensysteme, bei denen der Mensch gar keine Kontrolle mehr hat, verbieten, andere (voll)autonome Systeme hingegen nur regulieren. Laut dem Positionspapier soll „eine angemessene menschliche Kontrolle während des gesamten Lebenszyklus des betrachteten Systems aufrechterhalten“ werden. Außerdem wird in diesem Papier betont, dass „die menschliche Verantwortung und Rechenschaftspflicht zu jeder Zeit unter allen Umständen und über den gesamten Lebenszyklus hinweg als Grundlage staatlicher und individueller Verantwortung gewahrt bleibt und niemals auf Maschinen übertragen werden kann“.

Diese Positionierung wird von NGOs wie der DFG-VK als nicht weitreichend genug bemängelt: „Leider setzt sich Deutschland weiterhin nicht eindeutig für ein rechtsverbindliches Verbot und eine Regulierung von autonomen Waffensystemen ein.“

Redaktioneller Hinweis: Im Text war neben Russland fälschlicherweise auch Indien beim Versuch genannt, die zivilgesellschaftlichen Gruppierungen aus dem Saal zu verbannen. Wir haben das korrigiert.

Eine Ergänzung

  1. Hallo Thomas Seifert,
    vielen Dank für deinen Beitrag zu den Neuigkeiten der Killerrobotern. Schwerwiegernder ist aktuell aber die Personalisierung und ein Abgreifen der Informationen von uns Bürger:innen, etwa über den Überwachungskapitalismus und unseren individuellen persönlicher Umgang mit dessen IT. Wenn dann letztlich Verhalten individuell modifiziert wird, entsteht leider etwas das viel Bedrohlicher ist als ein Killerroboter: Ein Mensch mit beeinflusstem Verhalten.

    Ja ich weiß, jeder Mensch kann selber entscheiden und ist in einer bestimmten Wahl auch frei. Doch dank dem Hebel der Daten, verkommen viele wahrscheinlich einfach zu einem Haustier und Spielzeug für diese Algorithmen. Ich liege vielleicht komplett falsch. Doch ich denke es lohnt sich einfach wenn viele junge Menschen sich das Problem kurz anschauen. Zumal diese sehr oft diesen Geräten und dahinterliegenen Algorithmen ausgesetzt sind.

    Wir brauchen keine Waffen mehr, denn in dem nächsten Krieg geht es nur um Informationen und die Grenzen der Länder verschwimmen, weil individuen eben mitten auf dem digitalen Schlachtfeld stehen.

    So wie jetzt, hier und im Netz. Alltag quasi.

    Grüße

    Chris

Ergänzung an Christian Ergänzung abbrechen

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Bitte keine reinen Meinungsbeiträge! Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.