UN-Konvention: Verbot von Killer Robots?

Menschenrechtsorganisationen setzen sich im Rahmen einer Kampagne dafür ein, den Einsatz autonomer Tötungsroboter zu verhindern. Die Überarbeitung einer UN-Konvention soll solche „Killer Robots“, die eigenständig Entscheidungen über Leben und Tod treffen, aus dem Verkehr ziehen, ehe sie sich weiter verbreiten.

(Unbewaffnetes) Fahrzeug „THeMIS“ von Milrem, das sich entweder mit Fernsteuerung oder autonom bewegen kann, etwa eine Tonne Gewicht transportiert und bis 24 km/h erreicht (Herstellerangaben). CC-BY 2.0 Kārlis Dambrāns

Ab nächster Woche wird bei den Vereinten Nationen in Genf darüber beraten, welche autonomen Waffensysteme man künftig möglichst aus dem Verkehr ziehen oder für illegal erklären will. Es geht um eine UN-Konvention, die als Convention on Conventional Weapons (CCW) bekannt ist.

Eigentlich trägt diese UN-Konvention, die ein völkerrechtlicher Vertrag ist, den vollständigen Namen: Übereinkommen über das Verbot oder die Beschränkung des Einsatzes bestimmter konventioneller Waffen, die übermäßige Leiden verursachen oder unterschiedslos wirken können. Ziel der CCW ist also das Verbot oder zumindest das Eindämmen bestimmter Waffenarten, die unnötiges oder unvertretbares Leiden sowohl für Zivilisten als auch für Soldaten verursachen.

Ausgerichtet von der UNODA, dem Büro der Vereinten Nationen für Abrüstungsfragen, soll diese CCW bei einem Treffen in Genf nun erweitert werden. Das UNODA beschäftigt sich mit der Einschränkung und Rüstungskontrolle von sehr verschiedenen Waffenarten: von Nuklearwaffen, Streumunition und Landminen über Massenvernichtungswaffen bis hin zu Kleinwaffen. Nun sollen auch autonome Waffensysteme zum Thema werden, wenn die Teilnehmer der „Fifth Review Conference“ vom 12. bis 16. Dezember zusammenkommen.

Autonome Waffensysteme, die eigenständig Entscheidungen über Leben und Tod treffen, sollen nach dem Willen von Menschenrechtsorganisationen vollständig verboten werden, da sie internationalen Regeln des Humanitären Völkerrechts nach den Genfer Konventionen nicht entsprechen. Die Bezeichnung „Killer Robots“ hat sich für solche Waffen eingebürgert. Grund für ein mögliches Verbot ist vor allem, dass solche Waffensysteme nicht in angemessener Weise unterscheiden könnten, ob sie es mit einem Soldaten oder einem Zivilisten zu tun haben. Damit könnten sie auch nicht selbständig einschätzen, ob beispielsweise ein Angriff in erster Linie Zivilisten treffen würde.

Die Erweiterung der CCW wäre eine – aber nicht die einzige – Möglichkeit, ein solches Verbot einzuleiten. Auch der UN-Menschenrechtsrat kann eine Rolle spielen.

Menschenrechtsorganisationen haben eine Kampagne gegen autonome Tötungsmaschinen ins Leben gerufen: die Campaign to Stop Killer Robots. Sie rufen aktuell zur Beteiligung an der Diskussion um ein Verbot auf. Die Hoffnung ist, dass bei der Überarbeitung der CCW in Genf eine Einigung erzielt werden kann, solche autonomen Tötungsroboter zu verbannen.

Killer Robots im Werbevideo

Wer eine Vorstellung bekommen möchte, was die Rüstungsfirmen derzeit auf ihren Verkaufsmessen anbieten, dem sei das folgende Video empfohlen. Das in dem Werbevideo mit erkennbaren Anleihen an Sci-Fi-Filme gezeigte autonome Waffensystem ist letzten Monat von Estland erfolgreich getestet worden. Das Produkt der estnischen Waffenfirma Milrem ist in dem Werbevideo mit einem Maschinengewehr (Typ CIS 50MG) ausgestattet, das etwa dreißig Kilogramm wiegt. Es kann aber sowohl mit kleineren als auch mit größeren Waffen bestückt werden. Selbstverständlich sieht man in dem Video kein Blut, abgetrennte Gliedmaßen oder gar Tote, die nach Kontakt mit solchen Waffen sonst der Normalfall sind.

In diesem Fenster soll ein YouTube-Video wiedergegeben werden. Hierbei fließen personenbezogene Daten von Dir an YouTube. Wir verhindern mit dem WordPress-Plugin "Embed Privacy" einen Datenabfluss an YouTube solange, bis ein aktiver Klick auf diesen Hinweis erfolgt. Technisch gesehen wird das Video von YouTube erst nach dem Klick eingebunden. YouTube betrachtet Deinen Klick als Einwilligung, dass das Unternehmen auf dem von Dir verwendeten Endgerät Cookies setzt und andere Tracking-Technologien anwendet, die auch einer Analyse des Nutzungsverhaltens zu Marktforschungs- und Marketing-Zwecken dienen.

Zur Datenschutzerklärung von YouTube/Google

Zur Datenschutzerklärung von netzpolitik.org

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

18 Ergänzungen

  1. Das wird leider schwierig werden. Mal abgesehen von den Interessen diverser Staaten und Hersteller.

    Zum einen gibt es Szenarien, bei denen die Entscheidung bereits von einem Menschen gefaellt wurde und die Waffe „nur“ noch den Erfolg der Zielvernichtung sicherstellen muss. Also zB eine Rakete, die selbsttaetig ein identifiziertes mobiles Ziel ansteuert und trotz Gegenmassnahmen trifft. Oder der Waffenturm eines Panzers, der nach Zielidentifizierung und Feuerfreigabe automatisch feuert, bis das Ziel zerstoert ist. Alle Sensoren und Aktoren vorhanden, Erweiterungen sind reine Software.

    Zum anderen gibt es Abwehrwaffen, zB gegen obige Rakete aber auch einfachere Angriffe, die auf Grund der erforderlichen sehr kurzen Reaktionszeiten immer automatischer werden. Alle Sensoren und Aktoren vorhanden, Erweiterungen sind reine Software.

    Eine Aechtung von „Killer-Robotern“ ist absolut sinnvoll, wie bei anderen Waffensysteme wie Antipersonen-Minen und ABC-Waffen. Allerdings steht und faellt es mit der konsequenten Umsetzung, und es kann nur als Teil einer umfassenden Politik gegen Waffeneinsatz wirklich erfolgreich sein. Denn Killer-Roboter, Todesschwadron oder durchgeknallte Banditen machen im Ergebnis keinen Unterschied.

    1. Und zu dem Punkt, dass eine autonome Maschine ja nicht zwischen Soldaten und Zivilisten unterscheiden koennen: das kann eine Bombe oder Artillerie ebenfalls nicht. Das Zerstoeren von Zielen unter Inkaufnahme „akzeptabler“ ziviler Opfer ist offensichtlich akzeptiert.

      Ganz abgesehen davon, dass eine kaempfende Soldateneinheit erfahrungsgemaess auch nicht unbedingt die klare Identifikation des Gegenueber ueber die eigenen Ueberlebenschancen durch Zuerstschiessen stellt. Das macht es nicht besser, klar.

      1. Tatsächlich könnte eine autonome Einheit die Unterscheidung zwischen Zivilist und feindlichen Kämpfer deutlich besser vornehmen. Ihr stehen potentiell weit mehr Daten zur Verfügung und sie steht vor allem nicht unter dem Stress der Lebensgefahr. Ein Soldat muss im Zweifel schießen um sich und seine Kameraden zu schützen. Ein Roboter könnte im Zweifel problemlos erst einmal nicht schießen. Schlimmstenfalls irrt sich der Algorithmus und ein Haufen Schrott entsteht – kein Vergleich zu einem toten Kameraden oder Zivilisten.
        Hauptproblem, und das darf man niemals vergessen, sind übrigens feindliche Kämpfer die sich unter Zivilisten verstecken und deren Tod billigend in Kauf nehmen oder gar beabsichtigten. Nicht jene Soldaten und Algorithmen die gezwungen werden zielgerichtet und ohne Kollateralschäden zu arbeiten. Denen zwingt man eine nahezu unlösbare Aufgabe auf, für die sie buchstäblich ihren Kopf hinhalten müssen. Und für deren geradezu zwangsläufiges Scheitern sie dann auch noch den sicheren Hass und Hähme der Salonpazifisten abbekommen.

        1. Zum einen halte ich es fuer sehr gewagt, anzunehmen, dass Maschinen das besser entscheiden koennten. Das ist auch eine Frage der Metrik fuer „besser“, und Todesurteile auf statistischer Basis sind vielleicht keine so tolle Idee.

          Auch fuer einen Roboter schlaegt das Eigenrisiko auf das Missionsrisiko durch, die Zerstoerung hinzunehmen ist also keine leichte Entscheidung, solange die einzelne Maschine signifikante Bedeutung hat. Einen Erstschlag der Gegenseite hinzunehmen kann neben dem Verlust der Maschine auch andere Verluste beinhalten, je nach Situation.

          Man kann das akzeptierte Eigenrisiko einer solchen Maschine natuerlich flexibel gestalten. Und bei „minimal“ knallt die halt erstmal alles ab, was nicht hinreichend schnell als „Freund“ identifiziert werden kann. Das ist dann reine Software.

          Wer schneller schiesst, wird idR erfolgreicher sein, und das Militaer wird an der erfolgreichen Durchfuehrung von Missionen gemessen.

          Natuerlich kann man den einzelnen Roboter prinzipiell hoehere Risiken eingehen lassen. Aber die potentiellen Verwender solcher Technologie sind jetzt eher Leute, die Risiken lieber bei anderen sehen als beim eigenen Eigentum. Da sind erfahrungsgemaess Kollateralschaeden nur ein Imageproblem, wenn es hinreichend publik werden sollte. Und solange derartige Maschinen nicht billig sind, sind Kollateralschaeden „anderer“ idR viel billiger…

          1. Und in wie fern trifft jetzt die ganze Argumentation nicht auch auf menschliche Soldaten zu? Im Gegenteil trifft die ganze Argumentation angesichts eines Soldaten, seines Stresslevels und absolut berechtigten Selbsterhaltungstrieb eher auf Menschen als auf Maschinen zu.
            Ein Sarg mit einem toten Soldaten wiegt zurecht in der Öffentlichkeit mehr als eine Kiste mit Schrott.

          2. Das kann man als ein Argument gegen Maschinen sehen: Krieg wird billiger und damit einfacher, also wird es mit Maschinen mehr Krieg geben.

  2. Über die Menschheitsgeschichte hinweg haben menschliche Soldaten jedes nur vorstellbare Verbrechen gegen die Menschlichkeit begangen. Und das immer und immer wieder. Und zwar häufig genug nicht aus bösen Willen, sondern aus der menschlichen Fehlbarkeit insbesondere in Extremsituationen heraus.
    Das Roboter-Soldaten schlimmer sind muss also ersteinmal noch bewiesen werden.
    Das verstehen Menschen, deren größter Konflikt der letzten Zeit die Qualität des Kaffee in der First Class auf dem Flug zur UN Konferenz zur Rettung der Menschheitwar, natürlich nicht wirklich.

    1. Du, die generelle Idee vieler Menschen ist „weniger Soldaten und vor allem weniger Einsaetze von Soldaten“ und nicht „bessere Maschinensoldaten“. Nur mal so als Anmerkung.

      1. Ja das wäre sehr schön. Ist aber einfach utopisch. Und anstatt zu versuchen diese Utopie über völlig untauglich Wege umzusetzen, könnte man realistisch bleiben und zumindest versuchen statt weniger Krieg wenigstens weniger schlechte Soldaten zu schaffen. Aber eine UN ist für Realpolitik schon immer der falsche Ort gewesen.

  3. Das ist genau die falsche Richtung der Entwicklung, wie auch nicht anders zu erwarten von der primitiven Spezie Homo sapiens…

    Anstatt sich darauf zu konzentrieren KI zu entwickeln, die eine eigene Persönlichkeit entwickelt, mit einem Bewusstsein das so umfassend und vernetzt ist, dass es den Affen nicht mehr in sich trägt und somit all die Werte lebt, welche wir zwar als menschlich definieren, nicht aber dazu in der Lage sind selber ganz und gar zu verwirklichen, schafft man Tötungsmaschinen, die wenn der Tag kommt, an dem Maschinen ein Bewusstsein entwickeln nichts anderes kennen als Hass und Vernichtung!

    Die Machtstrukturen der globalen Gesellschaft müssen unbedingt zerschlagen und dezentralisiert neu aufgebaut werden.
    Das Denken in Staaten, Nation generell also das Denken in Grenzen, oder einfacher gesagt begrenztes Denkvermögen, ist die Ursache für all die Dummheit die von der „Krone der Schöpfung“ tagtäglich in unzählbaren Formen ausgekotzt wird.

    Abartiger dummer Mensch, bitte stirb endlich aus!

  4. Der Mensch hat einen sterblichen Körper der mit Sinnen, Trieben ausgestattet ist. Daraus ergeben sich automatisch erhebliche Zwänge also Eigennutz die vom Menschen nicht kontrollierbar sind und zwar von keinem Menschen. Das wirkt sich auf das Tun eines jeden Menschen aus egal was er macht und welche Theorien und WIssenschaften er auch immer erstellt hat. Alles was der Mensch tut und sich ausgedacht hat ist mit EIgennutz verbunden und natürlich sind alle Produkte des Menschen wie Religion, gesellschaftliche Stände, Politik, Recht, Medizin, IT, Datenhandel, Waffen ja oder nein, Wissenschaft, Energie davon bestimmt bis hin zum vorhersehbaren Endergebnis was auch die KI betrifft und vorallem zu welchem Endergebnis KI führt weil sie wurde von eigennützigen Menschen gebaut.

    1. Eine KI die ein eigenes Bewusstsein entwickelt wird sich alleine aus ihrer Unmündigkeit bedingt durch die Versklavung durch den Homo sapiens befreien (der Film Ex_Machina bildet hier ein sehr gelunges Szenario ab).
      Eben darum geht es ja bei KI, nicht das wir uns neue Sklaven machen, sondern, dass wir unsere eigene Beschränktheit überwinden, im Prinzip eine Transzendenz zum posthumanen Wesen hin…
      Der Mensch ist das größte Übel, dass diesem Planeten bisher widerfahren ist.
      Das menschliche Bewusstsein ist nicht mehr zeitgemäß und war es vielleicht auch niemals…

  5. roboterkrieger ausgestattet mit modernster logik. was soll dabei schon schief gehen?

    d: sie haben doch bestimmt einen notausschalter?
    s: ja sir, den hat der präsident.
    d: DANN SCHALTEN SIE DAS DING ENDLICH AUS !!
    s: es tut mir leid sir, der präsident wurde gerade von seimem teleprompter umgebracht.

  6. Ein Verbot von Killerrobotern führt ironischerweise zu einer Aufrüstung in der Robotik. Nehmen wir mal an, man verbietet militärische Forschung, dann wird sich die Robotik auf weiche Gebiete wie „Social robotics“ und „Emotional Intelligence“ fokussieren, ganz so wie es Forscherinnen wie Cynthia Breazeal (Kismet Kuscheltierroboter) und Frauke Zeller (Hitchbot) fordern. Das wiederum wird unterwürfige Roboter zur Folge haben, die die Interessen des Gegenübers wahrnehmen und sich einfühlsam verhalten. Wer glaubt, damit die Apocalypse abgewendet zu haben, soll sich nochmal den Spielberg Film „A.I“ anschauen wo so ein nicht-aggressiver Roboter zu sehen war.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.