Technologie

Killer-Roboter: Microsoft, Amazon und Intel positionieren sich nicht zu autonomen Waffensystemen

Autonome Waffen können selbständig ein Ziel wählen, angreifen und töten. Ein neuer Bericht hat Tech-Unternehmen auf der ganzen Welt nach ihrer Haltung zu solchen Systemen befragt. Kaum eines bekennt sich klar gegen den Einsatz seiner Technologie für die automatisierte Kriegsführung. Amazon, Intel und Microsoft werden als besonders hohe Risiken eingestuft.

Ein vollautomatisches Kampfsystem des russischen Herstellers Kalashnikow im Einsatz.
Screenshot aus Werbevideo des Kalaschnikow-Konzerns. Alle Rechte vorbehalten Kalashnikov Media

Stellen Sie Technologie her, mit der man autonome Waffensysteme ausstatten könnte? Und haben Sie sich hierzu klar positioniert? Diese Fragen hat die niederländische NGO Pax an 50 Tech-Unternehmen auf der ganzen Welt gestellt, darunter die Branchen-Giganten Amazon und Google, aber auch kleinere Start-ups aus China, Großbritannien, Frankreich oder Israel.

Ausgehend von den Antworten stuft Pax die Unternehmen in drei Kategorien ein. Google hat sich etwa nach Mitarbeiterprotesten aus Militärverträgen zurückgezogen und eine klare Absage an die Verwendung ihrer Technologie für militärische Zwecke erteilt. Solches Handeln gilt laut Pax als „best practice“, also vorbildlich. Neben Google finden sich noch der japanische Konzern Softbank und vier weitere Unternehmen in dieser Kategorie.

Wer dagegen bekanntermaßen an militärisch relevanten Technologien arbeitet und den Fragenkatalog nicht beantwortete, den sieht der Bericht als hohes Risiko. Insgesamt sind das 21 Unternehmen, darunter Konzerne wie Amazon und Microsoft, die Software zur Gesichtserkennung herstellen, sowie der umstrittene US-Datenanalyst Palantir. Er stattete bereits das US-Militär und auch die hessische Polizei mit seinen Systemen aus.

Ebenfalls auf der Liste steht die chinesische Firma SenseTime, das derzeit höchstbewertete Start-up der Welt. Dazu eine Handvoll weitere Start-ups für Gesichtserkennung, maschinelles Lernen, Robotik oder Dronenabwehr aus den USA, China, Großbritannien und Israel.

So unterschiedlich ihr Marktanteil ausfällt: Sie alle entwickeln Technologien, mit denen autonome Waffen ausgestattet werden können. Im Militärjargon werden solche Systeme als „Lethal Autonomous Weapon Systems“ (LAWS, tödliche autonome Waffensysteme) bezeichnet. Griffiger und deshalb unter den Kritikern verbreitet: Killer-Roboter.

Die UN wird Killer-Roboter nicht ächten

Solche Systeme sind heute schon im Einsatz und verändern die Art der Kriegsführung. Die USA haben in Kalifornien Drohnenschwärme präsentiert, China baut autonome U-Boote, die sich beim Angriff auf gegnerische Schiffe gleich selbst mitzerstören. Und der größte russische Militärzulieferer Kalaschnikow hat ein Waffensystem vorgeführt, das mit Hilfe von sogenannten neuronalen Netzen autonom entscheidet, ob es schießt oder nicht.

Das sind jedoch erst die Anfänge einer Entwicklung, die sich in den kommenden Jahren mit der rasanten Verbesserung von sogenannter Künstlicher Intelligenz noch beschleunigen wird. Systeme, die einmal aktiviert selbstständig Ziele auswählen und angreifen, könnten dann zum Standard der Kriegsführung werden.

Seit Jahren läuft eine internationale Kampagne namens Stop Killer Robots, die ihr vollständiges Verbot im Rahmen einer UN-Waffenkonvention fordert. Ihr Ziel: Waffensysteme, die automatisiert und ohne menschliche Kontrolle eine Zielperson erfassen und töten können, sollen völkerrechtlich geächtet werden, so wie bereits Streubomben oder Antipersonenminen.

Die Kampagne hat inzwischen 28 Nationen hinter sich vereint, die sich ebenfalls für das Verbot aussprechen. Derzeit blockieren jedoch die USA, Russland, Südkorea, Israel und Australien weitere Gespräche. Die deutsche Regierung ist zwar laut Koalitionsvertrag für ein Verbot, spricht sich aber aus taktischen Gründen nicht klar dafür aus, sondern strebt stattdessen eine „vermittelnde Lösung“ an. Kurz: Es ist keine Lösung in Sicht.

Bitte selbst Regeln aufstellen

Vor diesem Hintergrund appelliert der Bericht von Pax nun an die Unternehmen selbst. Wenn es schon kein internationales Verbot von autonomen Waffensystemen in Reichweite gibt, so müssten sich zumindest die Unternehmen, die so genannte Dual-Use-Technologien herstellen, klar positionieren. Ziel des Berichtes sei es laut Pax, die Firmen zu ermutigen, klare Richtlinien zu veröffentlichen, wofür sie ihre Technologien zur Verfügung stellen und wofür nicht.

Als Dual-Use werden Technologien bezeichnet, die sich für zivile ebenso wie für militärische Zwecke einsetzen lassen. So können etwa Algorithmen zur Bilderkennung und Objektlokalisierung für die Steuerung autonom fahrender Autos genutzt werden – oder für Panzer und U-Boote.

Umstrittene Organisation

Der Urheber des Berichts Pax ging unter anderem aus dem niederländischen Zweig von Pax Christi hervor, dem katholischen Arm der internationalen Friedensbewegung mit insgesamt 120 Organisationen. Die NGO steht dabei selbst in der Kritik, die deutsche Sektion soll im Israel-Palästina-Konflikt die internationale Boykottbewegung „Boycott, Divestment and Sanctions“ (BDS) gegen Israel unterstützen. Der Bundestag hatte die BDS-Bewegung vor kurzem als antisemitisch eingestuft und dazu aufgerufen, allen Projekten, die die Bewegung unterstützen, die Förderung zu entziehen.

0 Ergänzungen

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.