Wir dokumentieren den offenen Brief, der heute veröffentlicht wurde und der von der neuen Bundesregierung ein stärkeres Engagement und mehr Initiative gegen autonome Waffensysteme fordert. Konkret wird von ihr verlangt, dass ein internationaler Vertrag über tödliche autonome Waffen initiiert wird.
Unterzeichnet haben den Brief 62 namhafte Wissenschaftler und Wissenschaftlerinnen aus Deutschland, die in der Informatik und anderen Wissenschaften arbeiten, die zu Robotik und Künstlicher Intelligenz forschen. Der offene Brief kann unter autonomewaffen.org auch mitgezeichnet werden.
Offener Brief: Initiative für ein internationales Abkommen zu Autonomie in Waffensystemen
Hiermit bringen wir unsere tiefe Besorgnis über Waffensysteme zum Ausdruck, die Ziele ohne echte menschliche Kontrolle auswählen und angreifen. Wir fordern einen rechtsverbindlichen internationalen Regulierungsrahmen für die Nutzung dieser sogenannten „Autonomie in Waffensystemen“. Damit schließen wir uns ähnlichen Initiativen zahlreicher CEOs sowie tausender unserer KollegInnen aus den Feldern der Robotik und der Künstlichen Intelligenz (KI) u. a. in Australien, Belgien, Kanada, Norwegen, den Niederlanden und den USA an.
Wir sind der Auffassung, dass KI und Robotik das Potential haben, der Menschheit in vielerlei Hinsicht dienlich zu sein. Wie alle anderen technologischen Entwicklungen können auch sie im Positiven wie im Negativen Anwendung finden. Daher erfordern die mit dem technischen Fortschritt einhergehenden Implikationen unsere erhöhte Aufmerksamkeit.
Autonomie in Waffensystemen bringt gewichtige ethische, sicherheitspolitische und rechtliche Risiken mit sich. Seit Jahren werden diese öffentlichkeitswirksam und in zahlreichen internationalen Foren, unter anderem bei den Vereinten Nationen in Genf, diskutiert. Die Sorge gilt dabei dem Verlust der menschlichen Kontrolle über den Einsatz von Gewalt. Menschen sollten nicht von autonomen Systemen angegriffen werden, insbesondere sollte nicht die Entscheidung von Massenvernichtungswaffen allein von Algorithmen ohne menschliche Eingriffsmöglichkeit getroffen werden: Entscheidungen über Leben und Tod dürfen nicht an Algorithmen delegiert werden.
Der unregulierte Einsatz autonomer Waffensysteme stellt eine ernsthafte Gefährdung für das Völkerrecht sowie die Menschenrechte und vor allem die Menschenwürde dar. Die aktuelle Entwicklung droht zudem ein Wettrüsten, gefolgt von mehr regionaler und globaler Unsicherheit, auszulösen. Ohne Regulierung werden sich autonome Waffen außerdem schnell weiterverbreiten, wodurch das Risiko zunimmt, dass Konflikte in Maschinengeschwindigkeit ausgelöst oder zum Eskalieren gebracht werden, ohne dass Menschen noch bremsend eingreifen können. Schließlich wirft die aktuelle militärtechnologische Entwicklung Fragen der Zurechenbarkeit und Verantwortung auf, da unklar ist, wer bei einer autonomen Zielbekämpfung für etwaige Verstöße gegen das Völkerrecht zur Rechenschaft gezogen werden könnte.
So wie die meisten ChemikerInnen und BiologInnen kein Interesse am Bau chemischer oder biologischer Waffen haben, so haben auch wir ForscherInnen auf den Feldern der KI und der Robotik kein Interesse daran, High-Tech-Waffen zu entwickeln. Wir wollen nicht, dass unser Fachgebiet dadurch in Verruf gerät. Das könnte nicht zuletzt zu gesellschaftlicher Ablehnung unserer Forschung führen und so den Nutzen von KI und Robotik insgesamt schmälern. ChemikerInnen und BiologInnen haben sich für internationale Abkommen eingesetzt, mit denen chemische und biologische Waffen erfolgreich verboten wurden. Nun ist es an der Zeit, dass die neue Bundesregierung unsere Bedenken zum Anlass nimmt, um Autonomie in Waffensystemen einzuhegen. Ist diese Büchse der Pandora erst einmal geöffnet, wird es sehr schwer sein, sie wieder zu schließen.
Bereits in den letzten beiden Koalitionsverträgen kam klar zum Ausdruck, dass deutsche Bundesregierungen Waffensysteme ächten, die der menschlichen Entscheidungs- und Verfügungsgewaltentzogen sind. Für den neuen Koalitionsvertrag fordern wir daher die Formulierung eines konkreteren Ziels.
Deutschland muss eine führende Rolle bei der Entwicklung eines neuen, völkerrechtlich verbindlichen Vertrages zur Regulierung von Waffensystemen übernehmen, die in ihren kritischen Funktionen autonom sind, also Ziele ohne menschliches Zutun auswählen und bekämpfen. Der Vertrag sollte die Beibehaltung echter menschlicher Kontrolle beim Einsatz dieser Waffensysteme vorschreiben und solche autonomen Waffensysteme gänzlich verbieten, die sich gezielt gegen Menschen richten oder die aufgrund ihres Designs und während ihrer Nutzung nicht sicherstellen können, dass echte menschliche Kontrolle gewährt bleibt.
Unterzeichnende
Prof. Dr. Hannes Federrath
Präsident der Gesellschaft für Informatik (GI) / Universität Hamburg
Priv.-Doz. Dr. Matthias Klusch
Sprecher Fachbereich Künstliche Intelligenz der GI / DFKI / Universität des Saarlandes
Prof. Dr.-Ing. Ingo J. Timm
Sprecher Fachbereich Künstliche Intelligenz der GI / DFKI / Universität Trier
Prof. Dr.-Ing. habil. Christoph Benzmüller
Confederation of Laboratories fpr Artificial Intelligence Research in Europe (CLAIRE) / Freie Universität Berlin
Prof. Dr. Holger Hoos
CLAIRE / Universität Leiden
Prof. Dr. Philipp Shisallek
Direktor am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) / CLAIRE / Universität des Saarlandes
Prof. Dr. Klaus-Dieter Althoff
Universität Hildesheim
Prof. Dr. Franz Baader
TU Dresden
Dr. Joachim Baumeister
Universität Würzburg
Prof. Dr. Christoph Beierle
FernUniversität in Hagen
Prof. Dr. Hans-Peter Beise
Hochschule Trier
Prof. Dr. Ralph Bergmann
Universität Trier / DFKI
Prof. Dr. Harald Binder
Albert-Ludwigs-Universität Freiburg
Prof. Dr. Carsten Binnig
TU Darmstadt
Prof. Dr. Karl Hans Bläsius
Hochschule Trier
Dr. Aljoscha Burchardt
Universität des Saarlandes / DFKI
Prof. Dr. Prof. h.c. Andreas Dengel
Direktor am DFKI / TU Kaiserslautern
Fabio Ferreira, Doktorand
Universität Freiburg
Prof. Dr. Peter Fettke
Universität des Saarlandes / DFKI
Prof. Dr. Ulrich Furbach
Universität Koblenz-Landau
Prof. Dr. Malte Göttsche
RWTH Aachen University
Prof. Dr. Josif Grabocka
Universität Freiburg
Prof. Dr. Martin Hennecke
Universität Würzburg
Prof. Dr. Joachim Hertzberg
Universität Osnabrück / DFKI
Prof. Dr. Prof. h.c. Ottheim Herzog
Universität Bremen
Prof. Dr. Jörg Hoffmann
Universität des Saarlandes
Dipl. Bioinf. Ericson Hölzchen
Universität Trier
Prof. Dr. Andreas Hotho
Universität Würzburg
Prof. Dr. Frank Hutter
Albert-Ludwigs-Universität Freiburg
Lecturer Ermelinda Kanushi
University College Freiburg
David Kaub, M.Sc.
Universität Trier
Prof. Dr. Kristian Kersting
TU Darmstadt
Prof. Dr. Antonio Krüger
Direktor und CEO des DFKI / Universität des Saarlandes
Prof. Dr. Gerhard Lakemeyer
RWTH Aachen University
Prof. Dr. Marc Erich Latoschik
Universität Würzburg
Prof. Dr. Jörg Lohscheller
Hochschule Trier
Prof. Dr. Carsten Lutz
Universität Bremen
Lukas Malburg, M.Sc.
Universität Trier
Prof. Dr. Mira Mezini
TU Darmstadt
Prof. Dr. Mirjam Minor
Goethe-Universität Frankfurt
Prof. Dr. Katharina Morik
TU Dortmund
Prof. Dr. Hans Jürgen Ohlbach
LMU München
Sebastian Pineda Arango, M.Sc.
Albert-Ludwigs-Universität Freiburg
Dipl. Inf. Eric Rietzke
Universität Trier
Prof. Dr. Raul Rojas
Freie Universität Berlin
Prof. Dr. Claus Rollinger
Universität Osnabrück
Prof. Dr. Stefan Roth
TU Darmstadt
Prof. Dr. Constantin Rothkopf
TU Darmstadt
Prof. Dr. Ute Schid
Universität Bamberg
Prof. Dr. Christoph Schmitz
Hochschule Trier
Prof. Dr. Jörn Schneider
Hochschule Trier
Prof. Dr. Bernhard Schölkopf
Max-Planck-Institut für Intelligente Systeme
Jakob Michael Schönborn, M.Sc.
Universität Hildesheim
Prof. Dr. Jörg Siekmann
Universität des Saarlandes / ehemalig Direktor am DFKI
Danny Stoll, Doktorand
Albert-Ludwigs-Universität Freiburg
Prof. Dr. Radu Timofte
Julius-Maximilian-Universität Würzburg
Prof. Dr. Abhinav Valada
Universität Freiburg
Prof. Dr. Will van der Aalst
RWTH Aachen University
Prof. Dr. Sebastian von Mammen
Julius-Maximilians-Universität Würzburg
Arber Zela
Albert-Ludwigs-Universität Freiburg
Prof. Dr. Oliver Zielinski
Universität Oldenburg / DFKI
Dr. Theresa Zueger
Alexander von Humboldt Institute for Internet and Society
Initiator des offenen Brief ist das Future of Life Institute.
So sehr ich das inhaltlich begrüße und unterschreiben würde fehlt mir:
– Eine Begründung warum sich die alten weißen Männer erst jetzt erbarmen politisch aktiv zu werden.
– Eine Begründung warum man andere relevante Fachrichtungen zu dem Thema nicht auch unterschreiben lässt, meinetwegen aufgeschlüsselt.
– Eine Klarstellung hinsichtlich der Frage, unter welchen Bedingungen eine menschliche Entscheidung des Einsatzes erfolgen muss.
… sind das auch nur in ihrem Denken gefangene alte weiße Männer? Alle ethische Verantwortung empfindende Menschen und insbesondere Informatiker müssen aufschreien.
Arte hat vor wenigen Tagen (30.10.) ein Video zu dem Thema veröffentlicht und fasst die aktuelle Lage ganz gut zusammen.
https://www.youtube.com/watch?v=iDjHmCmGz0k
Krieg im 21. Jahrhundert: Roboter oder Mensch?
Bei „autonome Waffensysteme“ muss ich immer an „SkyNet“ denken…