"Verpasste Chance"Gipfel zu militärischem KI-Einsatz enttäuscht NGOs

2.500 Menschen aus 100 Ländern: Der REAIM-Gipfel zum Thema KI im Militär brachte Industrie, Zivilgesellschaft und Regierungen an einen Tisch. Der Gipfel wurde mit Spannung erwartet – ließ die Zivilgesellschaft aber enttäuscht zurück.

Ein Militärroboter zielt auf ein Objekt.
Wie sich eine KI einen militärischen Killer-Roboter vorstellt – Stable Diffusion, Symbolbild

Am 24. Februar jährt sich der Angriffskrieg Russlands gegen die Ukraine – und ein Ende des Tötens und Sterbens ist nicht absehbar. Derweil sind sich Expert:innen sicher: Je länger dieser Krieg andauert, desto wahrscheinlicher ist es, dass mindestens eine der beiden Seiten autonome Waffensysteme verwenden wird. Schon jetzt setzen die Ukraine und Russland halbautonome Drohnensysteme ein. Einige der Drohnen könnten potenziell bereits mit Hilfe sogenannter Künstlicher Intelligenz (KI) autonom agieren.

Solche autonomen Systeme und weitere Fragen zur militärischen Nutzung von KI waren Thema auf dem REAIM-Gipfel, der vergangene Woche in Den Haag stattfand. Die Erwartungen an das von den Niederlanden und Südkorea ausgetragenen Treffen waren groß – wurden aber weitgehend enttäuscht.

Erstmalige Möglichkeit für umfassende Diskussionen

Laut dem Veranstalter bot die Konferenz erstmalig die Möglichkeit, das Thema KI und Militär in dieser Breite zu diskutieren. Ziel des Gipfels sei es, so der niederländische Außenminister Wopke Hoekstra im Vorfeld, gemeinsame Definitionen für den Einsatz und die Sicherheit von KI-Waffen zu formulieren. In absehbarer Zeit benötige es klare Regeln und Richtlinien, so Hoekstra.

Entsprechend groß waren die Erwartungen aus der Zivilgesellschaft. Diese wurden allerdings enttäuscht: Denn zum Abschluss des Gipfels veröffentlichten 61 teilnehmende Staaten einen aus ihrer Sicht inhaltlich unzureichenden und rechtlich zudem nicht bindenden gemeinsamen Handlungsaufruf zum Umgang mit militärischer KI. Dieser fordert einen „verantwortungsvollen“ Umgang mit KI in der „militärischen Domäne“ und entsprechende nationale Richtlinien. Zusätzlich soll eine global zusammengesetzte KI-Kommission geschaffen werden, die Rahmenbedingungen für eine KI-Regulierung entwerfen soll. Die USA scherten aus und veröffentlichten zum Abschluss des Gipfels ein eigenes Dokument.

Thomas Küchenmeister, Sprecher der globalen Kampagne Stop Killer Robots in Deutschland, sagt gegenüber netzpolitik.org, dass beide Dokumente „schwache politische Erklärungen“ seien. Beiden mangele es an einem „klaren Bekenntnis zur Notwendigkeit einer vollumfänglichen menschlichen Kontrolle bei der Ausübung von Waffengewalt“. Zudem fehle eine „Forderung nach einem völkerrechtlich verbindlichen Verbot von Waffen, die zum Beispiel ohne menschliche Kontrolle menschliche Ziele finden, bewerten und erfassen und diese dann zerstören können“, so Küchenmeister. Stop Killer Robots ist ein Zusammenschluss von mehr als 180 Organisationen, die sich gegen autonome Waffensysteme einsetzen.

Die australische NGO Safe Ground bezeichnete den Gipfel gegenüber dem US-amerikanischen Magazin Gizmodo sogar als „verpasste Chance“.

USA veröffentlichen eigene Erklärung

In der Erklärung der USA geht es um verantwortungsvollen „militärischen Gebrauch von Künstlicher Intelligenz und Autonomie“. Bonnie Jenkins, Unterstaatssekretärin für Rüstungskontrolle, erklärte, das Ziel der Erklärung sei es, „Standards für verantwortliches Handeln zu etablieren und Mittel einzurichten, um Transparenz und Kommunikation zu erhöhen und das Risiko von ungewollten Konflikten und Eskalationen zu verringern“.

Die Erklärung sieht unter anderem vor, dass alle Entscheidungen im Kontext des Einsatzes von Atomwaffen menschlich kontrolliert werden müssen. Der Einsatz von KI solle außerdem im Einklang mit internationalem Menschenrecht und mit „angemessener menschlicher Beurteilung“ stattfinden. Alle Staaten, die interessiert seien, könnten der Erklärung beitreten. Unterzeichnende Staaten sollen dann öffentlich dokumentieren, dass sie deren Prinzipien umsetzen.

Mary Wareham von der Menschenrechtsorgansiation Human Rights Watch (HRW) kritisiert die Erklärung der USA als zu weich. Es sei nicht die Zeit für unzureichende politische Erklärungen. Vielmehr müssten sich gerade die USA für verbindliche, internationale Regelungen einsetzen. Ousman Noor von Stop Killer Robots äußerte sich noch kritischer: Die Erklärung sei die „die rückständigste Position, die seit Jahren von einem Staat eingenommen wurde.“ So falle die Erklärung laut Stop Killer Robots „drastisch hinter dem internationalen Rahmen zurück, den die Mehrheit der Staaten in den UN-Diskussionen gefordert hat.“

Die Vereinigten Staaten haben in den vergangenen Jahren stets eine strengere Regulierung autonomer Waffensysteme verhindert. Vor wenigen Wochen erschien bereits eine Richtlinie des US-Verteidigungsministeriums zu KI. Diese fördere eher die Entwicklung autonomer Waffensysteme als diese zu regulieren, kritisiert HRW.

Keine Fortschritte auf UN-Ebene

Die Enttäuschung der zivilgesellschaftlichen Gruppen über den Gipfel ist nachvollziehbar: Trotz offensichtlicher Dringlichkeit gibt es bisher kaum Fortschritte bei der Regulierung von militärischen KI-Einsätzen. Zwar einigte man sich 2019 im Rahmen der Konvention über bestimmte konventionelle Waffen (CCW) der UN auf elf Leitprinzipien. Diese sollen etwa sicherstellen, dass allein Menschen über einen Waffeneinsatz entscheiden. Allerdings ist ein rechtlich bindendes Verbot autonomer Waffensysteme bisher nicht in Sicht – vor allem, weil mächtige Militärnationen wie die USA, China und Russland das zuständige Gremium seit Jahren blockieren.

Weil die CCW-Verhandlungen stagnieren, richteten sich alle Hoffnungen der Zivilgesellschaft auf die REAIM-Konferenz. Laut Tagesspiegel sieht Neil Davison vom Internationalen Komitee des Roten Kreuzes grundsätzlich Einigkeit zwischen den teilnehmenden Staaten. Das Ziel sei ein vollständiges Verbot autonomer Waffen sowie Regulierung aller weiteren militärisch verwendbaren KI-Systeme. Ähnlich äußerte sich Agnes Callamard, die Generalsekretärin von Amnesty International: Am Ende der Verhandlungen könne nur ein Verbot komplett autonomer Waffensysteme stehen.

Selbst einige auf der Konferenz anwesende Industrievertretende unterstützten die Forderung nach verlässlichen internationalen Regeln. Alex Karp, Geschäftsführer von Palantir, nutzte seine Redezeit hingegen vorwiegend dafür, den Nutzen von KI für militärische Zwecke zu unterstreichen.

Wie kann eine Lösung aussehen?

Ein HRW-Bericht aus dem vergangenen Jahr skizziert, wie eine Lösung auf internationaler Ebene aussehen kann. Eine Möglichkeit sei es, die Verhandlungen auf alternative Foren zu verlagern – da auf absehbare Zeit unter dem CCW nicht mit Fortschritten zu rechnen sei.

Beispiele gibt es schon: So wurde das Verbot von Antipersonenminen in der zwischenstaatlichen Ottawa-Konvention festgehalten; der Vertrag über ein Verbot von Atomwaffen entstand nach Initiative der UN-Generalvollversammlung. Die Abkommen entstanden in beiden Fällen aus Frustration über festgefahrene Prozesse unter dem Konsensprinzip.

Das Interesse dafür scheint zumindest gegeben. In der Vergangenheit hatten sich bereits einige Staaten für ein vollständiges Verbot autonomer Waffensysteme ausgesprochen. Und im vergangenen Oktober gaben zudem in der Generalversammlung der UN 70 Staaten eine gemeinsame Erklärung ab. Die Unterzeichnenden sprechen sich dafür aus, dass auch weiterhin Menschen für den Einsatz von Gewalt verantwortlich sein sollten.

Insofern könnte die REAIM-Konferenz langfristig doch Wirkung entfalten. Denn trotz der Frustration der Menschenrechtsorganisationen brachte der Gipfel unbestreitbar die verschiedenen Interessensgruppen an einen Tisch – insgesamt besuchten etwa 2.500 Menschen aus 100 Ländern die Konferenz. Laut HRW planen 2023 auch weitere Staaten Konferenzen zum Thema autonome Waffensysteme außerhalb des CCW. Es bleibt abzuwarten, ob aus diesen alternativen Foren verbindliche Verträge entstehen – bevor in der Ukraine tatsächlich automatisierte Waffensysteme eingesetzt werden.

30 Ergänzungen

  1. Ein Einsatz der KI für Kriegswaffen ist das abscheulichste Tötungssystem, was man sich nur vorstellen kann.
    Einerseits habe ich Verständnis dafür, dass man verstehen muss, wie eine solche KI funktioniert, um sie stoppen zu können. Andererseits widerspricht das nicht der Forderungen von zivilen Organisationen, den Einsatz derartiger autonomer Waffen zu verhindern.

    Wenn sich die USA als Vorreiter von Freiheit und Demokratie sieht , so stünde es ihr gut zu Gesicht, sich zu verpflichten, dass autonome Kriegsmaschinen nie im öffentlichen Raum gestartet werden, auch nicht exterritorial.

    Es geht bereits jetzt schon eine Gefahr von autonomen Drohnen aus, die „Grenzüberwachungen“ durchführen.
    Es gibt bereits Möglichkeiten, Drohnen zu bewaffnen und damit auf eine „Grenzverletzung“ direkt zu reagieren ! Autonom.

    Im Internet finden wir zu diesem Thema gerade über Drohneneinsätze bereits beängstigende Tendenzen:

    Mittelmeerüberwachung:
    https://netzpolitik.org/2020/auftraege-an-ruestungskonzerne-italien-und-frontex-ueberwachen-das-mittelmeer-jetzt-mit-drohnen/

    Landüberwachung:
    https://www.ingenieur.de/technik/fachbereiche/elektronik/israel-will-drohnen-und-roboter-zur-grenzueberwachung-einsetzen/

    und auch Deutschland :
    FCAS
    https://www.imi-online.de/2021/07/14/eurodrohne-und-zukuenftiges-kampfflugzeug-im-fcas/

    https://netzpolitik.org/2021/future-combat-air-system-industrie-zankt-um-groesstes-europaeisches-ruestungsprojekt/

    https://www.lobbying4peace.de/nein-zu-fcas

    1. „Ein Einsatz der KI für Kriegswaffen ist das abscheulichste Tötungssystem, was man sich nur vorstellen kann.“

      Das bedarf allerdings einer sehr beschränkten Vorstellungskraft gepaart mit entsprechend beschränkter geschichtlicher Bildung. Gerade in Deutschland bedauerlich.

      Ansonsten ist „KI“ lediglich in speziellen Bereichen sehr leistungsfähige Musterkennung, und das findet natürlich Anwendung.

      Ein Nahbereichverteidigungssystem zB erkennt damit aus der Fülle der Sensorendaten ein sich schnell näherndes Objekt, berechnet die weitere wahrscheinliche Flugbahn und wird es in einer Kampfsituation automatisch zu zerstören suchen. Die menschliche Kontrolle war die Feststellung der Kampfsituation und die Freigabe des Systems, alles andere passiert viel zu schnell.

      Ansonsten krankt es schon an der Eindeutigkeit der Begriffe. Was ist zB „vollumfängliche Kontrolle“? Einzelne Freigabe vor der Waffenwirkung? Reicht also irgendwer irgendwo, der möglichst schnell „ok“ klicken kann? Was ist zB ein „menschliches Ziel“? Ein erkennbarer Mensch, ein möglicherweise einen Menschen beinhaltendes Objekt, aber jedenfalls kein rein künstliches Objekt?

      1. „Das bedarf allerdings einer sehr beschränkten Vorstellungskraft“

        Nö? Eigentlich nicht. Die Grammatik macht so vielleicht keinen Sinn, dass der Einsatz der KI also ein (abscheuliches) Tötungssystem darstelle.

        Ansonsten ist der Antike Krieg zwar auch abscheulich, das Kaputtgehaue und Armabgeschlage, das Vergewaltigen und Töten zumeißt aller Zivilisten in eroberten Städten oder sogar Regionen.

        Da schließt sich aber vielleicht auch der Kreis zu voll autonomen Killersystemen (im entsprechenden Modus):
        1. Die handelnden Menschen entfernen sich sehr weit vom Eindruck des Krieges (Gamifizierung, Hemmschwelle, Entmenschlichung nach Gusto, z.B. mit roten Rahmen oder Zielkreuzen).
        2. Verschiedene Systeme werden (bald) sehr gut im autonomen Töten sein (Wärmebild, Mustererkennung, KI zum Treffen).
        3. Könnten diese Systeme wirklich Zivilisten schonen? Bzw. welche Systeme von wem werden das können, wenn es z.B. mal wieder einen überlegenen Agressor gibt.

        (Hier sehe ich die Batterieleistung noch als Problem. Vlt. gibt es dann Atombatterien, da die Technik sowieso voll im Kommen ist. Dennoch droht hier ein weiterer Rückschritt. Ich sehe allerdings auch keinen „humanen Krieg“ kommen.)

        1. Das ist Satire oder ein Test von ChatGPT, oder?

          Zum einen historisch eher unkorrekt, weder wurde ueblicherwiese jeder umgebracht, noch ist der letzte genozidalen Eroberungskrieg in Nordamerika so lange her. Die Grammatik des Satzes kaputt, denn es fehlte ein „aber“ oder aehnliches nach dem „ansonsten […] zwar […]“.

          1) Die handelnden Menschen sind bereits zT weit entfernt bei ferngesteuerten Drohnen, Waffen grosser Reichweite oder Luftangriffen. Wie „Collateral Murder“ oder jedes beliebige andere Massaker jedem gezeigt hat, ist Naehe nicht der unterschiedliche Faktor.

          2) Das sind sie zT schon jetzt bzw. ist das Inhalt des Artikels, was will der Kommentator mit der Wiederholung ohne Inhalt erreichen? Oder generiert der ChatBot einfach mal was passend klingendes?

          3) siehe 2)

          Was sollten Atombatterien sein? Radionuklidbatterien aus der Raumfahrt sind extrem ineffizient und ineffektiv. Atomreaktoren sind aufwendig, teuer und entweder prohibitiv giftig oder verhaeltnismaessig gross und schwer. Was sollte da Fort- oder Rueckschritt sein?

          Es gab und gibt keinen „humanen Krieg“. Es gibt vertretbare Kriegsgruende und -ziele, wenn auch sehr wenige, aber Krieg ist nie „human“.

          Netzpolitik, eure Moderation ist peinlich schlecht.

          1. Hallo Anonymous, es tut uns leid, dass Dich unsere Moderationsentscheidung verärgert. Wir haben die Ergänzung des anderen Anonymous freigeschaltet, weil sie nicht offensichtlich gegen unsere Ergänzungsregeln verstößt. Es steht Dir frei, selbst eine Ergänzung zu formulieren, wenn Du anderer Ansicht als vorherige Ergänzungen bist. Das hast Du ja auch genutzt und wir freuen uns immer über einen konstruktiven Austausch unserer Lesenden.

          2. „1) Die handelnden Menschen sind bereits zT weit entfernt “
            Das lässt etwas Vorstellungskraft bzgl. der Entfernung vermissen. Teile einer Metrik:
            – Reale Distanz. Gegner kann nicht direkt zurückschießen. „Ich bin nicht im Krieg.“
            – Entmenschlichung: Einerseits durch Distanz, andererseits im falle AUTONOMER Funktionen, durch die Gestaltung der Schnittstelle („rote Rahmen“), durch das autonome Abhandeln auch mehrerer Gegner. Z.B. ist die Trennung der Zielbenennung und Supervision des Schießens denkbar, resultierend in (…).
            – Entmenschlichung durch Propaganda und Geschichten über die Gegner.
            – Entfernung durch voll autonome Handlung des Waffensystems, z.B. in einem Gebäude, unter Tage, bei Funkausfall, etc. pp. Hier kommen dann weitere Fehlerklassen und Möglichkeiten hinzu.

            „2) Das sind sie zT schon jetzt bzw. ist das Inhalt des Artikels, “
            Ihre Argumentation hält aber wegen des Inhaltes nicht Stand. Vor allem wenn es um „Vorstellungskraft“ geht, denn mit etwas Vorstellungskraft, und ja, auch etwas gutem Willen bzgl. der (Fehl-?) Formulierung des Vorposters, kann man durchaus hochproblematisches Potential im Unterschied zu „bisher“ sehen.

            „3) siehe 2)“
            S.o.

            „Was sollten Atombatterien sein?“
            Wunderbatterien – vgl. „Problem“, etwas Konsistenzprüfung für innerhalb eines Posts, kann das hervorbringen. Rückschritte bzgl. Hemmschwellen oder „humaner Kriegsführung“ drohen u.a. auch ohne Wunderbatterien (s.o.).

            „Es gab und gibt keinen „humanen Krieg“.“
            Naja… Krieg, Kriegsführung, Waffen, … Sanitäter, Zivilisten, Völkerrecht – will sagen: ETWAS ist dran, Vorposter meinte auch Waffe/nsystem.

            „Netzpolitik, eure Moderation ist peinlich schlecht.“
            Dafür ~ tief genug gegraben?

          3. Noch ein Winkel:

            „1) Die handelnden Menschen sind bereits zT weit entfernt bei ferngesteuerten Drohnen […] ist Naehe nicht der unterschiedliche Faktor.“
            Ja, schon sehr weit. Artillerie kann aber durchaus Ziel von Artillerie oder Raketen werden, während hochpräzise Raketen gegen Zivilisten zu teuer sind. Die „Entfernung“ im weiteren Sinne, wird nun durch Entmenschlichung der Gegner noch größer, sowie durch größere Autonomiegrade, z.T. natürlich abhängig von der Visualisierung und wer genau Ziele markiert, wer prüft, und wer zuguckt. Das ist zudem nicht mal ein Widerspruch, wenn Drohnen auch heute schon eigenständig Menschen verfolgen und treffen. Das macht es ja nicht weniger autonom, bzw. noch näher am Artikel: nicht weniger „KI“.

            „2) Das sind sie zT schon jetzt bzw. ist das Inhalt des Artikels, “
            Vgl 1., der subtile Unterschied beginnt dort, wo sich die Entfernung durch den Autonomiegrad der Funktion erhöht. Es ist mitnichten das Gleiche, wenn ich z.B. ein Ziel, zwar durch KI unterstützt, aber aktiv anvisieren und im Visir halten muss, gesichert z.B. durch gedrücktlassen eines Knopfes o.ä., oder ob das System Ziele rot markiert und nur ein Knopfdruck zwischen „Alles Ablehnen“ und Zivilisten mit töten steht. Hinzu kommen wahrscheinliche zukünftige Entwicklungen und deren Auswirkungen.

            „3) siehe 2)“
            Verdeutlicht aber die Qualität kommender Systeme. Es bedarf also mitnichten einer beschränkten Vorstellungskraft, um vom Bau und Einsatz „gar schrecklicher Killermaschinen“ mittels „KI“ auszugehen, die Kriegsbilder noch mal massiv verändern könnten.

            Insgesamt nimmt also höchstwahrscheinlich gegenüber heutigen langreichweitigen Waffen und drohnenbasierten Plattformen die Hemmschwelle zum Töten ab, während „Fehler“ drohen, Teil des Systems zu werden. Vgl. russische Artillerietatkik.

          4. De facto bietet ihr zB unter allen Artikeln mit „KI“-Bezug eine Plattform für Diskurs zerstörende Schwurbelei. Das erzeugt einen negativen Kontext für die Artikel, zumal ja redaktionell offensichtlich erwünscht.

            Bei heise monetarisiert man jede Interaktion, je abwegiger und weitere Interaktionen auslösend, desto besser. Qualität ist nachrangig, und so wird das Medium auch mittlerweile eingeordnet. Wollte np das nicht irgendwie anders machen?

        2. Zum Satirethema: Ja z.T. ist das Satire, und lehnt sich an generierten Content an, allerdings nicht ganz ohne Inhalt, vgl. Jägerlatein. Beispiel:

          Anonymous sagt:
          22. Februar 2023 um 23:12 Uhr

          „“(abscheuliches) Tötungssystem““

          „Antike Krieg“

          „autonomen Killersystemen (im entsprechenden Modus)“

          „[Selbst ohne Wunderbatterien] droht hier ein weiterer Rückschritt. Ich sehe allerdings auch keinen „humanen Krieg“ kommen.“

          Der Post versucht ja gerade das „abscheulich“ des Vorposters in einen Kontext zu stellen, d.h. es greift die – übrigens nicht selten angestrengten – Vergleiche zwischen den brutalen Kriegen von Teilen der Vergangenheit und der Gegenwart auf, um anzudeuten, dass wir diesbezgl. vielleicht wieder im Rückschritt begriffen sind.

          https://www.bmvg.de/de/themen/friedenssicherung/humanitaeres-voelkerrecht
          Man sehe „keinen humaneren Krieg kommen“, weder durch bessere Tötungsmittel, noch ohne solche, […]. Das ist schon irgendwo in der Nähe von Satire, da der Vorposter ja mit „abscheulichstes Tötungssystem“ die Frage nach den *Mitteln des Krieges* anklingen lässt, und man sich nun hinreißen lässt, „keinen humaneren Krieg kommen zu sehen“, auch wenn die Mittel nicht inhumander werden. Vielleicht ist der Satz so auch kaputt, z.B. wegen des Zeichenlimits.

          Die Metasatire ist dann vielleicht, dass man im Internet aufeinander schießt, ohne die Positionen gründlich genug abgewogen zu haben. Welcome to the age of ai!

  2. Das ist die gleiche Rhetorik wie die Hufeisentheorie oder jede andere Variante zur Verschiebung des akzeptierten Meinungsfensters.

    Die Alternative zu einem „abscheulichen Krieg“ ist ein „weniger abscheulicher Krieg“, es gibt keinen „humaneren Krieg“. Da werden immer Menschen bekaempft, vernichtet, verletzt (nicht nur physisch), verkrueppelt, umgebracht. Da wird im Zweifel keiner sagen „oh, das waere jetzt unfair oder boese, da lasse ich mich lieber umbringen“, sondern ueberleben wollen. Und die Ausnahmen fallen halt aus dem Spiel.

    1. Aber die Kirche noch im Dorf lassen, bitte!

      Wie sagt der Kirchenvertreter gegenüber den Kriegsparteien?
      (+NGOs +Forscher etc.)
      Die Begrifflichkeiten sind nicht nur Euphemismen.

      Der Witz ist aber der Übergang von Waffe oder Maschine zu Krieg. Splittermunition, Phosphor-Brennsachen, Chemische Kriegsführung werden ja nicht aus „Pragmatismus“ oder „Spass an der Freud'“ Ziel von Appellen und Verbotsverträgen.

    2. Wie gesagt, gibt es die Unterscheidung bei Waffen und bei der Betrachtung des Vorgehens u.a. auch bzgl. Zivilisten durchaus. Natürlich ist ein wesentlicher Fehler, Krieg geschehen zu lassen.

      Das ist im Grunde Bestandteil des Bottests, wenn man Sachen wie „Beschränkte Sicht“ u.ä. in einer Diskussion sieht. Denn neben der lose assoziativen Verbindung von Füllmaterial, gibt es auch noch die kontextuell eigentlich verbundenen, aber mit Barrieren versehenen Punkte, die dann sozusagen Relevanz haben, aber einen gewissen Aufwand bzw. Vorstellungskraft zur Dechiffrierung benötigen. Das eröffnet das Argument „Bot“ als Bauernopfer, sozusagen.

      Legt es ein Bot oder Schreiberling auf Zerstörung bzw. Tozschlagsargumente an, wird das dann sehr schnell klar, obwohl das erste Post stichhaltig aussah.

  3. Wegen der Aussage „Solche autonomen Systeme und weitere Fragen zur militärischen Nutzung von KI waren Thema“ etwas zur „Sicherheit von KI-Waffen“:

    Scheinbar unüberwindbare KI-Systeme können deterministisch und reproduzierbar „besiegt“ werden, wie es hier in https://www.heise.de/news/Sechs-Jahre-nach-AlphaGo-Mensch-besiegt-erneut-zuverlaessig-staerkste-Go-KIs-7520941.html belegt wird.

    Es ist nicht davon auszugehen, dass KI-Waffen hier besser wären. Dummerweise geht es hier nicht um ein Spiel. Es geht um Menschenleben. Und vor allen Dingen, egal wie man zu automomen Waffen steht, es geht um die Verantwortung für Menschenleben. Und die ist nicht zu delegieren.

    Selbst wenn man der KI Regeln gibt, selbst dann bleibt der Mensch direkt und unmittelbar verantwortlich – ganz egal wohinter er sich versteckt. Doch autonome Waffensysteme senken die Hemmschwelle auf den Knopf zu drücken, also zu _töten_ ganz erheblich. „Ein Computerfehler, da kann man nichts machen“ würde Fefe dann sagen, wenn das schief geht.

    1. Interessanter Artikel, bzw. Nachricht, welches ich verpasst hatte.
      Wobei das Besiegen wiederum mit technischen Maßnahmen mittels Training gegen das Original (+-) funktioniert. Übertragen auf das Schlachtfeld braucht man dann eine Menge Versuche, vermutlich mit realem Equipment, um eine Chance zu haben. Hat man das nicht vorbereitet, könnte es gegen einen Massenproduzentengegner (TM) dann schon zu spät sein – dann sind Alliierte gefragt. Gelingt es, winkt das Aufrollen ganzer Frontabschnitte.
      Ich habe hier implizit ein von autonomen Kampfmaschinen (bzw. Funktionen) dominiertes Schlachtfeld angenommen, was bis auf das „alles töten“-Szenario wohl noch einiges an Zukunft benötigt, um Realität zu werden. Ich vermute allerdings wegen solcher Aussichten, dass kleinere Massensysteme so unterschiedlich gebaut würden, dass solche Massenausschaltungsvorgänge schwierig bleiben.

      „Doch autonome Waffensysteme senken die Hemmschwelle auf den Knopf zu drücken, also zu _töten_ ganz erheblich.“
      Absolut. Je autonomer die Funktion desto leichter das Töten – einfach den „next“-Knopf weiter drücken, für den einen Kaffee am Vormittag. Niemand will eine Drohne wegschmeißen, nur weil alle auf dem Atomwaffenstützpunkt als Sanitäter verkleidet sind, also wird es eine Umgehung des Völkerrechts IMMER als Implementierungsdetail geben. Noch interessanter wird es mit den „Möglichkeiten“, wenn voll-autonome Funktionen hinzukommen, denn ähnlich wie mit dem Sanitäterbeispiel, soll sich eine autonome Drohne nicht zu leicht besiegen lassen, z.B. auch nicht durch Jamming. Unter welchen Umständen kann so ein Kampfgerät dann in den „Bereichsverteidigungsmodus hinter feindlichen Linien“ o.ä. schalten, und einfach auf alles schießen, was die Erkennung so hergibt? Reicht ein Abbrechen der Funkleitung für einige Zeit, etwas Jamming in der Nähe einer „Love Parade“, Positionsbestimmungsfehler bzw. Manipulation…

      1. (1) Wobei AlphaGo und co. einen Spezialfall darstellen, wenn auch ein sehr interessanter.
        Die Systemsorte lernt vollkommen eigenständig, auf Basis der einfach zu implementierenden Regeln, im Spiel gegen sich selbst.

        Solche und ähnliche Angrifssmöglichkeiten bleiben prinzipiell natürlich bestehen. Ohne alles aufzählen zu wollen, noch weitere Beispiele:

        (2) Systeme die Computerspiele spielen. Diese lernen auf Basis der Interaktionsmöglichkeiten volständig selbst, und es gibt möglicherweise viel mehr Interaktionsmöglichkeiten und kompliziertere Regeln als bei GO oder Schach, was allerdings nicht garantiert, dass Gewinnstrategien komplexer als bei denen ausfallen. Im Grunde ähnlich, allerdings näher am Steuern einer Drohne dran. Der große Unterschied ist allerdings, dass die Zielvorgabe beim Computerspiel i.d.R. deterministisch korrekt ist, während im Gefecht bestenfalls ein Ziel markiert werden kann. Zudem weiß niemand, welche Mittel das System dann warum einsetzen würde. Gegner: Mensch und KI.

        (3) „Expertensystem“ wie autonomes Fahren, Systemkomponenten, Eingriffs- und Zurechnungsmöglichkeit. Zumeißt Detektion als Ausgangspunkt (Was können Ziele sein, was definitiv nicht, wovor soll ich Angst haben …, Algorithmen für Fortschreitung und Wahrscheinliches).

        Volle Autonomie im Rechtstaat nur mit (3+), benötigt aber einiges an Rechenkapazität. Dennoch sind Varianten von oben auch denkbar, wenn es nur eine „halbdumme Mine“ darstellen soll, oder Abschuss markierter Ziele ansteht. Autonomes Fahren im Gefecht ist möglicherweise einfacher als im Straßenverkehr, nur das Fahren.

        1. „(2) Systeme die Computerspiele spielen. Diese lernen auf Basis der Interaktionsmöglichkeiten volständig selbst,“

          Im Prinzip ja, wobei hier oft auch schon Abkürzungen vorkommen, um die Komplexität gering zu halten. Wäre z.B. ein Parameter eine 32-Bit Fließkommazahl, wird man vermutlich nicht den gesamten Suchraum ohne weiteres freigeben. Auch bei Mensch-Maschine-Interaktion ergäbe es wenig Sinn, wenn der Erfolg einer Mauspositionierung an der Nachkommastelle hängen würde o.ä. Dennoch wird auch hier mit Modellen gearbeitet, die die „Realität“, in diesem Falle also die Interaktionsmöglichkeiten, die die Software bereitstellt, vereinfacht. Jedenfalls ist es keine Magie, die irgendwie alles löst. Insofern ist „vollständig selbst“ nicht ganz der Fall. Selbst bei Menschen finden über das visuelle System intern Vereinfachungen statt, im Gegensatz zu generativer KI und ChatGPT, käme bei diesem Beispiel aber niemand auf die Idee, computerspielende KI dem Prinzip nach als Kreativ zu bezeichnen, da sie „einfach nur“ evolutionär gelernt hat, und das dann anwendet. Der Mensch ist eben innerhalb des evolutionären Prozesses auch noch kreativ, was eine höhere Dimensionalität aufweisen dürfte. Die einfachste Definition für Kreativität ist nun mal interaktiv und lernend – aber eben im Prozess der Anwendung lernend, nicht von der Stange. Den Prompt einzubeziehen ist an der Stelle nicht wirklich in Kreativit mündend. Man müsste sonst alle Prompts aller Zeiten Einfüttern, oder die „Relevantesten“, und befindet sich im Nu „im preußisch-beamtischen Kreativitätsdilemma“ Nr. 1.

      2. Wobei… wo wir gerade bei „wobei“ sind…

        ein zivilisatorisch interessierter, dazu mächtiger Player würde vielleicht tatsächlich (kleinere) Drohnen aufgeben bzw. rein evasiv handhaben, wenn elektronische Gefechtsführung dort wirkt. Hauptsächlich weil sie einen hohen Anspruch an ihre eigene Technik haben, immerhin sind das keine Consumerprodukte, dann.

  4. Nicht die Featuritis vergessen: es macht nicht halt bei von Menschen in Echtzeit supervisierten autonomen Funktionen.
    Und das wird schnell ein weites Feld, wenn Funkverbindungen gestört oder gar nicht erst vorgesehen sind, bei hardwaredefekten u.ä.
    Plötzlich präzise? Das wird fast wie mit dem autonomen Fahren: Fehler lauern überall, Töten geht immer.

  5. Aus der Abteilung „What could possibly happen?“:

    (1) Designs bzw. freigeschaltete Funkionen werden je nach Einsatzzweck und relativer Macht (lokal / insgesamt) verschieden aussehen.
    (2) Es wird vorkommen, das Fehlerbehebung schnell passieren muss, auf Basis weniger oder sogar fast keiner Daten. Die Auswirkungen können da weitreichend sein.
    (3) Ähnlich zu (2): Training muss unter Umständen vornehmlich in der Simulation erfolgen, und zuzüglich der sich daraus ergebenden Unwägbarkeiten, aufgrund von Zeitdruck gegebenenfalls so parallelisiert, dass nicht alles supervisiert wird. „Die Firma“ verschweigt vielleicht Details, oder „vergisst“ das Triggerevent bzgl. Zivilisten im Scenario X mitzuteilen.
    (4) Nur Fahrzeug autonom bekämpfen (Alamo)? Gebüsch, knorrige Eiche, Brücke…
    (5) Mit „etwas Zeitdruck“ könnte ein sehr frei denkendes System geradezu nach Regelverletzungen tatächlicher oder möglicher Gegner suchen, um diese bekämpfen zu dürfen. Für Freunde des Tabletops „Paranoia“. (Deeskalierte Zone: Gegner mit pot shots o.ä. in Zivilistengruppe lotsen, nun Feuer voll frei auf sämtliche Terroristen.)
    (6) Der „Witz“ aus (6) betrifft im Prinzip jede Verhaltenserkennung gepaart mit autonomen Entscheidungen. „Wie reagiert ein Zivilist auf Beschuss durch…“ – klingt schon fast wie ein Witz. Gut genug für ChatGPT.

  6. >> Alex Karp, Geschäftsführer von Palantir, nutzte seine Redezeit hingegen vorwiegend dafür, den Nutzen von KI für militärische Zwecke zu unterstreichen. <<

    Ukraine nutzt KI von Palantir: Daten als neue Munition

    Die US-Datenfirma Palantir liefert Software an die Ukraine, um feindliche Truppenbewegungen zu verfolgen. Ist das rechtlich und moralisch vertretbar?

    Quelle: https://taz.de/Ukraine-nutzt-KI-von-Palantir/!5917538/

    1. Ich erwarte sogar dass wir ähnliche Fähigkeiten entwickeln, aber selbst, nicht eingekauft. Jederzeit Lagebilder und Daten einfüttern, um dann flexibel visualisieren zu können. Das geht nicht von extern, das ist langfristig eine Sackgasse (wobei es einen im Moment natürlich mal retten kann. Europäisch gedacht geht das allerdings konzeptionell so nicht. Da muss eigenes hin.).

      Der ethische Aspekt kommt von den Daten und der Werbung, die Palantir da so macht. Im Krieg zeigt sich dann, ob wir zivilisationsfähig sind, oder eben nicht. Aber das entscheidet sich nicht am „Datenschutz für militärische Einheiten“ – solchen gibt es nicht. Interessant wird es nach Gefangennahme von Menschen.

    2. Naja, neu ist die Nutzung von Informationen vom Gefechtsfeld nun wirklich nicht. Die kaufen einfach die „Stangensoftware“, die sie am nächsten an die eigentlich notwendigen Eigenentwicklungen ranbringt, um Lagebilder effizient auswerten zu können.

      Tatsächlich neu könnte der „Demokratisierungsaspekt“ sein, wenn sie unter Zuordnung von Wahrscheinlichkeiten für die Richtigkeit, jegliche Information von jeglichem Soldaten dort einflicken können, ohne dass irgendjemand davon überfordert wird.

    3. „Die US-Datenfirma Palantir liefert Software an die Ukraine, um feindliche Truppenbewegungen zu verfolgen. Ist das rechtlich und moralisch vertretbar?“

      Äh (Träneausdemaugewischend): Soll das ein Witz sein? Das läuft ja nicht über Magie o.ä., es ist lediglich eine Datenbank mit etwas Wumms, und flexiblen Durchsuchungsmöglichkeiten. Vielleicht kann man das System auch „on premise“ so trainieren, dass es hilft, Ereignisse bzw. Bewegungen vorherzusagen (ad hoc auf Basis der Daten aus diesem Krieg).

      Da gibt es nur zwei Möglichkeiten der Verwerflichkeit:
      1. Palantir ist selbst böse und keiner soll da kaufen. (Da ist vielleicht was dran. Gegenargument: welche Software kann sonst ad-hoc so eingesetzt werden? Mein Anspruch: Sowas müssen wir auch immer aus dem Boden stampfen können, auch wegen Katastrophen, oder Marktvorhersagen, wobei das dann nicht nur noch „sowas“ wäre.)
      2. Die Daten so zu verwenden ist böse. (Vergleichsfall bei der Polizei: ganze Akten einfach so einspeisen, Zeugen im Visir.)

  7. „De facto bietet ihr zB unter allen Artikeln mit „KI“-Bezug eine Plattform für Diskurs zerstörende Schwurbelei. Das erzeugt einen negativen Kontext für die Artikel, zumal ja redaktionell offensichtlich erwünscht.“

    Warum wird das freigeschaltet? Gehört da nicht eine Begründung hin?
    – Schwurbelei?
    – Diskurszerstörend?

    Also wenn schon ein Post vor meinem da ist, ist meins noch nicht zerstört, nicht mal bevor es formuliert wurde. Weiter bin ich mit einer Ersatzargumentation nicht gekommen. Wollen Sie uns diesbezüglich noch den Weg leuchten, oder war es das schon mit Stringenz?

  8. >>>
    Anonymous sagt:
    22. März 2023 um 07:36 Uhr

    De facto bietet ihr zB unter allen Artikeln mit „KI“-Bezug eine Plattform für Diskurs zerstörende Schwurbelei. Das erzeugt einen negativen Kontext für die Artikel, zumal ja redaktionell offensichtlich erwünscht.

    Bei heise monetarisiert man jede Interaktion, je abwegiger und weitere Interaktionen auslösend, desto besser. Qualität ist nachrangig, und so wird das Medium auch mittlerweile eingeordnet. Wollte np das nicht irgendwie anders machen?
    <<<

    – Monetarisierung wie bei Heise? Was ist das Pendant bei "np"?
    – Was ist die Plattform für "diskurszerstörende Schwurbelei"? Der Artikel, oder die Kommentarspalte?
    – Was ist überhaupt Schwurbelei?
    – Wie zerstört Schwurbelei oder ein sonstiger Kommentar den Diskurs?
    – Wie erzeugt "diskurszerstörende Schwurbelei" einen negativen Kontext für die Artikel?
    – Wie begründet sich der Wunsch der Redaktion nach einem negativen Kontext für Artikel mit KI? Wodurch wird das offensichtlich?

    Vielleicht stellt der zitierte Kommentar auch selbst Schwurbelei über fehlende Qualität dar. Vielleicht ist das der Witz? Oder stellt er den Angriff dar, der den Diskurs zerstören soll?

  9. Wir stehen nun mal deutlich auf der Schwelle zu immer höheren Graden von Autonomie, wobei mit jedem Grad Fehlerklassen hinzukommen. Verschieden kapable Akteure werden auch verschieden stark motiviert sein, dabei z.B. in irgendeiner Weise ethisch vorzugehen. Der Artikel nagelt das Kerntema Autonomie allerdings erst im zweiten bzw. dritten Absatz fest.

    Viele vermeintlich einfache Systeme, bzw. welche die im Grunde aussehen wie Ältere, enthalten KI, werden mittels KI-Fähigkeiten ferngesteuert oder wurden unter Zuhilfenahme von KI Gebaut. Das ist in der Tat nichts besonderes. Kampfjets mit Piloten sind bekannt, bekommen aber immer mehr Drähte und „Intelligenz“, Wärmebilderkennung eines Zieles durch Rakete (konkrete Teile / Muster / Zielzonen + Tracking), usw. usf.

    Die nächsten Schritte sind verlockend. Jet fast abgeschossen, Pilot ausgestiegen? Jet kämpft jetzt autonom weiter! Unmögliche Manöver, die Pilot und Maschine retten, werden möglich. Oder die KI übernimmt einen fast aussichtslosen Luftkampf unter Inkaufnahme der Ohnmacht des Piloten. Ab da greifen natürlich die Fehlerklassen der KI, zudem kann das automatische Eintreten in so einen Modus bereits denr Kardinalfehler darstellen.

    Noch etwas reißerischer: „Hardkill-Manöver statt Übungsmunition gegen Jumbojet während verdeckter Alarmrottenübung ‚Abschuss 2024‘ eingesetzt, da den Befehlshabenden dieses Systemmerkmal nicht bekannt war, der Hersteller nicht eingebunden, sowie in der Übung als ohnmächtig gesetzte Pilot fälschlicherweise als tot eingeschätzt worden war, da bei der Implementierung des Übungsmodus die Vitaldaten fehlten.“ – Sowas ist natürlich Quatsch und wäre auch nur ein Vorfall, zunächst. Die Fehlerklassen weiten sich allerdings mit jeder Entscheidung und jeder Fähigkeit aus.

    1. Hinzu die Tatsache, dass wohl nur Rechenzentren zu aufwendigeren Auswerungen, geschweige denn Training, auch im Kontext von Selbstlernen, in der Lage sein werden. Das heißt unweigerlich, dass all die schwer zu treffenden Klassen kleinerer potentiell autonom agierender Systeme, im Wesentlichen über keinen Grips verfügen können, insofern also nur „Befehle ausführen“ werden.

      Das Szenario mit wo Selbstlernen wirklich in relevanter Weise vor Ort passiert, ist natürlich nicht so viel besser, falls überhaupt.

      Autonomie ist gefährlich – jeder Adlige wusste das schon vor hunderten von Jahren. Jeder Prister… na gut. Bedeutet Fortschritt nun, zu differenzieren, oder darüber hinwegzusehen, weil wir meinen, das was daraus erwächst, kontrollieren zu können, „wir“?

      1. Auch wenn das Dementi schnell erfolgt ist, ist es dennoch nichts Neues, dass „ziemlich frei“ entscheidende, aber beschränkte Systeme, solches prinzipiell umsetzen können (vgl. Paperclip-Story).

        Vgl. Artikel: „nor would we need to in order to realise that this is a plausible outcome“

        Das ist plausibel, allerdings ist die andere Richtung, es zu reparieren nicht so trivial. Man kann es bei Knopfdrücken vom Mensch und markierten Zielen belassen. Gibt man dem System zu viel „Intelligenz“, könnte es sich entscheiden, z.B. ungenau zu markieren, bzw. zu feuern, und dann auf den Hellfireeinsatz zu hoffen, weil das die effizienteste Fortsetzung bei Verfehlen ist, unter Außerachtlassung, dass da ein Tanklaster…

        Oder halt weniger intelligent, also effiziente Killermaschinen bzw. Funktionen eben. Viele Horrorszenarien benötigen allerdings Metaebenen, also über den Zustand des menschlichen Passagiers bzw. Piloten „nachzudenken“, und diesen in die Entscheidung einfließen zu lassen. Der Grat ist gar nicht so üppig breit, bzgl. was man einfließen lassen will, wenn man mehr autonome Fähigkeiten einbauen, und gleichzeitig das Problempotential minimieren will.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.