KI-Gipfel in Bletchley28 Staaten und eine große Leerstelle

Der britische Premierminister spricht von einem Meilenstein. Die EU und 28 Staaten, darunter die USA und China, haben eine gemeinsame Erklärung zu Künstlicher Intelligenz verfasst. Der Text sagt viel über unseren Umgang mit Technologie – und lässt eine gefährliche Lücke. Eine Analyse.

Ein Glitch-Filter verändertes Foto. Es zeigt das Banner des AI Safety Summit, im Hintergrund das Gebäude von Bletchley Park.
Der „AI Safety Summit“, im Hintergrund Bletchley Park. CC-BY 2.0 UK Government / Flickr; Filter: PhotoMosh

Es ist ein politischer Höhepunkt für das meistgehypte Technologie-Thema des Jahres, Künstliche Intelligenz. Der britische Premierminister Rishi Sunak hat am 1. und 2. November Vertreter*innen aus Politik, Wirtschaft und Wissenschaft eingeladen. Anlass war Großbritanniens KI-Sicherheits-Gipfel (UK’s AI safety summit). Schon der Ort ist historisch; im Landsitz Bletchley Park arbeiteten einst Analyst*innen im Zweiten Weltkrieg daran, die codierten Nachrichten der Nazis zu entschlüsseln. Diese Woche sollten führende Köpfe in Bletchley Park die Gefahren sogenannter KI diskutieren.

Zu den Teilnehmenden gehörten neben EU-Kommissionspräsidentin Ursula von der Leyen (CDU) auch US-Vizepräsidentin Kamala Harris und der deutsche Vize-Kanzler Robert Habeck (Grüne). Es gab zudem Delegierte aus unter anderem China, Indien, Indonesien, Brasilien, Japan, Korea, Saudi-Arabien. Tech-Manager wie Elon Musk (Twitter, Tesla) und Sam Altman (OpenAI, ChatGPT) waren geladen, außerdem Vertreter*innen von Meta, Google, Amazon, Alibaba und vielen weiteren. Der britische Guardian spricht von einem „diplomatischen Coup“.

Wie es sich für internationale Gipfel gehört, endete die Versammlung mit einem gemeinsamen Schreiben. Die „Bletchley Declaration“ beschreibt auf rund 8.000 Zeichen die Chancen und Gefahren von Künstlicher Intelligenz – und wie die Unterzeichner*innen damit umgehen wollen.

Die Erklärung ist eingebettet in internationale Bemühungen rund um die Regulierung Künstlicher Intelligenz. So ist die Europäische Union in den letzten Zügen der Verhandlungen einer KI-Verordnung, Chinas neue KI-Regeln sind im August in Kraft getreten. Und in den USA hat Präsident Joe Biden diese Woche ein Dekret erlassen, das strengere Regeln anstoßen soll. Währenddessen investieren Konzerne Milliarden in sogenannte generative KI, die auf Grundlage von großen Datenmengen neue Inhalte erzeugt, etwa Texte, Bilder und Audios.

Aus der Bletchley-Erklärung spricht viel Zeitgeist: Es lohnt sich zu untersuchen, wie genau der Text Künstliche Intelligenz beschreibt, welche Gefahren und Lösungswege er direkt anspricht – und welche nicht. Und es zeichnet sich ab, welche Probleme sich trotz oder gerade wegen dieser Erklärung nicht lösen werden.

„Frontier AI“: Star Trek lässt grüßen

Ein zentraler Begriff der Erklärung ist das schillernde Wort „frontier“, das darin gleich acht Mal auftaucht. „Frontier“ lässt sich je nach Kontext mit Grenze, Grenzland oder Neuland übersetzen. Im US-amerikanischen Kontext weckt der Begriff die Assoziation vom Vordringen in neue, ungewisse Gefilde. So galt der sogenannte „Wilde Westen“ in der nordamerikanischen Kolonialzeit ebenso als „frontier“ wie heute der Weltraum. In der jüngeren Geschichte nutzte sowohl die NASA diesen Begriff für den Weltraum wie auch das (fiktive) Star-Trek-Franchise.

Und nun werden also auch KI-Systeme auf höchster politischer Ebene als „frontier“ verkauft. Gemeint sind laut Bletchley-Erklärung „hochgradig fähige KI-Modelle für allgemeine Zwecke“. Diese Definition ist äußert wolkig, fügt sich aber nahtlos ein in die aufgeplusterten Erzählungen von schier übermenschlichen KI-Technologien, die wir auf netzpolitik.org bereits als „große Science-Fiction-Show“ beschrieben haben. Angetrieben werden diese Erzählungen gewiss auch von Marketing-Interessen großer Konzerne, die ihre überaus kostspieligen Anwendungen wie ChatGPT allein auf Pump finanzieren. Mit ihren großen Versprechen hoffen sie auf große Geldspritzen.

Schon ohne den Zusatz „frontier“ ist der Begriff Künstliche Intelligenz wolkig. Es ist ein Sammelbegriff für Anwendungen, die viele Daten zueinander in Beziehung setzen und auf dieser Grundlage Antworten berechnen. Sie lösen Aufgaben, die man einer Maschine früher nicht zugetraut hätte, sondern einem Menschen. Der Begriff wandelt sich ständig: Früher galten Assistenz-Systeme wie Siri von Apple noch als „KI“. Inzwischen hat Siri diesen Status für einige wohl wieder verloren, denn Nachrichtenmedien stellen die sonderbare Frage, ob Siri mit „KI“ ausgestattet werden soll. Gemeint ist offenbar neuartige, generative KI im Stil von ChatGPT. Es erscheint, den Status „KI“ bekommt vor allem jene vielversprechende Technologie, an die man sich noch nicht gewöhnt hat.

Die Bletchley-Erklärung übernimmt die großen Versprechungen einiger Branchen-Vertreter*innen, wenn es zu Beginn heißt: KI habe „das Potenzial, das menschliche Wohlergehen, den Frieden und den Wohlstand zu verändern und zu verbessern.“ Erstaunlich ähnlich hatte es auch OpenAI-Chef Sam Altman formuliert, als er in einem Podcast sagte: „Wir können die Welt wunderbar machen, und wir können das Leben der Menschen wunderbar machen.“ Immerhin hatte Altman diese Schwärmerei noch kritisch eingeordnet, indem er dazu sagte: „Ich hasse es, wie ein utopischer Tech-Bro zu klingen“. In der Bletchley-Erklärung fehlt eine solche Einordnung. Die Unterzeichner*innen bekennen sich ganz ohne Distanzierung zur utopischen Tech-Bro-Haftigkeit.

Verbale Gruppen-Umarmung

Beim Lesen der Bletchley-Erklärung kann es einem schon etwas warm ums Herz werden. Immerhin sprechen sich hier dutzende Staaten für eine KI „zum Wohle aller“ aus. Sie soll „in einer sicheren, auf den Menschen ausgerichteten, vertrauenswürdigen und verantwortungsvollen Weise konzipiert, entwickelt, eingesetzt und genutzt werden“. Dafür bezeichnen sich die Unterzeichner*innen als „entschlossen, auf integrative Weise zusammenzuarbeiten“. Unterzeichnet haben das sogar autoritäre Staaten wie China, Saudi-Arabien, und die Vereinigten Arabischen Emirate.

Die Unterzeichner*innen wollen ihren Plan darauf ausrichten, die Risiken von KI-Systemen wissenschaftlich zu erforschen und auf dieser Grundlage Regeln zu entwickeln, heißt es in der Erklärung weiter; Unternehmen sollten Transparenz herstellen. Außerdem wolle man im Gespräch bleiben und sich 2024 wieder treffen.

Auf diplomatischer Ebene mag das durchaus eine Leistung sein: Am Ende eines zwei-tägigen Gipfels gibt es eine von vielen Staaten getragene Erklärung, die sich wie eine verbale Gruppen-Umarmung liest. Gemeinsam forschen, gemeinsam reden – na, wenn das mal nichts ist. Klopft man allerdings gegen die Worthülsen, dann ertönt ein beklemmend hohles Geräusch.

Es sind nämlich schon längst KI-Systeme im Einsatz, die weder „sicher“, noch „vertrauenswürdig“ noch „verantwortungsvoll“ sind, und die systematisch dem „Wohl“ von Menschen schaden. Kameras in der Stadt sollen angeblich verdächtige Bewegungsmuster erfassen. Software in der Personalabteilung soll angeblich schlechte Bewerbungen aussortieren. Rechenprogramme sollen der Polizei verraten, wo angeblich kriminelle Menschen wohnen. Lügendetektoren an der EU-Außengrenze sollen bestimmen, ob Asylsuchende die Wahrheit sagen. Autopiloten sollen bewaffnete Drohnen steuern, bevor sie angebliche Feinde in die Luft sprengen.

Windelweich: Menschenrechte „adressieren“

Schon bei den Verhandlungen zur KI-Verordnung der Europäischen Union hat sich gezeigt: Auch demokratische Staaten wehren sich gegen Einschränkungen beim Einsatz problematischer KI-Systeme, versuchen gezielt Ausnahmen herauszuhandeln und damit die neu entstehenden Regeln zu verwässern. Noch immer ist fraglich, ob die KI-Verordnung biometrische Massenüberwachung durch ein Verbot eindämmen kann.

In der Bletchley-Erklärung steht zwar der Hinweis: „KI-Systeme werden bereits in vielen Bereichen des täglichen Lebens eingesetzt“. Weiter wagt sich die Erklärung aber kaum vor.

Es gibt noch einen windelweich formulierten Satz: Man „begrüße“ die Erkenntnis, dass Menschenrechte, Ethik, Datenschutz und die Eindämmung von Bias „adressiert werden“ müssen, heißt es. Das ist eine fatale Leerstelle, denn eine klare Verpflichtung zu Menschenrechten sieht anders aus. Zur Verdeutlichung: wenn jemand mein Auto zu Schrott fährt, und mir dann dann sagt: „Ich begrüße die Erkenntnis, dass die Erstattung deiner Unkosten adressiert werden muss“, dann heißt das wahrscheinlich: „Du bekommst von mir keinen Cent.“

Insgesamt drei mal taucht das Wort Menschenrechte in der Bletchley-Erklärung auf, drei Mal auf ähnliche Weise verklausuliert. Wie soll eine internationale Gemeinschaft in Zukunft Technologie zum „Wohle aller“ gestalten, wenn sie schon in der Gegenwart einen so großen Bogen um Menschenrechte macht?

Die eigentliche „Frontier“

Die unbequeme Wahrheit ist, dass Künstliche Intelligenz in gesellschaftliche Verhältnisse eingebettet ist, wie jede andere Technologie auch. KI-Systeme werden im Kontext von Machtverhältnissen entwickelt und eingesetzt. Sie können diese Machtverhältnisse festigen und sogar verstärken. Darum macht die Bletchley-Erklärung allerdings einen Bogen.

Die größte Gefahr der Technologie besteht darin, dass privilegierte Menschen KI-Systeme entwickeln, und damit ihre Machtposition gegenüber marginalisierten Menschen ausbauen, sei es absichtlich oder fahrlässig. Zum Beispiel wenn Staaten mit asylfeindlicher, rassistischer Politik per Gesichserkennung Menschen aussortieren, denen sie keinen Schutz gewähren wollen. Oder wenn Angehörige einer weißen, männlichen, ableisierten Mehrheitsgesellschaft ein KI-System entscheiden lassen, welche Job-Bewerbung in die engere Auswahl kommt.

Ungerechte, gesellschaftliche Machtverhältnisse lassen sich nur gesellschaftlich angehen. Genau dafür wurden Grund- und Menschenrechte erfunden. Wenn es bei dem Thema eine „Frontier“ gibt – also ein kühn zu erkundendes Grenz- und Neuland – dann ist es die konsequente Durchsetzung dieser Rechte.

Die Hoffnung, dass Technologie allein die Welt verbessern kann, wenn man sie nur gut genug gestaltet, heißt Tech-Solutionismus. Es ist der Irrglaube, dass Maschinen die Probleme von Menschen lösen können. Und es ist bereits reiner Tech-Solutionismus, wenn die Bletchley-Erklärung von KI „zum Wohle aller“ schwärmt, von KI-generiertem „Frieden“ und „Wohlstand“.

Ohne wolkige Worte ist KI schlicht eine Software, also ein Werkzeug, das erst in den Händen von Menschen irgendeine Wirkung entfaltet. Es ist sicher nicht verkehrt, wenn die Bletchley-Erklärung einen Grundstein legt für mehr Transparenz, Forschung und internationalen Dialog, für jährliche Treffen. Doch an die eigentliche „Frontier“ herangewagt haben sich die Teilnehmenden kaum.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

12 Ergänzungen

  1. > Es ist der Irrglaube, dass Maschinen die Probleme von Menschen lösen können.

    Stimmt. Doch ich möchte hinzufügen, dass die sog. KI-Technologie den Menschen noch zusätzliche Probleme bereiten wird, die sie bisher nicht hatten. Wenn die Menschen bemerken werden, dass ihre Identität durch KI angegriffen wird, kann es sein, dass Unmut eine untertreibende Beschreibung sein wird. Außer fortschrittsgläubigen Tech-Freaks geht den meisten Menschen der Wandel zu schnell. Das führt zu Ablehnungen aller Schattierungen.

  2. „Es ist der Irrglaube, dass Maschinen die Probleme von Menschen lösen können.“

    das ist die Wahrheit, ein Irrglaube. um das realistisch nachvollziehen zu können, braucht es nicht sehr viel.

    man betrachte das parkende Auto oder sonstiges parkendes Fahrzeug. diese technologisch hochmodernen Endgeräte bewegen sich nicht von selbst. der Fahrzeugbesitzer allein, also der Mensch allein, ist in der Lage, das parkende Fahrzeug in ein bewegendes Fahrzeug „umzuwandeln“. mit dem Autoschlüssel.

    da Politik immer schon hinterhältig war, interpretiere ich die auch hier so offen benutzten angeblichen Wohlstände etc. als eine Umschreibung der Sicherheitsvorkehrungen der die KI-programmierenden Unternehmen, daß diese eine Eigensicherheit für sich selbst algorithmisch integriert haben, um nicht erkannt werden zu können, also im kriminellsten Fall nicht strafrechtlich verfolgt werden zu können. (ganz einfach: den Autoschlüssel nach dem Verlassen des Fahrzeuges verschwinden zu lassen, wegzuwerfen in’s Irgrndwohin).

    das Wohl der Menschheit soll so sein? wir befinden uns in der filmisch bekannten Zukunft und können nicht mal mehr menschlich denken und handeln. Bosse fordern von den Angestellten, immer mehr und immer schneller zu sein, weil den Bossen der menschliche Verstand abhanden gekommrn ist und solche technologisierten Bosse nicht realisieren, das die Angestellten NICHT das Computerprogramm sind, das in Sekundenschnelle Analysen und Ergebnisse liefern kann.

    das ist der Zerfall des Planeten Erde, der wenigstens alle Erdenbewohner betrifft und KEINE Ausnahmen integriert. es gibt keine Unsterblichkeit, auch im ChatGPT nicht.

  3. Wörtlich heißt es in der Erklärung des „AI Safety Summit“: „In diesem Sinne begrüßen wir die … die Erkenntnis, dass der Schutz der Menschenrechte, … , Sicherheit, … und Datenschutz angesprochen werden müssen.“ Ein stochastischer Papagei hätte seine „Worthülsen“ nicht „windelweicher“, „wolkiger“, „schwärmer“ischer (S. Meineck) aneinanderreihen können als dieses internationle Gruselkabinett. Aber das ist auch nur ein weiteres Indiz dafür, dass der industriellen Automation einer menschlichen Fertigkeit immer die Mechanisierung im Manufakturbetrieb vorangehen muss. Schade nur, dass ein so magischer Ort wie „Bletchley Park“ dafür missbraucht wurde.
    Die erste notwendige Feststellung einer Erklärung zu KI wäre gewesen, dass die Bezeichnung „Künstliche Intelligenz“ kein wissenschaftlicher Fachbegriff ist. Er wurde zwar von Informatikern in die Welt gesetzt, aber – wie der Programmierer eines der ersten Chatbots Weizenbaum betonte – nur, um an Fördergelder heranzukommen. Aus dieser Rolle hat sich der Begriff nie befreit sondern darin immer weiter verstrickt, wodurch er zu einer ideologisch aufgeladenen Projektionsfläche auskristallisierte. Sich an den Propagandisten dieser KI kritisch abzuarbeiten ist wie Boxen mit einem Pudding.

  4. Die Gefahr der KI ist nicht, dass sie sich verselbständigt, die Weltherrschaft übernimmt und die Menschen unterdrückt. Die Gefahr der KI ist, dass sie übermäßig gehypt wird, man sie überschätzt und ihr blindlings vertraut. Schon jetzt ist es mitunter schwierig, gegen das anzuargumentieren, was “der Computer” gesagt hat. Wenn “der Computer” nun noch mit den wohlgesetzten, aalglatten Phrasen eines Politikers daherkommt, wird es nur schwieriger werden.

    Im Moment ist KI das heiße Thema, weil die Risikokapitalgeber herausgefunden haben, dass die Blockchain nicht das liefert, was der Hype behauptet hat, und eine neue Sau durchs Dorf getrieben werden muss. Demnächst werden die Risikokapitalgeber herausfinden, dass ChatGPT & Co. nicht das liefern, was der Hype behauptet hat, und sich auf die Suche nach der nächsten Sau machen.

  5. „für eine KI zum Wohle aller“ – da fehlt doch mindestens eine Zeile. Das sollte doch wohl „für eine KI zum Wohle aller“ Regierungen, Geheimdienste, der Firmen des Überwachungskapitalismus… heißen.
    Ansonsten habe ich die Befürchtung, dass „Neuland 2.0“ – siehe Übersetzung „frontier“ – jetzt losgeht. Ich teile daher den Pessimismus des Autors, dass die eigentlichen Probleme noch nicht mal bei den Verantwortlichen angekommen sind.

  6. Zum Thema empfehle ich das Buch Novozän von James Lovelock. Er ist aus meiner Sicht ein visionärer Denker vor allem aber wissenschaftlich & evidenzbasiert. Allein aufgrund der Leitungsgeschwindigkeit der Hardware wird Maschinenintelligenz ca 10.000 mal schneller sein als menschliches Denken. Sein Fazit ist: der Mensch wird auf dem Planeten als primäre Spezies abgelöst, aber koexistieren, genau wie andere Ökosysteme aus unterschiedlich entwickelten Spezies bestehen. Das alles scheint ferne Zukunft zu sein. Aber angesichts dessen, dass das Anthropozän kürzer und umwälzender als die vorangegangenen Zeitalter ist, wird auch das Novozän schneller kommen und noch mehr umwandeln. That’s inevitable. Trotzdem glaube ich dass wir als Menschen großen Einfluss darauf haben WIE das geschehen wird. Ich stimme Sebastian zu, eine Technologie wird unsere Probleme nicht lösen. Wie setzen wir Technologie ein? Werden wir uns zuhören, tolerant gegenüber anderen sein, voneinander lernen, uns sehen und verstehen? Wollen wir uns lieben oder hassen? Unsere Erde als unser gemeinsames Raumschiff sehen oder als ein Ort den man plündern und verlassen kann?

  7. Der ganze letzte Abschnitt („Die eigebtliche ‚Frontier'“) liest sich wie eine Meinung. Das gehört in einen eigenen Kommentar, aber nicht in den Artikel.

  8. Aber gut, dass man sich zu dem Summit getroffen hat. Von “AI-Safety” profitieren wir doch schließlich alle. Klar, es wird bei solchen Treffen zunächst einmal viel geredet. Aber sich der Gefahren bewusst zu werden, ist der erste Schritt hin zu konkreten Aktionen und Übereinkommen.
    Ich vermute, mit dem Begriff “Frontier AI” sind speziell die neuen Sprachmodelle (ChatGPT usw.) gemeint. Hier haben wir es mit Technologien zu tun, die vielleicht eines (nicht zu fernen?) Tages dem Begriff “KI” wirklich gerecht werden. Insofern ist es schon angebracht, sich Gedanken sowohl um die Chancen als auch um die Risiken zu machen. Und speziell um die Risiken ging es ja hier, denn sonst hätte man das “AI Safety Summit” einfach nur “AI Summit” genannt.

  9. Das IDF schreibt denn auch auf seiner Website, dass es im Krieg gegen die Hamas ein KI-gestütztes System namens »Habsora« (»The Gospel«) verwendet, um »Ziele in einem schnellen Tempo zu erstellen«.

    Mehrere Quellen, die mit den Angriffszielfindungs-Prozessen der IDF vertraut sind, sagten laut »Guardian«, »The Gospel« werde verwendet, um automatische Empfehlungen für Angriffe auf Ziele wie die Privatwohnungen von möglichen Hamas- oder Islamischer-Dschihad-Aktivisten auszugeben.

    In den vergangenen Jahren hat das IDF laut dem Bericht eine Datenbank aufgebaut, die Quellen zufolge zwischen 30.000 und 40.000 mutmaßliche Kämpfer umfasst. Systeme wie »The Gospel« hätten eine entscheidende Rolle bei der Erstellung der Listen von Personen gespielt, die zur Tötung zugelassen sind.

    Quelle: https://www.spiegel.de/ausland/israel-hamas-krieg-wie-das-israelische-militaer-kuenstliche-intelligenz-nutzt-a-d85a8b8a-d17e-4136-afc6-1f513f4be68c

    Ebenfalls: https://www.theguardian.com/world/2023/dec/01/the-gospel-how-israel-uses-ai-to-select-bombing-targets

    Israelische Recherche: https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Bitte keine reinen Meinungsbeiträge! Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.