Ethikkommission zur KI-Strategie der Bundesregierung: Wie wär’s mit Werteorientierung?

Freundliche Handreichung: Die Datenethikkommission empfiehlt der Bundesregierung, sie solle sich bei ihrer Strategie für Künstliche Intelligenz stärker an Grundwerten orientieren und die Zivilgesellschaft mehr in den Blick nehmen. Die Vorschläge im Überblick.

– Gemeinfrei-ähnlich freigegeben durch unsplash.com Franck V.

Deutschland soll eine Strategie für Künstliche Intelligenz bekommen. Bis Ende November will die Bundesregierung ihre Planungen abschließen, im Juli veröffentlichte sie ein Papier mit ersten Eckpunkten. Zu diesen hat jetzt die vor einem Monat eingesetzte Datenethikkommission Stellung genommen. In einem fünfseitigen Brief [PDF] schreibt sie der Bundesregierung ins KI-Stammbuch, sich nicht nur an Wertschöpfung, sondern auch an Werten zu orientieren.

Wir hatten bei der Vorstellung der Eckpunkte bereits kritisiert, dass in dem primär auf Wirtschaft und Forschung sowie deren weiterer Verschmelzung ausgerichteten Plan der Bundesregierung gesellschaftspolitische Aspekte zu kurz kommen. Das sieht die Datenethikkommission offenbar auch so und erhebt zwei zentrale Forderungen: Zum einen müsse die Orientierung an ethischen und rechtlichen Grundsätzen als Ziel der Strategie festgeschrieben werden. Zum anderen müsse die Bundesregierung stärker in den Blick nehmen, dass sie auch Individuen und Zivilgesellschaft die Reflexion des Themas ermöglichen muss und etwaige Vorschläge berücksichtigt.

Zunächst aber empfiehlt die Kommission etwas noch Grundlegenderes: In Anbetracht der sehr unterschiedlichen Bedeutungen, die dem Begriff Künstliche Intelligenz zugeschrieben werden, müsse die Bundesregierung eine begriffliche Eingrenzung vornehmen. Eine Definition des Buzzwords hatte sie in ihrem Eckpunktepapier [PDF] vor lauter Innovationsbegeisterung und Effizienzstreben nämlich vergessen. Der Vorschlag der Datenethikerinnen:

Wir verstehen „Künstliche Intelligenz“ in diesem Zusammenhang als Sammelbegriff für diejenigen Technologien und ihre Anwendungen, die durch digitale Methoden auf der Grundlage potenziell sehr großer und heterogener Datensätze in einem komplexen und die menschliche Intelligenz gleichsam nachahmenden maschinellen Verarbeitungsprozess ein Ergebnis ermitteln, das ggf. automatisiert zur Anwendung gebracht wird.

Ethik als europäisches Markenzeichen

Den 13 von der Bundesregierung formulierten Zielen der KI-Strategie möchte die Kommission ein 14. Ziel an die Seite stellen: „Die Beachtung ethischer und rechtlicher Grundsätze im gesamten Prozess der KI-Entwicklung und -Anwendung“. Ethik solle dabei nicht in erster Linie als verhindernder, sondern als kreativer Faktor verstanden werden, der das Erkennungsmerkmal europäischer KI werden kann:

Ethische Anforderungen sollten entsprechend einem „ethics by, in and for design“-Ansatz als integraler Bestandteil – und damit Markenzeichen einer „AI made in Europe“ – im gesamten Prozess der Entwicklung und Anwendung von KI Beachtung finden. Dies umfasst die Forschung, Entwicklung und die Produktion von KI, aber auch den Einsatz, den Betrieb, die Kontrolle und die Governance KI-basierter Anwendungen. Dabei versteht die Datenethikkommission „Ethik“ ausdrücklich nicht primär im Sinne einer Definition von Grenzen; vielmehr können ethische Überlegungen gerade dann, wenn sie von Beginn an in den Entwicklungsprozess eingebunden werden, gestalterische Kraft entwickeln und so auch gebotene und wünschenswerte Anwendungen unterstützen.

Konkret bedeutet dies für die Kommission beispielsweise, den Aspekt der Daten nicht zu vernachlässigen, die als Input integraler Bestandteil jedes KI-Systems sind. Konkret fordern die Expertinnen unter anderem mehr Geld für Forschung an Anonymisierungsverfahren:

Die konkrete Funktionsweise ist zudem in besonderer Weise abhängig von der Auswahl und der Qualität der jeweils eingegebenen und/oder für die Entwicklung („Training“) genutzten Daten. Schon die Nichtberücksichtigung bestimmter Datenarten und die Einbeziehung qualitativ schlecht aufbereiteter Daten können ethisch problematische Folgen bis hin zu systematischen Diskriminierungen oder pluralitätsfeindlichen Ergebnissen verursachen. In diesem Zusammenhang sollte etwa die Forschung an modernen Anonymisierungsverfahren und an der Generation synthetischer Trainingsdaten verstärkt gefördert werden, auch um die Datenmenge zu vergrößern, die grundrechtsschonend für KI-Technologien verarbeitet werden kann.

Technikfolgenabschätzung und Zivilgesellschaft stärken

Einen praktischen Vorschlag, wie diese ethische Orientierung in der Strategie umgesetzt werden kann, macht die Kommission auch. Sie schlägt hierfür ein 14. Handlungsfeld vor, auf dem die Bundesregierung aktiv werden soll: „Die Schaffung von geeigneten Rahmenbedingungen für die Förderung von individueller und gesellschaftlicher Kompetenz und Reflexionsstärke in der Informationsgesellschaft“. Dazu will die Kommission den eng gefassten Kompetenzbegriff der Bundesregierung weiten:

Dieses soll sicherstellen, dass auch die Bürgerinnen und Bürger sowie die institutionellen Akteure hinreichende Kompetenzen sowie kritische Reflexionsfähigkeit im Umgang mit KI entwickeln. Derartige Kompetenzen sind Bedingung für eine sachlich-informierte und differenzierte gesellschaftliche Auseinandersetzung, die das Vertrauen in den Einsatz von KI fördern kann. Hierzu bedarf es allerdings aus Sicht der Datenethikkommission eines breiteren Ansatzes als derzeit noch im Eckpunktepapier beschrieben.

Konkret müssten hierfür Technikfolgenabschätzung und zivilgesellschaftliche Akteure besser ausgestattet werden, damit die Reflexion von Künstlicher Intelligenz unabhängig von dominierenden wirtschaftlichen erfolgen kann:

Investitionen in Technikfolgenabschätzung müssen in dem Maße ansteigen, in dem Technologien wie KI eine Ausbreitung in unserer Gesellschaft finden. Forschung und Entwicklung sollten beispielsweise im Zusammenhang mit Datenportabilität, Interoperabilität und consumer enabling technologies vorangetrieben werden; hierunter sind in diesem Zusammenhang KI-Anwendungen zu verstehen, deren originäres Ziel und Zweck es ist, Verbraucher im Rahmen von Alltagsentscheidungen zu unterstützen.

Zudem müssen die vertrauenssichernde staatliche Verantwortung für die Gestaltung von Rahmenbedingungen und deren Einhaltung sowie die Freiheit, Autonomie und Verantwortung der Nutzenden, Anwendenden und anderen Betroffenen der neuen Technologien einerseits und die Steuerung des Marktes und des Wettbewerbs andererseits abgewogen und im Lichte der Veränderungen gesellschaftlich diskutiert und bestimmt werden. Die zunehmende wirtschaftliche Stärke solcher Unternehmen, die besonders prägend für die Entwicklung von KI sind, darf nicht dazu führen, dass Wissenschaft und Zivilgesellschaft zunehmend von der Finanzierung gerade dieser Unternehmen abhängig werden. Der Staat muss Wissenschaft und Zivilgesellschaft befähigen, zu diesem wichtigen gesellschaftlichen Diskurs unabhängige und kompetenzbasierte Beiträge zu leisten.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

3 Ergänzungen

  1. Wenn inhaltlich richtig, fände ich hier einen passenden Verweis auf Machine Learning sinnvoll.

    Ich nehme an, das ist ein interner Kommentar?

    1. ahh, danke für den Hinweis, da war tatsächlich etwas stehen geblieben, was dort nicht stehen sollte :)

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.