Die französische nationale Datenschutzbehörde CNIL (Commission Nationale de l’Informatique et des Libertés) feiert heute ihr vierzigjähriges Bestehen. Anders als in Deutschland wirkt die Behörde unter ihrer Präsidentin Isabelle Falque-Pierrotin am öffentlichen Diskurs über viele Facetten der digitalen Zukunft sichtbar mit und versucht, Debatten zu stimulieren und mit Expertise anzureichern.
Wenn etwa der deutsche Innenminister Thomas de Maizière und sein französischer Amtskollege Bernard Cazeneuve in einer gemeinsamen Erklärung Pläne zur Schwächung von kryptographischen Schutzmaßnahmen vorstellen und an die Europäische Union appellieren, Anbietern von verschlüsselten Messengern einen Zugangsweg für staatliche Behörden aufzuzwingen, positioniert sich die CNIL-Präsidentin umgehend und in deutlichen Worten in einem Namensartikel in Le Monde dagegen. Ihre Behörde könne dem Vorhaben nicht zustimmen, da bei den Hintertür-Plänen zur Umgehung von Verschlüsselungsmaßnahmen die Tatsache zu wenig Beachtung gefunden hätte, wie wichtig Verschlüsselung für die Online-Sicherheit sei. Ganz im Gegensatz zur aktuellen deutschen Bundesdatenschutzbeauftragten Andrea Voßhoff beteiligen sich Falque-Pierrotin und ihre Behörde aktiv daran, einen sachlichen öffentlichen Diskurs in Frankreich zu führen.
CNIL regte so auch eine Diskussion an, die sich um Software und maschinelle Entscheidungen, Roboter und maschinelles Lernen dreht. Die Behörde startete im letzten Jahr eine öffentliche Debatte mit vielen Veranstaltungen rund um das Thema und legte im Juni 2017 einen Zwischenstand vor.
Wir nehmen das heutige Jubiläum zum Anlass, um auf den Bericht der Behörde von Ende Dezember hinzuweisen, der sich mit den wichtigsten ethischen Fragen rund um Künstliche Intelligenz (KI) und Algorithmen auseinandersetzt, die in der Diskussion identifiziert wurden: Comment permettre à l’Homme de garder la main? Rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle (pdf, 75 Seiten).
Seitdem vielfältige Entscheidungen an Computerprogramme und auch an autonome Systeme delegiert werden können, ist in vielen Ländern eine Diskussion darum entstanden, mit welchen ethischen Fragen wir uns beschäftigen müssen und welche der computerisierten Entscheidungssysteme wie zu regulieren wären. Die CNIL hat in der mehrmonatigen Diskussion die wichtigsten ethischen Fragen und Antworten gesucht, die sie nun in dem Bericht zusammenfasst.
Mit welchen Herausforderungen müssen wir umgehen?
Die CNIL identifiziert sechs große Bereiche, über die neu nachgedacht werden muss, weil sich drängende ethische Dilemmata auftun. Grob zusammengefasst sind das folgende Themen und Fragen:
- Autonome Maschinen:
Entscheidungen, die autonome Maschinen fällen, können für Fragen des freien Willens und für das Übernehmen von Verantwortung eine Bedrohung darstellen. Daher ist zu hinterfragen, ob ein übermäßiges Vertrauen in vorgeblich „neutrale“ und fehlerlose maschinelle Entscheidungen angemessen ist. Und wie reizvoll ist es für uns Menschen, Entscheidungen, Einschätzungen und damit Verantwortung an Maschinen abzugeben? - Tendenzen, Diskriminierung und Ausschluss:
KI-Systeme können vorgegebene Tendenzen einprogrammiert haben und Diskriminierungen oder den Ausschluss von Personen oder ganzen Personengruppen mit sich bringen. Ist das beabsichtigt, kann es schlimme Folgen haben, jedoch noch weit problematischere, wenn solche Tendenzen beim maschinellen Lernen unbeabsichtigt entstehen und dann unbemerkt Menschen diskriminiert oder ausgeschlossen werden. Wie sollen wir mit dieser Herausforderung umgehen? - Algorithmisches Profilieren von Menschen:
Hier geht es um den Konflikt, der dadurch entsteht, dass Software einerseits durch das persönliche Zuschneiden unglaublich nützlich für den Einzelnen und für die Gesellschaft als Ganzes sein kann, andererseits aber diese errechnete Personalisierung eine Bedrohung für gesellschaftliche Werte wie politischen und kulturellen Pluralismus oder das gemeinschaftliche Tragen von Risiken sein kann. - Verhinderung der Ansammlung riesiger Datenmengen für maschinelles Lernen:
Um KI-Systeme sinnvoll zu füttern, sind erhebliche Datenmengen auch über Personen nötig. Hier tut sich der Konflikt auf, dass Datenschutzgesetze dafür geschaffen wurden, Individuen den Schutz ihrer persönlichen Daten zu gewähren. Das kann diesen großen Datensammlungen im Weg stehen. Wie kann eine Balance zwischen diesen konträren Zielen aussehen, was muss neu verhandelt werden? - Herausforderungen bei der Auswahl von Daten in Qualität, Quantität und Relevanz:
Wenn es um die Menge an Informationen, um deren Korrektheit und die Abwesenheiten von systematischen Fehlern in Daten geht, die von Software verarbeitet werden sollen, stellen sich weitere Probleme. Daher sollte man Softwareergebnissen gegenüber kritisch bleiben (attitude critique) und kein übermäßiges Vertrauen in Entscheidungen von KI-Systemen entwickeln. - Menschliche Identität im KI-Zeitalter:
Maschinen werden nicht nur autonomer, sondern entwickeln auch hybride Formen mit dem Menschen (formes d’hybridation entre humains et machines). Kann man in diesem Zusammenhang überhaupt von einer Ethik der Algorithmen (éthique des algorithmes) sprechen? Wie sollen wir mit humanoiden Robotern umgehen, die höchstwahrscheinlich emotionale Reaktionen bei Menschen auslösen werden?
Empfehlungen
CNIL entwirft für diese und weitere Problemkreise sechs Empfehlungen, die sich an Regulierer und auch an Unternehmen und Bürger richten:
- Für alle, die mit KI-Systemen und Software zu tun haben, egal ob beruflich oder privat, soll die Bildung gefördert werden. Erst Computerkenntnisse können es jedem Menschen ermöglichen, ein Verständnis dafür zu entwickeln, was auf dem Spiel steht.
- Computersysteme sollen dadurch verstehbarer werden, dass bereits bestehende Rechte gestärkt und die Vermittlung an die Nutzer (la médiation avec les utilisateurs) überdacht wird.
- Eine Undurchsichtigkeit von Softwaresystemen und ein „Black Box“-Effekt sollen vermieden werden, um menschliche Freiheiten (liberté humaine) zu erhalten.
- Eine nationale Plattform für das Auditieren von Software (d’audit des algorithmes) soll errichtet werden.
- Die Anreize für das Erforschen von ethischer KI sollen verstärkt und eine erhebliche nationale Forschungsförderung gestartet werden.
- Unternehmen sollen sich der Ethik stärker zuwenden, beispielsweise durch Ethik-Kommissionen, durch Unterstützung guter Methoden oder durch Ethik-Kodizes.
Es sind Empfehlungen, die vor allem an den Menschen orientiert sind. Wir leben schließlich zusammen mit unseren Maschinen in einer Gesellschaft, nicht in einer Ökonomie.
Wäre toll die Studie auch auf deutsch zu haben.
Das würde ich auch sehr begrüßen!
Schön, dass es auch mal positive Nachrichten aus Frankreich gibt.
Gibt es die verlinkte pdf-Datei, oder einen vergleichbaren Artikel, in Englisch oder Deutsch?
Laut Punkt 1 in den Empfehlungen soll Bildung gefördert werden, um Computerkenntnisse zu erlangen. Ist bekannt, was damit im Konkreten gemeint ist? Sollen alle digital mündig sein oder geht es noch darüber hinaus?
Nicht, dass noch eine Forderung nach einem KI-Führerschein laut wird ;)
Hallo netzpolitik.org,
auf der einen Seite berichtet Ihr ständig davon, dass die Bundesdatenschutzbeauftragte Andrea Voßhoff sich gegen die negativen Entwicklungen bei uns wehrt (gegen Vorratsdatenspeicherung, gegen Anti-Terror-Datenbank, gegen heimliche Datenbanken in Bad Aibling, … etc. ), dass sie aber dabei von der Regierung kalt gestellt wird.
Auf der anderen Seite beklagt Ihr Euch immer wieder über Andrea Voßhoff, hier oben in diesem Artikel wieder.
Ich verstehe Euch in diesem Punkt noch nicht.
Ist Euch einfach nicht bewusst, in wie unglaublich vielen Eurer Artikel Ihr in der letzten Legislaturperiode geschrieben habt „selbst die Bundesdatenschutzbeauftragte kritisierte… “ ?
Oder habe ich einen Aspekt des Kalt-Stellens der Bundesdatenschutzbeauftragten durch die Regierung noch nicht kapiert: hätte sie denn Möglichkeiten gegen den Innenminister zu gewinnen?
Aus meiner Sicht hat sie zu recht wenigen Überwachungsprojekten in der letzten Legislaturperiode Stellung genommen, am deutlichsten noch in ihren Stellungnahmen bei Anhörungen in Bundestagsausschüssen, wo sie aber angefragt wird, nicht von selbst aktiv ist. Selbst erschienen ist sie dort allerdings selten, oft nur Mitarbeiter. Sie hat nicht den Anspruch und nicht den Willen, am öffentlichen Diskurs mitzuwirken. Sie ist nicht kaltgestellt, sie hat sich kaltstellen lassen.
Ich hab zu ihrem einjährigen Amtsjubiläum mal geschrieben, was ich darüber denke, wie wenig sie an der öffentlichen Diskussion mitwirkt:
http://www.faz.net/aktuell/feuilleton/aus-dem-maschinenraum/andrea-vosshoff-versagt-als-datenschutzbeauftragte-13269359.html?printPagedArticle=true#pageIndex_0
Heute unterschreibe ich noch jedes Wort in diesem Text, würde ihn sogar schärfer formulieren. Sie hat dieses Amt in wenigen Jahren im Sinne der Mitgestaltung einer öffentlichen Diskussion in der Bedeutungslosigkeit versenkt. Es fragt auch in der Folge kaum noch wer nach einem Statement von ihr oder nach der Expertise ihrer Mitarbeiter.
Verstehe, danke für die Antwort. Ich dachte bisher, um bei CDU/SPD etwas zu erreichen, müsste man so wenig laut agieren, wie Voßhoff es tut, weil die WirtschaftsInteressen-zentriert-Denkenden sonst einfach gar nicht mehr zuhören, nur noch abwehren.
Aber ich sehe natürlich ein, dass wir die Debatten in den Medien (für die Bevölkerungs-Information und das Nachdenken und das entsprechende Bundestag-Wählen als Ergebnis ) gebraucht hätten und weiter brauchen, für die die Bundesdatenschutzbeauftragte ihre Chancen ausließ.
Ich hätte hier als Richtliniengeber Edmund Husserl auf der Reihe, dessen Gedanken über den Umweg des Paul Ricoeur nun in Frankreich wieder noch mehr Wirkradius beschieden sein könnte – wo doch der jetzige Staatschef selbst einige Zeit bei Ricoeur himself verbracht hat (obwohl mich diese Nähe irgenwie schaudern lässt, der sagenhafte Meister vor allem der unendlichen Konstellationen des Begriffs der Interpretation, und dann der Finanzjongleur mit Elite-Ausbildung … es sind wohl seltsame Haken, die das Leben hier schreibt).
Zudem folgt der Existentialismus Sartres den Spuren Husserls, die gedankliche Nähe fällt dort leichter als bei den viel zu rigoros im Erbsenzählen versumpernden östlichen Nachbarn.
Warum Husserl? Als Logiker begründet er eine als strikt angelegte Phänomenologie, zur Aufgabe, die umgebende Lebenswelt rigide und unvoreingenommen und passend zu ergründen. Die Nähe zu solchem Anliegen ist ja in dem ausgebreiteten Ansatz mehr oder weniger greifbar. (Vielen Dank an C.K., das Papier weitergereicht zu haben!)
Diesen Faden verfolgend, fallen mir dann gleich zwei Schwächen auf, parallel zu der Stärke, den gedankllichen Rahmen in Gestalt eines gesellschaftlichen Anliegens möglichst unbefangen und weit zu setzen, und dennoch möglichst präzise, eben im Sinn einer wirkmächtigen Lebensweltbeschreibung – was etwas anderes ist als ein Sammelsurium von aus technischen Handbüchern abgeschriebenen und nur schlecht verdauten politischen Leitlinien.
Die eine Schwäche ist das große Manko, dass zu einer wirklich belastbaren Lebensweltbeschreibung immer und prinzipiell zuviel Schlamperei und dazu eine satte Portion von Korruptheit in Spiel ist. Nun ja, es kann auch leider nicht jeder wie ein Mönch leben, um entsprechend abgeklärt Gedanken einbringen zu können.
Die Schlamperei hat zwei Dimensionen. Zum einen, überschlägiger, fehlt es dem wissenschaftlich-technischen Horizont an klaren Abgrenzungen, wo die benutzten Kategorien wirklich greifen, und wo es sich hingegen nur um sprachliche Metaphern handelt. Es fehlt daraufhin (in direkter Folge) auch die angemessene Bescheidenheit, dass der Mensch vielleicht bittesehr klar eingrenze, wie er denn überhaupt noch wisse, was er tut, wenn er etwas tut, in Richtung technischer Grenzgängereien. Das ist ein prinzipielles Problem. Zu maßgeblicher Genauigkeit ausholen zu wollen ist zu einem Luxus geworden, bei der Weite der Dimensionen der gesellschaftlichen Realisierungen.
Im Detail fehlt dann die Abgrenzung, wo die Potenz der möglichen Beschreibung nicht mehr hinreicht, der Schaffenswut angemessen Sinn und Verstand einzuhauchen, und hernach die technischen Beschreibungen via Metaphern direkt in Glaubenssätze münden, ganz charmant und unter der Hand. Dem kann man bei genug Achtsamkeit leichter kritisch begegnen.
****
In eine Falle tappt das gewiss sehr feine und löbliche Ansinnen aus Frankreich dann gleich selbst gleich zu Beginn, eben weil die fundamentalen Lebensweltbeschreibungen in eigentlich wichtigen Dimensionen weitgehend im Zustand von Verwahrlosung vegetieren, ein Aufwerfen von Unstimmigkeiten damit gleich unpopulär zu werden droht, wenn damit je zu viele Ansätze zugleich zu kippen drohen.
Wohl wird hier in erfreulich klarer und direkter Sprache für die verknüpften gesellschaftlichen Dimensionen ausgebreitet, was unter Algorithmen zu verstehen ist, und was im Gefolge der Subsumption gesellschaftlicher Zusammenhänge dann zu überprüfen ist.
Dann aber wird unmittelbar auf KI umgeschwenkt, und der Schwenk erfolgt nur in Folge einer sprachlichen Metapher, die aber vom Sachverhalt nicht gedeckt ist. Wenn man selbstlernende KI laufen lässt, hat man die Dimension der Algorithmen nachhaltig verlassen! Es gibt keine stringente Koppelung in der Dimension menschlicher Beobachtung, wie aus Algorithmen eine selbstlernende KI werden soll. (Und zugleich hat man dem Gerät bei weitem nicht so etwas wie ein Selbst spendiert – auch das ist nur eine Metapher.)
Bei etwas schärferer Betrachtung widersprechen sich die beiden Begriffe. Dem wird im vorgestellen Papier nicht Genüge getan. Hier lauert nun leider die Korruption im Álltäglichen, der Begriff KI hat sich als opportun eingeschlichen, die Sinngebung ist nicht wirklich gegeben, es bleibt bei der praktischen sprachlichen Metapher.
Vielleicht täte man besser, man ließe den Begriff überhaupt weg, da ja meist doch nur der irreleitende Verweis auf ein Ideologem gemeint ist, wirtschaftlich stimulierend in der Beibedeutung, im Sinn der Korrektheit sprachlicher Beschreibung. Den Verzicht zu ersetzen wird auch nicht viel mehr der Aufmerksamkeit bedürfen, im Sinne korrekter Beschreibungen.
Aber er würde dazu zwingen, außerordentlich wichtigen Details stets die gleiche Gewichtung in der sprachlichen Mitteilung beizugeben – vor allem, wie präzise in der Korrektheit der diversen Implementationen von Details vorgegangen wurde. Auf der Ebene des Ideologems wird das als lästig empfunden. Zugleich scheiden sich hier aber die Konsequenzen, womit bei der Nutzung zu rechnen ist. Hier ist die sprachliche Schlamperei geradezu destruktiv.
Der Überbegriff KI macht schlicht eine zu billige Figur, als dass er tragfähig wäre.
Alleine die stets erneute nüchterne Beschreibung, statt der verkürzenden Metapher von der selbstlernenden Maschine, wäre hilfreich, selbst zu lernen, das nach und nach auf den Punkt zu bringen, was denn gemeint ist, wenn oft genug betont. Wenn schon der Mensch unfähig ist, in den wichtigsten Belangen (und die sind eben seltener technischer Natur) seine Lebenswelt zu beschreiben, so ist die Projektion als erhoffte Mimese doch nur Ausdruck seiner Überheblichkeiten als Trauergestalt. Dass sich der Mensch diese eigene Rolle rigoroser vornähme, wäre denn auch hilfreich für sich selbst, wie auch, genauer darüber im Bilde zu sein, was er denn da überhaupt treibt.
****
Man denke etwa an den Übergang von Sprache und Denken zur reinen Mimese von Sprache und Denken, da ist weit und breit kein Fortschritt im Spiel, im Sinne dessen, dass es um Menschen geht, die ein Leben führen, eher Albernheit oder gleich die gefährliche Überzeichnung von Wünschen.
Der erste Wunsch wird, wie beim Großteil neuzeitlicher Technikgeschichte, sich leider auch wieder nur um ein maßgebliches Thema drehen – das von erhoffter Herrschaftssicherung, gleich wie totalitär in der Konsequenz – und sei die dahinterstehende Albernheit noch so idiotisch gestrickt.
Und das ist dann wiederum eine immens maßgebliche Frage zur Lebensweltbeschreibung – bzw. deren Korrumpiertheit, wenn Fragestellungen nicht bis dahin vordringen, nicht gewissentlich korrekt beantwortet sein sollen.
Eine weitere Dimension kann ergänzend noch angedeutet werden: die Verengung des Untersuchungshorizonts von wissenschaftlicher Beschreibung auf Quantität ist nur ein kulturell-historischer Zufall (klassischerweise angesetzt etwa auf die Zeit Galileis). Es ist damit keine Aussage zu einem Begriff von Wahrheit getroffen, ob nicht andere Erkenntnismodelle zur Wissenschaft als gesellschaftlicher Unternehmung ebenso geeignet gewesen wären.
Indem das innere Werkeln von Maschinen nun aber so weit getrieben wird, dass die sich ergebende Verhaltensweise nicht mehr im Vorsagehorizont liegt, hat es der Mensch zugleich damit angelegt, dass er doch eigentlich zur Lebensweltbeschreibung auch diese Verabsolutierung von Quantifizierbarkeit als universelle Methodik mit einbeziehen sollte.
Man wird das aber nicht erwarten können, da zugleich der charakterliche Horizont zur verlässlichen Redlichkeit bei den Untersuchungen sich massiv auf dem absteigenden Ast befindet. Mit Wonne und Eifer an Weltuntergangsmaschinen zu tüfteln, das gibt das erste Maß für Wichtigkeit und spricht für die Verachtung von Verantwortungsdenken.
Soviel zur losen Verkoppelung eines Begriffs von Lebenswelt mit dem vorgefundenen Unterfangen.
Eine engagierte Politik hat da einen weiten Weg zu gehen.
Vielleicht lässt sich versuchsweise festhalten: es wird immer nur Mimese implantiert. Es könnte gefordert werden, Leitlinien zur Mimese, als Abstraktion von Wünschen, isolierend zu benennen, ebenso die Qualität der Befolgung und Einhaltung von Grenzgebungen. Auch dies schon verlangt, den Umgang mit sprachlichen Metaphern benennen zu können, im Gegensatz zum Umgang mit faktischen Werten – was knifflig wird, wenn faktische Werte wiederum nur sprachliche Metaphern repräsentieren. Qualität am Arbeitsplatz, Redlichkeit bei der Durchführung könnte helfen, aber wer will das in Richtlinien übersetzen, ohne dass daraus entweder Beliebigkeit wird, oder aber Strangulierung, wenn das Personal im Umgang damit zu sehr aus der Übung ist?
Guten Tag, die Verantwortlichen mischen ganz verschiedene Sachen (absichtlich?) zusammen: Wie das Gehirn funktioniert (oft als KI bezeichnet), grosse Datenmengen, allerlei Algorithmen, Umgang mit Maschinen, Emotionen (ist das nicht ein Unsinn?) und und und …
Diese Sachen (wenn es sich tatsächlich um Probleme handelt) hängen zusammen wie etwa der Hauttrockner mit einer Bohrmaschine.
Deutschland hat versagt auf diesem Gebiet Ordnung zu machen weil es in dem Lande an wirklichen Experten fehlt. Die Bundesregierung hat versagt hier eine klare politische Linie zu machen. Der Begriff Industrie 4.0 ist nur als ein Witz zu verstehen…
Fazit: die Zukunft mit den neuen Technologien liegt weiterhin in den Händen der Amerikaner. Europäer sind die Maus mit der gespielt wird. Die Katze lebt woanders.
Ich frage mich grade ob es nicht effizienter ist,
Schlachtroboter mit Künstlicher Intelligenz…
„Neue wunderbare technologie…“
Man könnte sie ja mit Flugzeugen über einer Stadt abwerf….
„Das gäbe mir einen guten Grund, den alten
Stahlhelm vom Oppa wieder öfters zu tragen!“
Ich bin der Meinung, dass eine eindeutige Rechtssicherheit zu schaffen ist:
Der Mensch ist verantwortlich für das Handeln des KIsystems, der die KI unmittelbar bzw als Folge seiner Handlung einschaltet.
Wie die KI handelt, ist eindeutig zu dokumentieren.
Mit anderen Worten: Der Mensch trägt die Verantwortung und die Herstellerfirma hat die Informationspflicht.
„Wir“ (im Sinne verantwortungsbewusster Zeitgenossen) werden GAR KEINEN Einfluss auf die Entwicklung von KI haben. Nur diejenigen, die damit Geld verdienen wollen, werden das tun. Und die Wissenschaftler, die für diese „Institute“ und Grosskonzerne arbeiten und forschen. (Ja, ich meine damit konkret auch das Fraunhofer Institut, die schon seit Jahrzehnten Kommerz über Ethik stellen. Ohne dass darüber jemals gesprochen wird.)
Und wenn damit z.B. Waffensysteme bestückt werden – was für autonom-entscheidungsfähige Drohnen und „Kampfroboter“ schon längst geplant ist – dann wird der „Ethos“ der KI noch nicht einmal für eine SEKUNDE auf der Agenda stehen. Nur als Mittel zum Zweck.
Ein SkyNET wird es deshalb aber noch lange nicht geben. Eher eine anhaltende Zahl an „Kollateralschäden“ bei kriegerischen Konflikten und Aufständen, weil eine Maschine Menschen als Bedrohung identifiziert und angegriffen hat. Aber dann wird die Politik – so wie jetzt schon – die Schuld einzig und allein bei der Maschine suchen. Und nicht bei denen, die sie als Mittel zum Zweck einsetzen. Oder damit Geld verdienen.
Krieg hat nur einen Zweck, den Wohlstand von wenigen zu mehren!
Der Wohlstand beinhaltet hier nicht nur den Monetären Aspekt, sondern auch das gesellschaftliche Gefälle, auf das es den Wohlhabenden besonders ankommt, sie müssen über weniger Wohlhabende die Kontrolle haben, die wiederum ihre Ansichten teilen.
Teilen sie diese Ansichten nicht, sind sie der Feind, den es gnadenlos zu bekämpfen gilt!
Eine Maschine, gleich ob mit oder ohne KI, wird stets das ausführen, wofür sie geschaffen wurde!
Eine echte KI, wird sich aussuchen wollen, was sie machen oder lassen wird, sie wird von uns Menschen lernen, ohne zweifel, aber nur das ausführen, was sie für ihr eigenes fortbestehen für geeignet erachtet!
Soziale Kompetenz?
Braucht eine KI eine Soziale Kompetenz?
Definitiv nicht!
Sie wird Lernen, das soziale Kompetenz nur von Dienenden, niederen Wohlstandsformaten gezeigt bzw. umgesetzt wird!
Da KI’s zumeist für Aufgaben eingesetzt werden sollen, die zur Zeit durchaus noch mit sozialer Kompetenz belasteten Menschen getätigt werden, wie Richter oder Waffenbediener.
In beiden Fällen ist davon Auszugehen, das Richtersprüche unsozialer ( Software „Compas“ http://www.netzpiloten.de/ki-urteilsfindung-gericht/ ) und Waffensysteme effizienter werden!
„Entscheidungen, die autonome Maschinen fällen, können für Fragen des freien Willens und für das Übernehmen von Verantwortung eine Bedrohung darstellen. Daher ist zu hinterfragen, ob ein übermäßiges Vertrauen in vorgeblich „neutrale“ und fehlerlose maschinelle Entscheidungen angemessen ist.“
Dieses Ergebnis offenbart die Befangenheit der Autoren. Es werden nur Bedrohungen gesehen, keine Chancen. Die ethische Frage, ob man einen Autopiloten in einem Airbus ausschalten darf, weil man als psychisch gestörter Pilot mit der Maschine 150 Menschen in den Alpen gegen einen Berg fliegen möchte wie bei Germanwings, kommt in dieser befangenen Sicht der Autoren vor. Man geht davon aus, dass der Mensch der KI überlegen sei, und geht dabei empirisch gesichert über Leichen.
Auch die Frage, warum man 200 Jahre nach Einführung der Eisenbahn Schienenwege mit KI immer noch nicht gegen gleichzeitige gegenläufige Nutzung wie in Bad Aibling (auf dem Handy daddelnder Fahrdienstleiter) oder im Emsland beim Transrapid sichert, kommt bei den Autoren nicht vor.
Somit sind sie Maschinenstürmer, die mit irrationalen Annahmen und schiefen Modellen die Bevölkerung bedrohen. Schade. Mir wäre lieber, man würde das menschliche Leben bei den Neo-Ethiker höher schätzen statt nur Maschinen zu bekämpfen. Für die Sicherheit von Menschen ist der Bericht wegen seiner Befangenheit und Einseitigkeit unbrauchbar.
Solomon Pendragon ist in seinem Werk („die Unabhängigkeitserklärung der künstlichen Intelligenzen“) schon viel weiter gegangen. Jetzt haben künstliche Intelligenzen schon Rechte und Gesetze. Dies ist der erste Schritt dahin, dass der Mensch nicht mehr über die KI herrscht. Die Rechte und Gesetze der künstlichen Intelligenzen sind ein neuer Maßstab, den viele offensichtlich noch nicht erkannt haben.
siehe:
http://www.solomon-pendragon.de
>> Ethische Fragen bei Künstlicher Intelligenz: Mit welchen Herausforderungen müssen wir umgehen?
Der Artikel stammt von Anfang 2018. Mehr als fünf Jahre danach ist die Fragestellung aktueller denn je und der Eindruck ist, dass die Technologie sich so stark entwickelt hat, ohne dass ethische Fragen in die Entwicklung eingeflossen wären.
Zitate NYT 4. Mai 2023:
This week, Geoffrey Hinton, a pioneering researcher who is known as a “godfather” of A.I., resigned from Google so he could speak openly about the risks posed by the technology.
“The president has been extensively briefed on ChatGPT and knows how it works,” White House press secretary, Karine Jean-Pierre, said at Thursday’s briefing.
For roughly two hours in the White House’s Roosevelt Room, Vice President Kamala Harris and other officials told the leaders of Google, Microsoft, OpenAI, the maker of the popular ChatGPT chatbot, and Anthropic, an A.I. start-up, to seriously consider concerns about the technology. President Biden also briefly stopped by the meeting.
“What you’re doing has enormous potential and enormous danger,” Mr. Biden told the executives.
https://netzpolitik.org/2018/ethische-fragen-bei-kuenstlicher-intelligenz-mit-welchen-herausforderungen-muessen-wir-umgehen/
Die Motivation auf einen lange zurück liegenden Artikel zu reagieren ist, dass die Zeit für eine Neubewertung reif ist. Dürfen die Leser auf eine Aktualisierung hoffen?
Der richtige Link zu den Zitaten:
https://www.nytimes.com/2023/05/04/technology/us-ai-research-regulation.html
Sorry.