Unter der Leitfrage „Unberechenbar?“ fand Ende November in Berlin eine Konferenz zu Algorithmen und Automatisierung in Staat und Gesellschaft statt. Die thematische Ausgangslage der Veranstaltung: Algorithmische Systeme strukturieren zunehmend diverse gesellschaftliche Bereiche und informieren oder ersetzen dabei vormals menschliche Entscheidungen. Sie steuern Verwaltungsprozesse, entscheiden über den Zugang zu Dienstleistungen und formen die Kommunikation in der digitalen Öffentlichkeit.
Welche Chancen und Risiken diese komplexen Entwicklungen bergen, diskutierten die Teilnehmer der vom Kompetenzzentrum Öffentliche IT am Fraunhofer-Institut für Offene Kommunikationssysteme ausgerichteten Konferenz in drei Themenblöcken: „Regieren & Verwalten“, „Individuum & Gesellschaft“ und „Medien & Öffentlichkeit“. Insbesondere die im mittleren Block ausführlicher behandelten Fragen nach staatlichen Gestaltungs- und Regulierungsanforderungen sollen hier näher vorgestellt werden.
Konrad Lischka von der Bertelsmann Stiftung stellte Vorschläge vor, wie sich die Forschung in dem Bereich intensivieren und eine institutionelle Kontrolle aufbauen lasse. Sandra Wachter, Juristin am Oxford Internet Institute, fokussierte sich auf die Frage nach den Auskunftsrechten von Betroffenen und stellte ein konkretes Modell zur nachvollziehbaren Darlegung algorithmischer Entscheidungen vor. Mario Martini vom Deutschen Forschungsinstitut für öffentliche Verwaltung zeigte rechtliche Regulierungsmöglichkeiten auf.
Software entscheidet über Bewährung oder Haft
Datafizierung und algorithmische Systeme schaffen neue Möglichkeiten, um das Verhalten von Menschen nachzuvollziehen, vorherzusagen und zu steuern. Die Folge davon ist, dass insbesondere Individuen vor der Herausforderung stehen, dass Entscheidungen über ihre gesellschaftliche Teilhabe und Lebenschancen immer stärker automatisiert getroffen werden. Sie müssen derzeit darauf vertrauen, dass die angewendeten Systeme diskriminierungs- und fehlerfrei sind. Im Regelfall wissen sie auch nicht, welche Kriterien für den Ausgang einer Entscheidung ausschlaggebend waren.
An Beispielen dafür, dass algorithmenbasierte Entscheidungsfindung zunehmend auch in sensiblen gesellschaftlichen Bereichen eingesetzt wird, mangelt es nicht. In den USA etwa entscheidet die Software Compas vielerorts darüber, ob eine Haftstrafe auf Bewährung ausgesetzt wird oder nicht. Sie ermittelt unter anderem die Risikowahrscheinlichkeit, ob eine Person in naher Zukunft ein weiteres Verbrechen begehen wird und richtet danach ihre Entscheidung aus. Trotz deutlicher Hinweise, dass die Software eine rassistische Schieflage im US-Justizsystem reproduziert und verstärkt, verweigert der Hersteller eine Offenlegung des dahinterstehenden Algorithmus mit Verweis auf sein Geschäftsgeheimnis.
In Australien sorgten kürzlich Berichte für Aufsehen, denen zufolge ein Computerprogramm 20.000 falsche Mahnbescheide für vermeintlich ungerechtfertigt bezogene Sozialleistungen verschickte. Betroffene mussten demnach oft Monate darum kämpfen, bis die Fehler korrigiert wurden.
Ziele in den Blick nehmen, Entscheidungen nachvollziehbar machen
All das sind Entscheidungen, bei denen es um relevante Lebenschancen für die Einzelnen geht. Wie Konrad Lischka in seinem Vortrag deutlich machte, müssen die Chancen und Herausforderungen von algorithmischen Systemen zur Entscheidungsfindung deshalb umfassend diskutiert und erforscht werden. Es müsse eine gesellschaftliche Debatte um die Angemessenheit ihrer Ziele geführt werden, bevor algorithmische Entscheidungssysteme entwickelt oder eingesetzt werden.
Eine Maschine entscheide zwar konsistent, bei unangemessener Programmierung allerdings auch konsistent unangemessen. Ein diskriminierender Algorithmus sei deshalb von vorneherein zu verhindern, indem eine breite gesellschaftliche Debatte über die angestrebten Ziele der Automatisierung von Entscheidungen ermöglicht wird. Den Menschen in den Mittelpunkt zu stellen und Möglichkeiten gesellschaftlicher Teilhabe zu stärken, müsse das Ziel bei der Optimierung algorithmischer Systeme sein.
Gleichzeitig solle jedoch mit dem Trugbild der „bösen Algorithmen und der guten Menschen“ aufgeräumt werden, das in der öffentlichen Debatte zuweilen anklinge. Denn, dass menschliche Entscheidungen tendenziell besser seien als maschinelle, stimme so grundsätzlich nicht. So wisse man etwa, dass Menschen bei Entscheidungen in vielen Bereichen diskriminieren, etwa bei der Auswahl von Bewerbern.
Sinnvoll wäre der Einsatz von automatisierten Entscheidungssystemen demnach an genau solchen Stellen, bei denen bekannt ist, dass menschliche Entscheidungen zu systematischen Verzerrungen führen. Wichtig ist laut Lischka dabei jedoch, algorithmische Entscheidungen transparent und nachvollziehbar zu machen. Helfen könnten dabei Instrumente wie Meldepflichten für Algorithmen, die nicht das tun, was sie tun sollen. Ebenso könnte es verpflichtend sein, den Einsatz von automatisierten Entscheidungsverfahren den Betroffenen mitzuteilen.
Forschung und Kontrollinstitutionen ausbauen
Daran schließt sich die Frage an, welche Werkzeuge und Förderungen für die Wissenschaft nötig sind, um eine so geschaffene Transparenz optimal zu nutzen und daraus Erkenntnisse zu gewinnen. Die rasanten Entwicklungen müssten zudem stärker von zivilgesellschaftlichen Organisationen begleitet werden, die einzelne Beispiele aufgreifen und dadurch eine gesellschaftliche Diskussion auslösen. Erst auf dieser Basis sollten Systeme entwickelt werden, die das Potential haben, Entscheidungsmechanismen wirklich zu verbessern.
Lischka schlägt zudem vor, die staatlichen Kompetenzen in diesem Feld auszubauen. Als Vorbilder könne man sich staatliche Zulassungsstellen sowie Aufsichts- und Untersuchungsbehörden aus anderen Bereichen anschauen. Außerdem müsste die Vielfalt der Entscheidungssysteme gefördert werden. Um Vergleichbarkeit zu schaffen und Abhängigkeiten von einem einzigen Entscheidungsinstrument zu verhindern, müssten alternative Systeme zur Verfügung stehen. Für den öffentlichen Sektor könne man darüber nachdenken, Vielfalt zu einem Zulassungskriterium für den Einsatz von algorithmischen Systeme in einem bestimmten Bereich zu machen.
Konkrete Auskunft für Betroffene
Wie man Auskunftsrechte von Betroffenen automatisierter Entscheidungen konkret umsetzen könnte, erklärte Sandra Wachter. Mit sogenannten „Counterfactual Explanations“ ließe sich zeigen, was anders sein müsste, um ein gewünschtes Entscheidungsergebnis zu erhalten. So würde die nachträgliche Auskunft für eine automatisierte Ablehnungsentscheidung für einen Kredit beispielsweise die Höhe des Jahreseinkommens nennen, die man haben müsste, um den gewünschten Kredit gewährt zu bekommen.
Laut Wachter ist dies eine Möglichkeit für Betroffene, eine Entscheidung besser zu verstehen und im Zweifelsfall anfechten zu können. So könne man sich mit dem Wissen um die relevanten Daten auch auf zukünftige Entscheidungen einstellen und im Vorfeld entsprechende Maßnahmen ergreifen. Betroffenen würde auf diese Weise kein Verständnis der internen Logik eines Algorithmus abverlangt. Für Organisationen, die algorithmische Entscheidungssysteme anwenden, bestünde der Vorteil, dass sie keine Geschäftsgeheimnisse offenbaren müssten.
Möglichkeiten rechtlicher Regulierung
Mögliche Anknüpfungspunkte für eine rechtliche Regulierung zeigte Mario Martini anhand einer Analyse bereits bestehender Gesetze auf. Um eine effektive Regulierung algorithmischer Entscheidungsfindung zu erreichen, müssten diese jedoch alle in ihrem Anwendungsbereich erweitert werden. So verbiete beispielsweise die Datenschutzgrundverordnung (DSGVO) in Artikel 22 zwar grundsätzlich automatisierte Entscheidungen, die Menschen signifikant beeinträchtigen oder ihnen gegenüber eine rechtliche Wirkung entfalten. Allerdings ist die Voraussetzung für diese Norm, dass die Entscheidungsfindung komplett automatisiert und ohne menschliches Zutun erfolgt. Scoring falle beispielsweise nicht darunter, da die Entscheidung in diesem Fall nur maschinell vorbereitet, letztlich aber von einem Menschen gefällt werde.
Auch müssten nach der DGSVO die Parameter einer algorithmischen Entscheidung nicht offengelegt werden. Es reiche stattdessen aus, mitzuteilen, ob ein solches System eingesetzt wurde. Martini plädiert deshalb für die Einführung einer echten Begründungspflicht. Bei persönlichkeitssensiblen Algorithmen sollte es einzelfallbezogene Begründungen geben, mit denen sich Vergleichsgruppen und Größenzuordnungen herstellen lassen. Anlehnen könne man dies an den Regelungen zur Begründungspflicht behördlicher Entscheidungen nach § 39 VwVfG.
Auch das Informationsfreiheitsgesetz (IFG) könne zielführend sein. Derzeit mache es den Informationszugang allerdings von der Einwilligung des Inhabers eines Geschäftsgeheimnisses abhängig. §6 IFG sollte laut Martini deshalb dahingehend geändert werden, dass es auch dann ein Informationsrecht gibt, wenn daran ein überwiegendes rechtliches Interesse besteht. Eine andere Möglichkeit sieht er in einer Erweiterung des Allgemeinen Gleichbehandlungsgesetzes. Zurzeit beziehe sich das Gesetz nur auf bestimmte Lebensbereiche wie Arbeit, Sozialleistungen, Bildung und Massengeschäfte des täglichen Lebens. Man könnte es jedoch derart anpassen, dass auch eine Ungleichbehandlung aufgrund algorithmenbasierter Datenauswertung generell dem Anwendungsbereich des Gesetzes unterliegt.
Die Beweislast umkehren
Eine begleitende Risikokontrolle könne durch Kontrollalgorithmen gelingen, die den Output von Entscheidungssystemen vergleichen und auf das Vorliegen von Diskriminierung prüfen. Auch eine Protokoll- und Beweissicherungspflicht für die Entscheidungsgrundlagen auf Seiten der Anwender wäre denkbar. Dies solle sicherstellen, dass Betroffene sich wirksam rechtlich gegen einen Algorithmus wehren können. Es würde die Beweislast bei Diskriminierungen nicht nur erleichtern, sondern womöglich sogar umkehren. Ein Verbandsklagerecht wäre hier ein zusätzlicher Schritt, um Sachverstand für Klagen zu bündeln.
Ergänzend schlägt Martini eine „Selbstverpflichtung mit Zähnen” vor, die er als „Algorithmic Responsibility Codex“ betitelt. Sie könne an den Corporate Governance Kodex aus §161 AktG angelehnt sein. Anwender persönlichkeitssensibler Algorithmen müssten demnach erklären, wie sie es mit den Grundsätzen guter und ethischer Algorithmennutzung halten. Stelle sich im Nachhinein heraus, dass nicht im Einklang mit der abgegebenen Erklärung gehandelt wird, sollten die Verantwortlichen mit Bußgeldern sanktioniert werden können.
Eine ausführliche Nachberichterstattung sowie Videoaufzeichnungen aller Vorträge und Paneldiskussionen findet ihr hier.
Die argumentative Schieflage der Neo-Ethiker ist immer wieder beeindruckend. Nehmen wir das Beispiel Germanwingsdlug in den Alpen: da entscheidet nicht nachvollziehbar der Pilot, den Autopiloten auszuschalten und tötet 150 Menschen. Der Autopilot dagegen hätte sich algorithmischen geweigert, das Flugzeug gegen die Bergwand zu fliegen. Er aber hätte seine Entscheidung nachvollziebar machen müssen, der Pilot nicht. Der Autopilot soll seine Daten offenbaren. Algorithmeninspektion, Open Data, IFG, aber bitte mit DSGVO und ePrivacy für die Todesopfer. Irgendwie befriedigen mich die Forderungen der Neoethiker nicht, wenn nicht am Anfang die Frage steht, was für das Leben der Menschen sicherer ist: Mensch oder Maschine. Aber so hat halt jeder seine Wertemassstäbe.
Wer mit Begriffen wie „Neo-Ethiker“ hantiert, lieber Herr Ksoll, dem geht es nicht um redliche Argumente, sondern um Agitation.
Ja, kann man behaupten. Ist aber ein Derailing von der Frage, ob Menschenleben oder Privacy wichtiger sind . Also eher unethisch. Dann lasse ich mich gerne als Agitator beschimpfen, dass ich das Grundrecht auf körperliche Unversertheit höher bewerte als das Richterrecht der informationellen Selbstbestimmung. 150 Leichen in den Alpen lassen mich gerne darüber nachdenke, ob wir nicht mehr Algorithmen einätzen sollten, um Menschenleben zu retten. Da habe ich eben eine andere Ethik als die Neo-Ethiker. Nennen Sie es ruhig Agitation.
Abgesehen davon, dass ihr Beispiel nichts mit Algorithmen, aber auch gar nichts zu tun hat, sondern mit einer Tür, die von außen nicht geöffnet werden konnte, ist dies übrigens ein glänzendes Beispiel dafür, dass wegen fehlerhaft installierter Sicherheitstechnik 150 Menschen nicht gerettet werden konnten.
Vom Fliegen, der Luftfahrt und seiner Probleme scheinen Sie keinen blassen Dunst zu haben.
Ja, ist kalr. Alle anderen sind doof, nur Sie nicht. Algorithmwatch hat die Autopiloten in der Luftfahrt völlig zu unrecht auf die Liste gesetzt. Und der Autopilot bei Germanwings hätte die Maschine über den Berg geflogen, wenn nur nicht die Türe verriegelt wäre. Aber gut, ich habe schon beklopptere Verschwörungstheorien gehört.
https://algorithmwatch.org/de/digitalpolitik-vom-autopilot-bis-predictive-policing/
Und die Amerikaner machen sich völlig zu Unrecht Sorgen über uninterruptable autopilots, wenn man nur die Verriegelung der Türe in den Griff bekommt. Ja ist klar,. immer schön trollig derailen und bloß nicht über die Rolle von KI bei der Rettung von Menschenleben reden. Körperliche Unversehrtheit ist ja nicht hipp, wenn Europa sich leiber am Datenschutz abarbeitet.
http://n8waechter.info/2015/04/germanwings-crash-und-der-uninterruptible-autopilot/
Herr Ksoll, würden Sie uns bitte ihre erworbenen Befähigungen oder Zertifizierungen nennen, die sie für den Bereich der Luftfahrt qualifizieren? Danke.
Warum? Wäre es dann glaubwürdiger, dass sich algorithwatch ohne mein Zutun mit künstlicher Intelligenz in Flugzeugautopiloten beschäftigt? Ich habe selten eine bescheuerte Antwort darauf, dass ein algorithmischer Autopilot nicht ein Flugzeug gegen eine Berg fliegen würde, gehört als den groben Unsinn, dass der Autopilot keine Hilfe bei einem bekloppten Piloten wäre, sondern alles von der Verriegelbarkeit der Türe abhinge. So.ange soclhe Bekloppte mit Zertifikaten den Flugbetrieb stören, werden wir wohl noch viele hundert Tote den Bescheuerten opfern müssen. So wir wir damals 71 Tote (davon 49 Kinder) hatten, weil zertifizierte Piloten zu doof waren, sich zu einigen, wie sie aneinander vorbeifliegen sollen. Die tollen Zertifikate haben den Menschen in den Tod gerissen, was durch intelligente Maschinen hätte vermieden werden könneen. Aber so lange M enschen Zertifikate wichtiger sind als Menschenleben, werden die Passagiere weiter wegen dieser Bumsköppe sterben. Frauen und Kinder. Opfer von Bekloppten.
https://de.wikipedia.org/wiki/Flugzeugkollision_von_%C3%9Cberlingen
Aber so sind halt unsere Neo-Ethiker. Von Privacy schwätzen und dabei über Leichen gehen. Deutsch halt. Ekelhafte Menschenfeindlichkeit.
„Befähigungen oder Zertifizierungen des Herrn Ksoll“ ??
Lieber Herr Luftfahrer, Sie können davon ausgehen das aufgrund solcher Beispiele von bemerkenswerter Befähigung zum logischen Denken, die vermutlich den Querschnitt unserer Bevölkerung repräsentieren, derartige Systeme sich in kürzester Zeit etablieren werden.
So tragisch dieses Einzelbeispiel auch sein mag, fällt es doch in die Kategorie anekdotische Evidenz und ist statistisch völlig irrelevant. Genau so gut könnte man auch argumentieren, dass exzessives Kettenrauchen eine lebensverlängernde Wirkung habe, wie das Beispiel Helmut Schmidt „beweist“.
Und dass der klassische Turing-Test ein ungeeignetes Kriterium für die Existenz von Intelligenz ist, hat bereits Weizenbaum 1966 mit ELIZA demonstriert. Die KI-Forschung der vergangenen 60 Jahre hat auch viele neue Erkenntnisse über die natürliche Intelligenz und deren Komplexität hervorbebracht, und gerade weil Turing ein Genie war, würde er heute seine damaligen Thesen sicherlich nicht in derselben Simplizität wiederholen, wie das seine Apologeten immer noch tun. Das zeichnet natürlich Intelligenz ja u.a. aus, dass sie eigene Irrtümer und Unzulänglichkeiten erkennen und korrigieren kann.
Im letzten Satz muss es ebenfalls „natürlichE Intelligenz“ heißen.
1. Der Pilot von Germanwings war bei dutzenden von Ärzten. Nicht der Datenaustausch war falsch, sondern der Psychiater zu keinem vernünftigen Gespräch befreit. Sie haben schlecht recherchiert.
2. Keine Wirkung ohne Nebenwirkung. Sie wollen das eine Übel durch das nächste tauschen. Es gibt aber keine Vollkommenheit. Es gibt auch etwas wie Schicksal.
Aus meiner Sicht wird das Hauptproblem sein, dass durch Computersysteme getroffene Entscheidungen oder Empfehlungen mehr und mehr gar nicht anders als durch statistische Beobachtung beurteilt werden können. Auch die Entwickler werden nicht im Detail offenzulegen in der Lage sein, warum ihr Programm zu diesem oder jenem Schluss gekommen ist. Selbstlernende Systeme machen es möglich. Und wenn sie gut gemacht sind und ihre Entwicklung durch ausreichend dimensioniertes, qualitativ hochwertiges Feedback getrieben ist, werden sie die besten menschlichen, von Erfahrung genährten Bauchgefühle und Instinkte überflügeln. Das Ergebnis kann den ohnehin nicht gering verbreiteten Technikglauben noch erhöhen. Dann Gnade denen, die durch das Raster gefallen sind, die unverschuldet aus unnachvollziehbaren Gründen vollkommen abwegig bewertet werden. Das wird die Potenzierung des schon vorhandenen „da wird schon etwas dran sein“, das werden die Betroffenen nicht mehr los.
Aus meiner Sicht hilft keine Algorithmen-Transparenzoffensive. Eine statistische Bewertung kann systematische Fehlleistungen aufdecken, das ist sicher wichtig (und bedarf mehr als je zuvor klarer, einvernehmlicher Regeln, nach denen wir Menschen zu bewerten geneígt sein wollen). Aber Rettung kann – wenn überhaupt – nur ein frühzeitig installierter Mechanismus sein, der den durch das eine oder andere Raster Gefallenen als Einspruchsadresse zur Verfügung steht. Falls die zunehmend genutzten computergestützten Bewertungssysteme eine ausreichende Qualität hätten, würden zu Unrecht durchs Raster Gefallene für ihre unter Umständen drastisch eingeschränkte Lebensqualität extreme Vergütungen empfangen können. Dann müsste das „durchs Raster fallen“ zum Hauptgewinn werden. Doch selbst der könnte verlorene Lebenstage, -monate oder -jahre nicht ersetzen. Darum müssten von solchen Systemen erwirtschaftete Mittel in extrem schnelle Reaktionszeiten eines wirklich funktionierenden ‚Korrektivs‘ fließen.
Vor dem Hintergrund aktueller Behördenträgheit oder -überforderung sehe ich da schwarz, da hilft kein Geld der Welt. Und die Mehrheit ist ja nicht betroffen. Wenn die Bewertungssysteme gut genug sind, werden die Kollateralgeschädigten so frei von jeglicher Hilfe bleiben wie bisher. Nur extremer, denn computergestützte Syteme haben das Potential, uns Menschen das Thema Fehlerträchtigkeit stärker denn je vergessen zu lassen als jedes an menschliche Fehler gekoppelte System.
P.S.
Teilweise anderes Thema, aber angesichts der für mich erschreckenden Akzeptanz von zunehmender Überwachung („ich hab doch nix zu verbergen“) befällt mich immer wieder der Gedanke, dass die aus der Mode gekommene göttliche Überwachung immerhin das Prinzip Gnade kannte. Am Ende der computergestützten Überwachungskette sitzen aber immer menschliche Köpfe, und Menschen haben mit Gnade eher selten was am Hut. Wollen wir wirklich daran glauben, dass das die von Musk, Gates und anderen als Gespenst an die Bildschirmhintergründe gemalte Singularität richten wird?
Ich stimme dem Kommentar von Joe weitestgehend zu.
Es wird überall entwickelt, aber viel zu wenig über die Auswirkungen für die Betroffenen nachgedacht. Jeder will zuerst auf dem Markt sein. In unserer globalen Welt ein unüberschaubares Risiko.
Auf die jetzigen Politiker (egal von welcher Partei) können wir uns leider nicht verlassen. Weder hierzulande noch in Europa. Aber wer bitte soll es dann richten?
Man hätte aus den Problemen mit der Kernenergie lernen können. Hat aber niemand. Es gibt nur Scheinlösungen. Und ich fürchte, dass das mit der Digitalisierung den gleichen Weg geht.
„Es wird überall entwickelt“
Liebe Ria Hinken.. wie Recht Sie haben.. Das traurige ist daran auch das die ganzen Fördergelder, an denen sich viele mit ihren Schwachsinnigen Ideen bereichern, auch noch die Allgemeinheit finanziert.
Eben. Es ist eine Irrlehre, dass komplexe Software nachvollziehbar sei. Wahrscheinlich von Juristen entwickelt. Schon bei Einführung der neuronalen Netze war klar, dass wir nicht mehr im Betrieb nachvollziehen werden können, wie die was gelernt haben. Aber da werden sie denm Mneschen immer ähnlicher.
Man übertrage diese unbegrenzte Naivität der Neo-Ethiker, die Algorithmen über wachen wollen, au fein anderes Beispiel. Wikipedia: „Ein Algorithmus ist eine eindeutige Handlungsvorschrift zur Lösung eines Problems oder einer Klasse von Problemen. Algorithmen bestehen aus endlich vielen, wohldefinierten Einzelschritten.“
Man stelle sich vor ein Polizist lernt während seiner Ausbildung klare Algorithmen wie er sich bei einer Demonstration verhalten soll. Dann sagen die naiven Neo-Ethiker, dann schauen wir bei Vorfällen wie den G20-Prügelorgeien in Hamburg einfach in das Gehirn der betroffenen Polizisten, welche Algorithmen da abgelaufen waren, die wir vorher zertifiziert haben. Bei einem Polizisten würden Normale nicht aus so bekloppte Ideen kommen. Bei Computer glauben die Naiven dran. Aber das war schon zu Z80-Zeiten mit 640kB RAM so. Aber man kann es ja mal fordern.
Aber ernsthafte Menschen wie Alan Turing haben schon vor vielen Jahrzehnten gesagt, dass Intelligenz dann vorliegt, wenn wir bei Problemlösungen Mensch und Maschine nicht unterscheiden können (Turing-Test). Genau das ist bei der Schieflage schwarzer Menschen in USA passiert. Die Computer haben den gleichen Skew wie die Menschen dort. Wir können also vermuten, dass sie von hoher Intelligenz sind. Aber in einer freien Gesellschaft kann man natürlich vor sich hinspinnen, was man will. Man kann den theoretischen Privacy-Missbrauch von US-Firmen hysterisch laut beklagen, und auf reale Menschen scheißen, die man zu Hunderten vom Himmel fallend sterben lässt, wie man bei der Autopiloten-Diskussion sieht.
Es würde nicht schaden, sich mit den Arbeiten Turings nochmal genauer zu beschäftigen. Schon der Wikipedia-Eintrag zum Turing-Test hat genug Hinweise.
Die Beschäftigung mit Alan Turing ist immer lohnenswert. Der Hinweis auf Wikipedia zeigt ja auch deutlich, dass die Aussage „„Trotz deutlicher Hinweise, dass die Software eine rassistische Schieflage im US-Justizsystem reproduziert und verstärkt, verweigert der Hersteller eine Offenlegung des dahinterstehenden Algorithmus mit Verweis auf sein Geschäftsgeheimnis.““ darauf hindeutet, dass wir bei der Justizsoftware eine hohe maschinelle Intelligenz haben, wenn sich ihre Ergebnisse nicht von Aussagen der US-Bevölkerungen unterscheiden, wenn wir zum Beispiel auch an die überproportional hohe Zahl der von der US-Polizei erschossenen Schwarzen denken.
Wikipedia zu Turing:
„In Computing machinery and intelligence (Mind, Oktober 1950) griff Turing die Problematik der künstlichen Intelligenz auf und schlug den Turing-Test als Kriterium vor, ob eine Maschine dem Menschen vergleichbar denkfähig ist. Da der Denkvorgang nicht formalisierbar ist, betrachtet der Test nur die Antworten einer Maschine im Dialog mit einem Menschen, d. h. das kommunikative Verhalten der Maschine. Wenn dieses von einem menschlichen Verhalten nicht unterscheidbar erscheint, soll von maschineller Intelligenz gesprochen werden. Er beeinflusste durch die Veröffentlichung die Entwicklung der Künstlichen Intelligenz maßgeblich.“
Mehr zu Turing, auch den außerberuflichen Facetten, findet man hier (insbesondere Links auf die drei Hauptwerke):
http://wk-blog.wolfgang-ksoll.de/2015/05/15/alan-turing/
Manno Lohmann vom Rheinischen Merkur hält den Heiligen Geist für einen Menschen mit der Fähigkeit der Telepathie. Aber dieser Mensch kann auch mal vergessen und vergeben. Ein Algorithmus nur entsprechend der Programmierung.
„Trotz deutlicher Hinweise, dass die Software eine rassistische Schieflage im US-Justizsystem reproduziert und verstärkt, verweigert der Hersteller eine Offenlegung des dahinterstehenden Algorithmus mit Verweis auf sein Geschäftsgeheimnis.“
Ich verstehe nicht, wieso hier der Hersteller kritisiert wird, wenn ganz klar dessen Auftraggeber versagt hat.
Schon bei der Ausschreibung/Anschaffung der entsprechenden Software hätte die zuständige US-Behörde die Offenlegung aller relevanten Algorithmen als Grundbedingung für den Kauf der Software fordern müssen. (Zudem, idealerweise, die Offenlegung der gesamten Software unter einer Freie-Software-Lizenz, plus Whitepaper zur Erläuterung der Algorithmen in allen Aspekten, die aus dem Quelltext nicht klar hervor gehen.)
Ja, die Software wäre dann teurer gewesen, aber wenn diese höheren Kosten den Nutzen überstiegen hätten (was ich bezweifle), dann hätte die Software erst gar nicht eingesetzt werden dürfen.
Die Durch-Digitalisierung unseres Lebens steckt zwar aus Sicht ihrer Befürworter noch in den Kinderschuhen, ist leider aber schon jetzt potentiell tödlich.
Beispiel:
Ich habe hier ganz aktuell, live und in Farbe den Fall, daß wegen eines auf 5 – 10 Sekunden programmierten sog. „Time-Out“-Code-Schnipsels potentiell 2 Menschenleben auf’s Spiel gesetzt werden. Doch die dahinter stehende, sich in keinster Weise verantwortlich fühlende Direktbank hat nach eigenen, mehrfachen Aussagen KEINERLEI Möglichkeiten, schadensmindernd einzuwirken bzw. ein potentiell vorzeitiges Ableben Ihrer Kunden in Ermangelung eines Zugangs zu so etwas Schnödem wie existentiell notwendigen Nahrungsmitteln zu verhindern. Auch nicht in Kenntnis, daß betroffener Kunde – derartige „Time-Out“’s mit zeitgleichem Bankkarten-Einzug aus rein technischen Gründen kämen übrigens häufig vor, erklärte man mir – nicht nur sich selbst zu ernähren und lfd. Verpflichtungen zu erfüllen hat, sondern auch 24/7 pflegerische Verantwortung für einen schwerkranken und schwerbehinderten Menschen obliegt.
Mit der postalischen Zustellung einer neuen Ersatz-Bankkarte sei jedenfalls im Durchschnitt erst nach 7 Tagen zu rechnen. Der in dieser Notlage wortreich beworbene „Alleskönner“ als einziger Retter in dieser Situation jedoch, eine Telefonbanking-PIN, wäre schon in 2 Tagen zugestellt.
Fakt ist: Uns wird mit heutigem Samstag den nunmehr 9. Tag in Folge jeglicher Zugang zum hinreichend gedeckten und sonst mit keinerlei Belastungen eingeschränktem Konto verunmöglicht. Und auch nach Tag 4 ist noch immer keine Telefonbanking-PIN postalisch zugestellt worden. (Wie lange überlebt man noch gleich ohne Nahrung?)
Mittels eines Code-Schnipsels, der ei-gent-lich nach inaktiven 5 – 10 Sekunden am Bankterminal lediglich die gerade aktive Session unterbrechen sollte, werden tatsächlich aber Menschen hierzulande von jetzt auf gleich völlig unvorbereitet ins wirtschaftliche Off gestellt. Ein lausig gefrickelter Code, der über Wert und Unwert von Menschenleben entscheidet.
Denn in den nächsten etwa 7 Tagen wie gesagt obliegt es allein dem hierauf völlig unvorbereiteten Bankkunden in Abhängigkeit seiner eben nicht normierbaren, jeweils individuellen Lebensumständen, ob und wie er überlebt. Und vorsichtshalber: NEIN – dass hier ist definitiv KEIN Bettelbrief.
Btw. Wieviel Bargeld habt IHR gerade noch in der Tasche? Paßt auf Euch auf … ;-).
Deutschland – bekanntlich nicht auf dem Afrikanischen Kontinent beheimatet, den 9. Dezember 2017