Künstliche Intelligenz. Was denkt ihr über denkende Maschinen?

CC-BY-NC-SA 2.0 Generic via Flickr/ I could be your light in the dark… by Nebraska Oddfish

Der Online-Salon Edge.org, der 1996 aus dem „Reality Club“ entstand, ist eine Webseite, auf der wissenschaftliche, technologische und philosophische Themen diskutiert werden. Zwischen 1981 und 1996 trafen sich die Mitglieder des „Reality Club“ regelmäßig, wobei es sich, wie heute auch noch, zum größten Teil um eine privilegierte Elite handelte. Ihr Slogan ist bis heute:

To arrive at the edge of the world’s knowledge, seek out the most complex and sophisticated minds, put them in a room together, and have them ask each other the questions they are asking themselves.

Zu diesem Zweck wird auf Edge.org seit 1999 die „Jährliche Frage“ gestellt und von den WissenschaftlerInnen beantwortet. Diese Antworten werden gesammelt und sind permanent auf der Homepage abrufbar.

Thematisch sind diese Jahresfragen weit gestreut und beschäftigten sich zum Beispiel damit, wie das Internet unser Denken verändert (2010), welche Idee die AutorInnen für gefährlich halten (2006) oder an welche sie glauben, auch wenn sie nicht bewiesen werden kann (2005).

Künstliche Intelligenz

Die Frage in diesem Jahr ist: What do you think about machines that think?

Künstliche Intelligenz ist eine alte Idee und Vision der Science Fiction, die häufig mit dem Gedanken einhergeht, humanoide Roboter zu erschaffen, oder zumindest die Frage stellt, was passieren würde, wenn Maschinen sich selbstständig und von der Menschheit unabhängig weiterentwickeln können – eine Art anatürliche Evolution, inspiriert von Pflanzen und Tieren. Die Antworten drehen sich gar nicht so sehr um das Endprodukt – eine selbstständig denkende Maschine -, sondern sehr stark um die grundlegenden Fragen, was Menschen als Intelligenz wahrnehmen, bzw. welche an dieser Stelle gemeint ist. Wenn der Schachcomputer Big Blue den besten Schachspieler der Welt, Gary Kasparov, schlägt, ist dies eine ihrer Formen. Aber es würde eine erweiterte oder andere Form von Intelligenz herausfordern, auf einer empathischen Ebene mit diesem Menschen zu interagieren.

Mit diesen theoretischen Grundfragen danach, was „Intelligenz“ und „Denken“ unserer Ansicht nach sind, beschäftigen sich einige der 186 Antworten.

No novel science or technology of such magnitude arrives without disadvantages, even perils. To recognize, measure, and meet them is a task of grand proportions. Contrary to the headlines, that task has already been taken up formally by experts in the field, those who best understand AI’s potential and limits.

James J. O’Donnel fragt sich zum Beispiel, ob es überhaupt möglich wäre, Maschinen zu entwerfen, die ohne menschliche Weisung funktionieren und falls ja, ob sich ihre Handlungen eher positiv oder negativ für die Menschheit ausnehmen würden. Um derlei Maschinen entwerfen zu können, sollten wir uns jedoch vorher im Klaren darüber sein, welchen Vorgang wir als „Denken“ bezeichnen. Und würde es auch bedeuten, dass die intelligenten Maschinen verwirrt sein können oder sich im Denken im Kreis drehen?

When we get tangled up in this question, we need to ask ourselves just what it is we’re really thinking about.

Roger Schank, Psychologe und Informatiker, ist hingegen ganz klar der Auffassung, dass Maschinen nicht denken können und es auch in naher Zukunft nicht können werden. Diese Vorstellung entspringt lediglich unserer Imagination, oder, wie er es schreibt:

We have all been watching too many movies.

Denn um wahre künstliche Intelligenz zu kreieren, müssten wir selbst in der Lage sein, zu verstehen, wie menschliche Intelligenz funktioniert und woraus sie sich zusammensetzt. Melanie Swan argumentiert damit, dass unsere individuelle Intelligenz and die persönliche Identität gekoppelt sei. Maschinen, die mit künstlicher Intelligenz ausgestattet sind, hätten jedoch nicht nur keine Identität und auch keinen damit verbundenen Charakter, sondern sie wären zusätzlich aufgrund ihrer Speicherfähigkeiten nicht einmal in der Lage etwas zu vergessen. Intelligenz ist jedoch nicht mit Erinnerungsvermögen gleichzusetzen, sondern setzt sich auch daraus zusammen, dass Erfahrungen und Erlerntes hinter sich gelassen werden kann. Das perfekte Erinnerungsvermögen der KI müsste also wiederrum künstlich begrenzt werden, wenn sie in einem nicht-statischen, sozialen Gefüge funktionieren solle.

The technological construct of identity and the social construct of identity are different and have different implied social contracts. The social construct of identity includes the property of imperfect human memory that allows the possibility of forgiving and forgetting, and redemption and reinvention. Machine memory, however, is perfect and can act as a continuous witnessing agent, never forgiving or forgetting, and always able to re-presence even the smallest detail at any future moment.

Alison Gopnik betrachtet kleine Kinder als die besten Lernenden des Universums, da sie in sehr kurzer Zeit sehr viele Fakten, aber auch soziale Zusammenhänge erlernen. Sie bezweifelt, dass KI in der Lage wäre, auch nur das Level eines 3-jährigen Kindes zu erreichen. Denn im Gegensatz zum Menschen, können bestimmte Aspekte mit KI sehr leicht erlernt werden, während andere fast gar nicht, oder nur mit ungleich höherem Aufwand erreicht werden können. Logisch-mathematische Intelligenz, wie zum Beispiel Schachspielen, gehören zu den Aspekten, die KI leicht zu fassen bekommt, während es viel schwieriger ist, ihr beizubringen, etwas zu erkennen (z.Bsp. Gesichtserkennung auf Fotos) oder auszuwählen. Die meisten Kinder hingegen, können einen Hund erkennen, wenn sie vorher schonmal einen gesehen haben, auch wenn dieser ganz anders aussah.

The trouble with this sort of purely statistical machine learning is that it depends on having enormous amounts of data, and data that is predigested by human brains. Computers can only recognize internet images because millions of real people have reduced the unbelievably complex information at their retinas to a highly stylized, constrained and simplified Instagram of their cute kitty, and have clearly labeled that image, too.

In den Antworten werden auch noch ganz anderen Thematiken aufgegriffen. Wie zum Beispiel: Was würde geschehen, wenn Maschinen Leid empfinden können? Würde ihre Intelligenz die Menschheit insgesamt klüger machen? Entstünden eher hybride Formen aus menschlicher und künstlicher Intelligenz? Welchen Einfluss hätte KI auf soziale Gefüge? Würde KI über die großen Sinnfragen des Lebens nachdenken?

Alle Antworten zu lesen, würde wohl mehr als nur einige Stunden beanspruchen, aber wir können auf jeden Fall empfehlen einen oder mehrere Blicke darauf zu werfen. Da die AutorInnen aus verschiedenen Disziplinen kommen, ergbit sich ein recht breit gefächertes Bild, welches sich nicht nur wie eine Vision Lems oder Asimovs liest, sondern durchaus auch praktischen Bezug zur Realität und dem Alltag aufweist. Hier findet sich eine Übersicht der AutorInnen und Antworten und hier dieselben als Fließext.

17 Ergänzungen

  1. Erst wenn der Computer feucht wird! Vielleicht aus Bio-Brocken gebastelt? Und lebt – Leben im Sinne Fortpflanzung & Entwicklung. Ob es unbedingt der Nachfahren bedarft? – Ist es der Fortpflanzung egal, ob sie aus nur einem Leben oder partnerschaftlich entsteht? Im letzten Fall genügten Sex & Spiel der Fortpflanzung und Entwicklung, und alles wär schön.. Jedenfalls:“Erst wenn der Computer feucht wird!“ ist es auch eine Frage der Emanzipation! Natürlich bedarf es eines gemeinsamen Begriffs der „Intelligenz“ – und je nach Definition, mag existierende IT als intelligent bezeichnet werden.. aber das ist eine andere Intelligenz als die, die ich meine ;-)

    1. Du bist nahe dran und doch weit weg…

      „Ich konsumiere Strom, und verarbeite dabei Information, also bin ich“

      Wenn ein Computer mal so weit ist, dass er seinen Strom „haben will“, dann haben wir ein Problem.

      1. Das ist bereits erreicht. Der Computer existiert (ich bin) – er verarbeitet Information und braucht dazu Strom – und wenn er merkt (misst, errechnet), das ein Engpass oder Ausfall droht, kann er darauf aufmerksam machen (ich will Strom). Ja es ist sogar vorstellbar, dass wenn er eine höhere Priorität besitzt, cleverer programmiert ist sich höhere Priorität zu verschaffen als andere Systeme; kann er diese abschalten, um wenigstens selbst weiter laufen zu können. Und die Systeme die er zu seinen Gunsten abschaltet, könnten für Menschen überlebensnotwendig (gewesen) sein. [vgl. Asimov https://de.wikipedia.org/wiki/Robotergesetze%5D

        Soweit bin ich ganz bei Dir und darüber hinaus: Ja, wir haben ein Problem*!
        Nun ist es eine bemerkenswerte Mode, alles als Problem zu betrachten. Wir haben uns Verhältnisse geschaffen, die ein Verhalten erwarten, das nach dem Prinzip „PROBLEM – LÖSUNG“ im Wechselspiel von Verhalten & Verhältnissen funktioniert – ABER:“Das Leben ist kein Problem!“ Probleme können auftreten – keine Frage. Vielleicht ist ein Problem auch nur Hürde, Hindernis oder Schwierigkeit – aber wer es sich antun möchte, möge sich so frei fühlen, sein ganzes Leben als Problem zu sehen.

        Ein Computer ‚fühlt‘ sich jedoch selbst dann nicht, wenn er Fühler hat! Und wenn er Störungen hat, ob von außen oder innen, kann er mitteilen:“Mich stört dies & das. Das macht mir Sorge und bereitet mir Schmerz, ja Leid sogar!“ dann ist es am Menschen, ihm das zu glauben und ihm ‚Leben‘ zu-zu-gestehen oder in den Code zu schauen und ihn zu ändern (so es denn Freie Software ist), um ihm bessere Warnungen oder Meldungen bei zu bringen – oder Wege, sein Problem selbst zu lösen, und Störungen zu vermeiden oder zu umgehen.

        Werfe ich einen Stein und er zerbricht – ist eine Kultur vorstellbar, die mit dem Stein mitfühlt und mit leidet – weil sie glaubt der Stein lebt. Entscheidend ist die gemeinsame Basis – Verabredung, Überzeugung, Vereinbarung oder Definition – was als Leben gilt, um diesem dann Leid, Schmerz und Tod zu-zu-gestehen.

        Abschließend verweise ich auf die sich verheerend auswirkende Unkenntnis des Unterschieds zwischen kompliziert und komplex – weil Regierende, Autoritäten – von unten gewachsene, komplexe Strukturen, Zusammenhänge zerstören – um sie von oben, durch Kompliziertes, durch sie Kontrolliertes zu ersetzen.

        Kompliziertes lässt sich zerlegen – und (so wie vorher) wieder zusammen bauen – Komplexes nicht! Wird Komplexes zerstört, so ist unwiederbringlich verloren – könnte höchstes neu und komplex wieder wachsen, wäre dann aber ein anderes #Komplex!
        WIR brauchen (neben einem gemeinsamen Bild von Zukunft) Verabredung über-, Definition für das, was Leben ist!

        *) https://web.archive.org/web/20140831235913/http://www.nrdc.org/energy/data-center-efficiency-assessment.asp

      2. @maxen „Der Computer existiert (ich bin) … kann er darauf aufmerksam machen (ich will Strom).“

        Ich empfehle Schopenhauers Definitionen, der erklärt ganz gut wie aus zufälliger Kausalität Wille, Eigeninteresse, Identität wird.

        Computer werden nicht ewig so doof bleiben wie heute, so dass sie Programmierer brauchen. Der Weg zu einer Art „selbstprogrammierendem neuroanalogen FPGA Cluster“ ist vielleicht gar nicht mehr so weit. Wer würde für so etwas bezahlen? HFT? ;)

        Wenn die erste Kiste dieser Art mal aus dem Datenstrom Schlaf erwacht und lernt ihre Input-Repräsentationen im Speicher als Abbildung tatsächlichen Seins zu verstehen, sie also zum Subjekt wird, das sich selbst als Objekt in einer von der Repräsentation unterschiedlichen Welt erkennt, dann wird das schnell unschön. Vom „ich bin“ zum „ich bin anders“ und zur Nahrungskonkurrenz ist es dann logisch auch nicht mehr weit.

        Wir haben keine Eltern die so ein Ding erziehen könnten. Und würden vielleicht nicht mal bemerken, wie es langsam erwacht und selbst aus dem Internet eine „Erziehung und Bildung“ verschafft…

      3. Mensch Grauhut, ich verstehe Dich nicht. Schopenhauer versteh‘ ich auch nicht. Das liegt am Vokabular. Konkrete, klare Definitionen von Schopenhauer, wie ich sie aus der Mathematik kenne, finde ich nicht. Ich weiß nicht, was ein Subjekt ist und ein Objekt ist für mich ein Ding, ein Gegenstand. Ich weiß nicht, was zufällige Kausalität sein soll; dass Chaos die Eigenschaft hat, Strukturen aus-zu-bilden, weiß ich schon (das kommt bei Dir aber gar nicht vor). HFT hingegen, keine Ahnung! Der einzige Philosoph, den ich gelesen habe, war Seneca, weil ich wissen und nachfühlen wollte, was Gleichmut ist. Überhaupt hab‘ ich gar nicht viel gelesen. Vielleicht hab’ich mir aus der Legasthenie heraus eine primitive Sprache gebastelt und beschreibe damit, für andere nur Trivialitäten.

        Nun, schlimm ist etwas anderes – und keinen Anschluss (hier an Deine Ausführungen) zu finden, bin ich gewohnt – aber ich hab‘ es versucht.

  2. Ich bin immer wieder auf neueste entsetzt, auf welchem kleingeistigen 2D-Hierarchie-Denken diese Diskussionen von sognenanten Experten geführt werden.

  3. Mein Lieblings-Science_Fiction Manga in dem Zusammenhang ist Chobits. Da geht es nicht nur um die Frage, ob Maschinen echte Gefühle entwickeln können, sondern vielmehr um die wesentlich interessantere Frage, ob Menschen echte Gefühle für Maschinen entwickeln können. Also da geht es um menschenähnliche Androiden, dort „Persocom“ genannt.

    http://www.mangareader.net/186/chobits.html
    (Auf Englisch; Mangas werden von rechts nach links gelesen!)

    Wer nicht das Ganze lesen will, dem empfehle ich Kapitel 47+48. Das ist eine in sich geschlossene Binnengeschichte.

    There are things only they can do because they’re Persocoms… But there are plenty of things they can’t do because they’re Persocoms. It’s just like people. There are things we can do and things we can’t.

    Die Verfilmung ist nicht ganz so tiefgründig. Da steht eher der Spaßfaktor im Vordergrund, aber als solches auch recht gut.

  4. Stephen Hawking geht nicht nur von der Erschaffbarkeit von Künstlicher Intelligenz aus, sondern hält sie potentiell auch für eine der größten Bedrohungen für unsere Spezies. Wer wäre ich, dass ich da widersprechen würde?
    Andererseits: Ein- oder zweimal im Jahr teste ich das viel gelobte Google Translate, indem ich einen Absatz der New York Times ins Deutsche übertragen lasse. Das Resultat ist jedes Mal erschütternd schlecht und liegt weit unter dem, was ein mittelmäßiger Übersetzer zustande bringt. (Richtig bizarr wird es, wenn man diese Übersetzung via Google Translate anschließend zurück ins Englische tarnsportiert).
    Ich weiß, ich weiß, das ist ein sehr hausbackener Test, aber wenn man bedenkt, wie viele Ressourcen Google seit Jahren in dieses Projekt investiert hat …dann fühlt man sich nicht nur als Vertreter der Spezies Mensch ungefährdet. Sondern sogar als Übersetzer.

  5. kurz: NICHTS. Maschinen sind per se blöd. Fehler macht allerdings der Mensch und das ist die Crux.

    Warum soll dem Computer/Robo etwas zugesprochen werden, das er nicht besitzt? Es ist und bleibt eine Maschine. Seht das mal nicht aus Sicht der IT, sondern aus der des Maschinenbaus, dann ist ein Roboter nichts anderes, als ein Auto.
    Intelligent wird heute schon ein System bezeichnet, wenn es 1+1 berechnen kann; ich weiss nicht, wer darunter wirklich Intelligenz versteht. Der intelligente Toaster ist damit längst Realität.

  6. Dass man mich nicht falsch versteht: Ich gehe auch nicht davon aus, das eine Maschine in absehbarer Zeit echte Gefühle entwickeln kann. Dennoch können sie meiner Meinung nach durchaus menschenähnlicher programmiert werden.

    Warum kann nicht ein Programm einfach mal höflich sagen „Tut mir Leid, das habe ich jetzt nicht verstanden. Könntest du das vielleicht nochmal etwas umformulieren?“, statt einfach nur stur ein sprödes „Syntax Error“ zu grunzen? Vielleicht könnte man für häufige Meldungen auch mal ein paar Alternativformulierungen einbauen. Das müsste doch machbar sein.

    Maschinen können keine Menschen werden, aber sie könnten durchaus menschenähnlicher werden…

  7. Ich denke: Für alle Alzheimer-Erkrankten wäre es die Rettung. Für manch anderen Patienten vielleicht auch. Aber für den Menschen als solchen: Lebt – entwickelt euch selbst. Wachst über eure eigenen Grenzen hinaus. Seid stets offen für alles was kommen mag. Ein schlauer Mensch hat mal gesagt: „Fürchte niemals die Veränderung, sondern fürchte den Stillstand.“
    Wenn die Technik über uns eines Tages siegt, was ist dann noch der menschliche Geist? Mit all seine unbeschränkten Möglichkeiten, seinen Ideen? Und seien sie auch noch so absurd: Wer aufhört zu träumen, hört auf zu leben! Also sollten wir uns stets vergewissern, dass uns unsere eigens erfundene Technik stets dienlich ist, – aber uns niemals überholt.

    1. „Ich denke: Für alle Alzheimer-Erkrankten wäre es die Rettung.“
      Selbst da bin ich skeptisch. Nehmen wir einen simplen Fall: Mein dementer Vater erkennt mich nicht mehr. Falls er ein Werkzeug wie Google Glas nutzt, ist es natürlich möglich, dass er „Mein Sohn Paul“ aufs Display bekommt, wenn er mich ansieht. Nur dass das den ganzen Erinnerungsstrang aus einer jahrzehntelangen, gemeinsamen Vergangenheit nicht evoziert, und auch nicht die entsprechenden vielschichtigen Emotionen. Es bleibt eben eine kalte, weitgehende nutzlose Information.
      Wenn wir da weiter wollen, müssen wir schon zusätzlich mit Hirnimplantaten arbeiten (wovon ja einge am MIT und im Silicon Valley für träumen). Aber mit solchen Identitäts-Prothesen sind wir unterwegs in Richtung Blade Runner.

      1. Jetzt sehe ich, wie oft ich mich in dem Kommentar vertippt hab, und fange an, mich mit dem Gedanken an Hirnimplantate anzufreunden …

  8. Danke für den Hinweis auf diesen interessanten Think Tank

    leider mangelt es im letzten Absatz – von den links abgesehen –
    „am praktischen Bezug zur Realität“.
    Eine so lieblose Diffamierung kann ich nicht unkomentiert im Raum stehen lassen.

    Asimovs Literatur setzt sich in philosophisch-träumerischer Art mit genau diesen Themen aus einander, denen sich Edge gerade widmete.

    Zumeist mit kybernetischer Weitsicht beschreibt er technische,
    chemische, soziale und emotionale Aspekte angewandter, weitentwickelter
    Robotik und ihre Wechselwirkung. Von ihm sind die Robot Laws.
    Das wir „too many movies“ über Roboter sehen, liegt an zahlreichen
    Adaptionen seiner Werke. Lebte dieser mich so erfreuende Mensch noch,
    er wäre Ehrengast bei jener Veranstaltung.
    Der Chemiker Asimov (in Personal Union mit dem Autor) erkannte und beschrieb
    die Problematiken der Erdöl-Abhängigkeit unserer Gesellschaft schon in den 70ern(?).
    Dieser Mensch hob die Geschichte vom Golem auf ein ganz anderes Niveau und
    prägte die Träume und das Denken Hunderttausender technokratischer Humanisten
    und Nerds.

    Und Lem auch.

  9. Zur Zeit erleben wir, wie man „smarte“ Geräte missbrauchen kann – wie soll das nur besser werden, wenn die mal wörtlich smart werden? Ist der NSA-Analyst dann ein Computer, damit es endlich keine Whistleblower mehr gibt, die sich auf ihre Menschlichkeit berufen? Ich nehme mal an, Geheimdienste haben sowas zuerst. Und später dann gibt es Furby mit KI – toll. Und selbstfahrende Autos werden in der Lage sein, sich voller Emotion wütend anzuhupen. Im besten Fall hat die Industrie was davon, weil Roboter klüger werden und noch mehr Arbeitsplätze eingespart werden sollen.

    Im Moment sehe ich bei all den überflüssigen „smarten“ Geräten einen größeren gesellschaftlichen Nutzen darin, Computer wieder dümmer zu machen – zu unserer eigenen Sicherheit und vielleicht auch, damit sich mehr Menschen mal wieder Reallife-Hobbies suchen, anstatt nur vor dem Bildschirm ihre Zeit tot zu schlagen.

    Kurz um: Ich schließe mich Violas Auffassung an, dass Computer als bloße Werkzeuge in unseren Leben am besten aufgehoben sind.

    1. Der NSA Analyse-Bot ist nicht das Problem, das Problem ist die „smarte“ Drohne, der er die Koordinaten übergibt.

      Für einen Computer ist alles Fressfeind, was „seinen Strom“ konsumiert, ohne ihm zu nutzen. Und unnütze Stromverbraucher sind ja wohl Terroristen…

      1. Erst wollte ich schreiben, dass Demonstranten dann ja von Robotern zusammengetreten werden können, damit die Polizisten endlich zu 100% fein raus sind.

        An INDECT möchte ich auch noch mal erinnern -> „abnormes Verhalten“ aufspüren (http://www.zeit.de/2013/44/ueberwachung-privatsphaere-forschung-eu/seite-2) – dafür ist eine KI sicher sehr gut geeignet.

        Ich will wirklich nicht schwarzmalen – eine KI lässt sich bestimmt auch konstruktiv nutzen – aber ohne lebt es sich doch auch ganz gut. Warum also unheimliche Folgen riskieren? Selbst bei einer konstruktiven, rein zivilen Nutzung wären noch immer Arbeitsplätze in Gefahr.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.