Dies ist ein Auszug aus dem Buch „Die Künstliche Intelligenz des Kapitals“ von Timo Daum, das im März 2019 bei Nautilus erscheint.
Insbesondere im Bereich der Bilderkennung, beim autonomen Fahren oder bei Sprachassistenten, die natürliche Sprache verstehen und generieren können, sind erhebliche Fortschritte erzielt worden. Maschinelles Lernen wird immer weiter verbessert und schließlich auch zum ökonomischen Faktor – Amazon macht 35 Prozent seines Umsatzes durch Käufe, die durch das Klicken auf vorgeschlagene Produkte zustande gekommen sind. Hinter Amazons Vorschlägen steckt eine „maschinelle Lernempfehlungsmaschine“, so die von einer weiteren KI, nämlich von Google Translate, generierte Übersetzung von machine learning recommendation engine.
Im Jahre 1959 brachte der amerikanische KI-Pionier Arthur Samuel einem Computer das Dame-Spiel bei und implementierte dabei die ersten selbstlernenden Verfahren. Spiele haben in der Geschichte des Computers schon immer eine große Rolle gespielt – als Testszenarien, aber auch als Werbemaßnahmen. Brettspiele wie Dame oder Schach, aber auch das Go-Spiel, sind durch einfache Regeln bestimmt, die in wenigen Zeilen Code implementierbar sind. Das Dame-Spiel ist dabei eines der einfachsten. Weiße und schwarze Steine werden abwechselnd auf einem 8×8-Brett platziert, Steine dürfen nur in diagonaler Richtung vorwärts bewegt werden, ein gegnerischer Stein kann durch diagonales Überspringen geschlagen werden, beim Schlagen gegnerischer Steine sind mehrere Züge in Folge erlaubt – solche Regeln lassen sich umstandslos in Programmcode überführen; ein Computerprogramm, das Dame regelkonform spielen kann, ist schnell geschrieben.
Doch wie bringe ich dem Programm bei, aus den formal korrekten Zügen denjenigen auszuwählen, der die besten Chancen bietet, das Spiel zu gewinnen? Der historisch zunächst verfolgte Ansatz lässt sich unter dem Begriff „brute force“ zusammenfassen: Alle möglichen Züge und alle möglichen Folgezüge werden untersucht und nach vorgegebenen Kriterien bewertet, etwa nach der Anzahl eigener Steine und deren Nähe zum gegnerischen Ende des Brettes. Der Zug mit der höchsten Bewertung ist der beste. Diese Methode gerät jedoch schnell an ihre Grenzen, schon bei einer untersuchten Tiefe von wenigen Zügen steigt die Zahl der Möglichkeiten ins Unermessliche. Gebraucht werden also Strategien, die nur die aussichtsreichsten Züge untersuchen und bewerten.
Hier kommt das Konzept des Lernens ins Spiel: Die Ergebnisse vergangener Spiele fließen in die Bewertung der Stellungen ein. Wurde ein Spiel gewonnen, können entsprechend alle vorangegangenen Stellungen dieses Spiels positiver bewertet werden und umgekehrt. Das Programm wird besser, da es in Zukunft eher Positionen anstreben wird, die bereits in der Vergangenheit auf einem Gewinnerpfad lagen. Mit dieser Methode gelang es Arthur Samuel, sein Programm so zu trainieren, dass es nach nur acht Stunden Trainingszeit besser spielte als er selbst.
Samuel selbst prägte den Begriff machine learning für das Teilgebiet der Künstlichen Intelligenz, das auf Lernverfahren basiert. Mit der landläufigen Vorstellung von allgemeiner Künstlicher Intelligenz hat dieser Bereich wenig gemein, geht es doch meist darum, Software mit einer Menge an Daten zu füttern, damit diese bei der Bewältigung eng begrenzter Aufgaben im Laufe der Zeit besser wird. Oder, wie Arthur Samuel es formulierte, sie auszustatten „mit der Fähigkeit, zu lernen, ohne dafür explizit programmiert worden zu sein“. Gemeint ist damit, dass der Programmcode nur die Regeln enthält, während die Qualität des Spiels durch die Daten geliefert wird, die in Bewertungen bestimmter Konstellationen eingehen, die vorher eben nicht existierten. Insofern kann das Programm im Laufe der Zeit besser werden, ohne dass sich an der zugrundeliegenden Programmierung etwas geändert hätte.
Drei Typen von Maschinen
Es gibt Maschinen, die nur für eine bestimmte Aufgabe konstruiert sind: Ein Haartrockner kann föhnen, sonst nichts. Ich kann ihn zwar zweckentfremden, also damit beispielsweise ein Türschloss enteisen, trotzdem hat er einen sehr eingeschränkten Anwendungsbereich – es handelt sich sozusagen um eine eindimensionale Ein-Zweck-Maschine. Diese nenne ich Typ1-Maschinen.
Dann gibt es Maschinen, die nicht nur ein Problem oder einige wenige lösen können, sondern ganze Klassen von Problemen, weil sie programmierbar sind: Mit einem neuen Programm ausgestattet, sind sie auch in der Lage, neue Probleme zu lösen. Diese Maschinen nennen wir Computer, deren theoretische Basis bzw. deren Aktionsradius schon Alan Turing beschrieben hatte. Die Anwendungsmöglichkeiten sind dabei im Prinzip unendlich, weil es ja unendlich viele Möglichkeiten gibt, Software zu programmieren – wir haben es demzufolge mit Viel-Zweck-Maschinen zu tun. Ich nenne sie Typ2-Maschinen. Typ2-Maschinen sind eine tolle Sache, täglich werden die Aufgaben mehr, die sie zu bewältigen in der Lage sind. Trotzdem haben sie die Eigenschaft, dass sie ein- und denselben Code immer nur exakt gleich ausführen, deshalb nennt man sie auch deterministische Automaten. Selbst nach der x-ten Ausführung des Programmcodes hat sich ihr Funktionsumfang nicht erweitert, sie liefern im Prinzip dieselben Ergebnisse – sehen wir einmal von Zufallszahlen ab. Sie sind mit der Zeit nicht besser geworden, aber auch nicht schlechter. Ada Lovelaces Argument, dass diese nicht in der Lage sein würden, über das in sie Hineinprogrammierte hinauszuwachsen, trifft absolut zu.
Typ3-Maschinen werden ebenfalls auf Computern simuliert, unterscheiden sich aber von Typ2-Automaten dadurch, dass sie durch maschinelles Lernen befähigt werden, bei ein und derselben Aufgabe im Laufe der Zeit veränderte und – so die Hoffnung – verbesserte Ergebnisse zu liefern im Zusammenspiel mit den Daten, mit denen sie gefüttert werden. Insofern sind Typ3-Maschinen keine deterministischen Automaten mehr, das Argument von Lady Ada gilt nicht mehr: Auf dieselbe Eingabe folgt bei gleichen Ausgangsbedingungen nicht notwendigerweise dieselbe Ausgabe bzw. dasselbe Ergebnis. Im Unterschied zu Maschinen vom Typ1 und Typ2 sind Typ3-Maschinen in der Lage, Aufgaben zu lösen, für die sie so nicht programmiert worden sind. Dazu muss die Software lernen, und lernen heißt, aus sehr vielen Daten Modelle abzuleiten.
Nehmen wir an, wir füttern Software mit den Bewegungsdaten einer Person. Diese geht werktäglich zur Arbeit, kauft ein, unternimmt Reisen, besucht Freunde. Nachdem eine gewisse Zeit vergangen ist bzw. eine Menge Daten angehäuft sind, wird die Software in der Lage sein, Voraussagen für zukünftiges Verhalten zu treffen. Und mit hoher Trefferquote voraussagen können, dass die Zielperson an einem Montag um neun Uhr ins Bad gehen wird. Sie hat ein Modell ihres Gegenstandes entwickelt und kann beinah jeden seiner Schritte vorhersagen, ohne zu wissen, was ein Mensch ist und ohne jegliches Verständnis dafür, was Arbeit oder Schlaf bedeuten. Von einer solchen einfachen KI-Anwendung kann erwartet werden, dass sie nach einer Weile ihr Modell so gut kennt, dass sie etwa zu der Aussage: „Musst du nicht heute zum Sport?“ fähig ist. Aber auch die dystopische Anwendung scheint in diesem einfachen Beispiel auf: „Ich habe gerade deiner Versicherung mitgeteilt, dass du schon wieder nicht beim Sport warst.“
Geheimnis Lernen
Marvin Minsky, einer der Pioniere der KI und Teilnehmer des Gründungs-Hangouts am Dartmouth College, nannte Wörter, die eine Vielzahl an Bedeutungen haben können, „Kofferwörter“ (suitcase words): Ein und derselbe Behälter (das Wort) kann ein ganzes Sammelsurium an Bedeutungen enthalten. „Lernen“ ist ein solches Kofferwort, genau wie „Intelligenz“ auch: Fahrrad fahren lernen, eine Sprache lernen, Programmieren lernen, ein Gedicht auswendig lernen, Schach spielen lernen, Tango tanzen lernen – immer ist von Lernen die Rede, dabei sind die Vorgänge jeweils denkbar unterschiedlich.
Wenn wir als Kinder unsere erste Sprache, die Muttersprache, lernen, dann sprechen wir nach, imitieren, sammeln, variieren, probieren aus, kurz: Wir lernen intuitiv. Bald beherrschen wir unsere Muttersprache, ohne explizit ihre Regeln zu kennen, ohne z. B. sagen zu können, was eine Partizipialkonstruktion ist. Ganz anders läuft in der Regel das bewusste Erlernen aller weiteren Sprachen, der Fremdsprachen ab: Wir eignen uns bewusst Vokabeln und Regeln an und prozessieren Input und Output, ganz wie eine deterministische Symbolverarbeitungsmaschine das auch täte, also Software, die ein Programm in formallogischer Sprache abarbeitet. Diese Form des Lernens bereitet uns viel mehr Mühe, und unsere Beherrschung der Fremdsprache reicht nie an die der Muttersprache heran. Die Unterscheidung zwischen Mutter- und Fremdsprache geht auf die Theorie des Zweitspracherwerbs des Linguisten Stephen Krashen zurück, die dieser in den 1970er Jahren entwickelt hatte. Krashen differenziert darin prinzipiell zwischen dem bewussten grammatikalischen Prozess des Lernens (learning) und der Aneignung (acquisition) der Muttersprache durch Kinder. Es handelt sich um grundsätzlich verschiedene Lernprozesse, die im Übrigen auch in unterschiedlichen Hirnregionen stattfinden.
Wie Maschinen lernen, ist nicht zu vergleichen mit dem schwammartigen Aufsaugen von Information, deren Rekombination und Abstraktion, die wir von uns selbst kennen. Wenn wir hören, dass ein Computer den Schachweltmeister (1997) oder den weltbesten Go-Spieler (2016) schlagen kann, neigen wir dazu, davon auszugehen, die Computer hätten das Spiel gespielt „wie ein Mensch“. Natürlich haben diese Programme in Wirklichkeit keine Ahnung, was ein Spiel ist. Sie spielen es zwar besser, stellen sich aber gleich wieder ganz blöd an, sobald man die Regeln ein wenig ändert. Für einen Menschen ist das prinzipiell kein Problem, die KI hingegen muss wieder ganz von vorne anfangen mit dem Trainingsprozess.
Unser Gehirn: Die einzige bisher bekannte Umsetzung einer Allgemeinen Künstlichen Intelligenz
Das Gehirn ist das komplexeste Organ und gleichzeitig die mächtigste Denkmaschine, die einzige bisher bekannte erfolgreiche Umsetzung einer Allgemeinen Künstlichen Intelligenz, man könnte es auch Typ4-Maschine nennen. Da liegt es nahe, einen Nachbau zu versuchen. Erste Konzepte für künstliche neuronale Netze (ANN, artificial neural networks) skizzierten der Neurophysiologe und Kybernetiker Warren McCulloch und der Mathematiker Walter Pitts schon 1943, ab 1954 gab es dann die ersten Umsetzungen auf Rechenmaschinen.
Unser Gehirn, das natürliche neuronale Netz par excellence, verfügt über 100 Milliarden Nervenzellen (Neuronen), deren Aufgabe darin besteht, neuroelektrische und neurochemische Signale aufzunehmen, zu verarbeiten und weiterzuleiten. Jedes Neuron ist wiederum im Schnitt über Synapsen mit stolzen 7.000 anderen Gehirnzellen verbunden. Demgegenüber nehmen sich die künstlichen Gehirne aus den Laboren eher bescheiden aus. Diese werden schon mit einigen 10 bis 100 Zellen, die mit jeweils wiederum 10 bis 100 anderen Zellen verbunden sind, betrieben und liefern dabei durchaus Ergebnisse. Wohlgemerkt, es handelt sich um auf Computern simulierte neuronale Netze, nicht etwa um Versuche, mit Biomasse das Gehirn nachzubauen. AlphaGo, die von der Alphabet-Tochter DeepMind entwickelte Software, die 2016 erstmalig beim komplizierten Go-Spiel einen Menschen schlug, verfügte über 17.328 Eingabe-Neuronen, wohingegen selbst eine durchschnittliche Ameise eine Viertelmillion Nervenzellen vorweisen kann. Da ist noch viel Luft nach oben.
Ein neuronales Netz besteht üblicherweise aus drei Teilen: Aus der sogenannten Eingabeschicht, die alle Neuronen umfasst, die Eingangssignale weiterleiten, aus einer oder mehreren Schichten verdeckter Neuronen, die meistens nichtlineares Leitungsverhalten zeigen, und schließlich aus der Ausgabeschicht, die alle Signale der vorhergehenden Schichten zusammenfasst und ausgibt. Die Verbindungen zwischen den Knoten sind gewichtet, d. h. sie sind mehr oder weniger stark ausgeprägt, diese Verbindungsgewichte sind zudem veränderbar. Die Neuronen aller Schichten sind mit ihren Vorgängern und Nachfolgern verbunden und darüber hinaus mit weiteren Schichten. Dies erlaubt die Implementierung von Lernen bzw. eines Gedächtnisses: Vorangegangene Ereignisse können Auswirkungen haben auf zukünftiges Verhalten – ein Rückkopplungseffekt.
Beim überwachten Lernen werden dem neuronalen Netz Ein- und Ausgabemuster vorgegeben: Der gewünschte Output zu einem gegebenen Input ist also bekannt, und kann zur Überprüfung des gelieferten Outputs dienen. Aus den Abweichungen mit dem gewünschten Ergebnis folgen Korrekturen für die Gewichte der Verbindungen. Ein Beispiel: Möchten wir ein Programm entwickeln, das auf Bildern Birnen erkennen kann, zeigen wir ihm viele Bilder mit Birnen und ggf. auch Bilder ohne Birnen, aber z.B. mit Äpfeln. Das Programm analysiert die Bilder und versucht, Gemeinsamkeiten aller Birnen-Bilder zu finden, z.B. die spezifische Birnenform oder einen Stiel an der Kopfseite. Irgendwann wird das Programm mit einer gewissen Toleranz in der Lage sein, Birnen-Bilder zu erkennen, die es noch nie zuvor gesehen hat. Es hat ein Modell davon entwickelt, was eine Birne ist. Bei neuen, unbekannten Bildern prüfte es von nun an, ob diese dem Modell entsprechen. Das Programm weiß immer noch nicht, was eine Birne ist, hat aber ein Modell von ihr entwickelt: Birne ist für das Programm einfach ein Satz an Werten bestimmter Parameter. Es kann nun auch unbekannte Objekte klassifizieren: Birne oder Nicht-Birne.
Tiefes Lernen
Als Deep Learning wird der Teilbereich des maschinellen Lernens bezeichnet, der mit künstlichen neuronalen Netzen arbeitet und in dem die meisten derzeitigen Erfolge zu verzeichnen sind. „Deep Learning“ und „künstliche neuronale Netze“ werden dabei meist synonym verwendet. In den letzten Jahren wurde klar, dass Deep Learning sehr effektiv ist, um damit Computern Aufgaben wie Spracherkennung, Bildinterpretation, automatische Übersetzung und das Üben von Spielen wie Go beizubringen, die so etwas wie intuitives Wissen erfordern.
Das Konzept für Deep Learning – der Begriff wird meist synonym verwendet mit der Verwendung neuronaler Netze und in Anspielung auf dessen „verborgene“ Schichten – ist vergleichsweise alt: Geoffrey Hinton und Kollegen erfanden das Prinzip der „Rückpropagation“ (back propagation) vor über drei Jahrzehnten. Um bei diesem wichtigsten Verfahren zum Trainieren von künstlichen neuronalen Netzen deren verborgene Schichten sinnvoll optimieren zu können, muss zu allen Trainingsmustern die gewünschte Ausgabe bekannt sein – wir sprechen von überwachtem Lernen (supervised learning). Eine Voraussetzung dafür sind gelabelte (beschriftete) Daten.
Für die Bilderkennung bedeutet dies, dass jedes einzelne Bild, mit dem der Deep-Learning-Algorithmus gefüttert wird, von Hand gelabelt werden muss, also die Bildinhalte beschrieben werden müssen, z. B. „Katze mit Wollknäuel auf Sofa und Fernseher“, und zwar jeweils mit Angabe einer zugehörigen Begrenzung (bounding-box). Dieses Labeln der Input-Daten, das vielleicht mit der Verschlagwortung von Texten vergleichbar ist, ist ein sehr aufwendiger Prozess, der gegenwärtig noch immer von Menschen manuell organisiert und ausgeführt werden muss. Am Anfang überwachter maschineller Lernprozesse steht also ein immenser Kennzeichnungsaufwand.
Eine Unterkategorie des überwachten Lernens ist das bestärkende Lernen (reinforced learning). Hier kann die Maschine erst einmal drauflosprobieren und bekommt nachträglich Feedback: Das war gut, das war nicht so gut. Diese Methode kommt zum Beispiel beim maschinellen Erlernen von Computerspielen oder beim Roboter-Fußball zum Einsatz, oder wenn ein neuronales Netz lernen soll, die Sprache von Wörtern zu bestimmen. Die Ziele bzw. der Output sind bekannt, es werden aber keine Vorgaben gemacht, hier wird gewissermaßen nach der Trial-and-Error-Methode vorgegangen und ex post evaluiert.
Der KI-Experte Ethem Alpaydin meint, derzeitige „tiefe Netzwerke“ seien nicht tief genug und weit von den Fähigkeiten unserer Sehrinde entfernt, um etwa komplexe Szenerien zu erfassen. Um in begrenzten Kontexten abstrahieren zu können, z.B. handschriftliche Zeichen oder Objekte auf Bildern zu erkennen, reiche es gerade eben aus. Auch Geoffrey Hinton selbst hält heute gar nicht mehr so viel von seinem Prinzip und findet alle aktuellen KI-Fortschritte dementsprechend schal, wie er kürzlich dem Nachrichtenportal Axios gegenüber offenbarte. Er hält diese Form überwachten oder angeleiteten Lernens mittlerweile für überholt und neue Formen nichtüberwachten Lernens für viel interessanter.
Letzteres (unsupervised learning) ist relativ neu. Hier werden keine gelabelten Daten bereitgestellt, Bilder z. B. also ohne Beschriftung. Trotzdem sind neuronale Netze in der Lage, versteckte Strukturen, auffällige Muster oder wiederkehrende Formen in Datenstrukturen zu erkennen und dabei sogar Neuland zu betreten. Hier lässt sich einfach beobachten, was passiert, etwa wenn die Software in Bildern Strukturen erkennen soll, von denen wir nichts wissen bzw. die wir ihr nicht ex ante verraten. Es liegt auf der Hand, dass nichtüberwachte Verfahren auch ökonomisch interessant sind, entfällt doch der Labeling-Aufwand.
Dann gibt es noch den spannenden Bereich des nachahmenden Lernens (imitational learning). Hier werden ein bestimmtes Verhalten oder Handlungen vorgegeben, z. B. das Greifen von Gegenständen oder Auto fahren, und die Software versucht, das Gesehene zu imitieren. Algorithmen wird etwa die Beobachtung von menschlichen Testfahrer*innen überlassen, die die Software dann nachahmen soll. Deshalb werden die im Simulator gefahrenen Testkilometer zum Hauptkriterium des Erfolgs dieser Technologie.
Garri Kasparow berichtet in seinem lesenswerten Buch über seinen (verlorenen) Kampf gegen den Computer am Schachbrett von frühen Versuchen aus den 1980er Jahren, mit machine learning beim Königsspiel zu reüssieren. Forscher hatten ihr Programm mit hunderttausenden Partien von Schachgroßmeistern gefüttert, in der Hoffnung, die Software würde Modelle entwickeln und in den siegreichen Partien Muster erkennen.
Zunächst schien es zu funktionieren, die Bewertung von Stellungen war genauer als bei herkömmlichen Programmen. Als das Programm jedoch selbst spielte, verhielt es sich eigentümlich. Nach durchaus passablem Eröffnungsspiel opferte das Programm seine Dame, seine wertvollste Figur, um kurz darauf mit fliegenden Fahnen unterzugehen. Was war passiert? Wenn ein Großmeister seine Dame opfert, ist das fast immer ein brillanter und entscheidender Zug, der dann auch zum Sieg führt. Das Programm hatte dieses Muster klar erkannt. Es konnte nicht wissen, dass die Umkehrung nicht gilt: Die Dame opfern allein ist keine Garantie für den Sieg.
Montagsmalen
In Mark Twains berühmtem Jugendroman Tom Sawyer und Huckleberry Finn von 1876 schickt Tante Polly Tom eines Morgens hinaus, um den Gartenzaun weiß zu tünchen. Etwas später kommt Ben Rogers vorbei, ein anderer Junge in Toms Alter. Tom überzeugt Ben, dass es eine spielerische Freude sei, einen Zaun zu streichen, und nach einigem Verhandeln willigt dieser ein, seinen Apfel einzutauschen gegen die Erlaubnis, den Pinsel in die Hand nehmen zu dürfen – ein frühes Beispiel für gelungene Gamification.
Die Firma Google hat immer mal wieder Zäune zu streichen, jüngst bat sie ihre „Freunde“ – sprich uns alle –, doch an einer tollen Sache mitzuwirken, nämlich dem Trainieren einer ihrer Lernmaschinen, die gezeichnete Objekte erkennen soll. Also machte sich die halbe Welt daran, auf der Website quickdraw.withgoogle.com zu zeichnen. Entscheidend für die Qualität – sprich Geschwindigkeit und Zuverlässigkeit in der Erkennung von Objekten – sind möglichst viele unterschiedliche Trainingsbeispiele. Die Software ist schon ganz gut, sie erkennt teilweise schon nach zwei Strichen, was gemeint ist, etwa ein Hockey-Schläger oder ein Schneemann bzw. eine Schneefrau. Google lernt durch das Malspiel viel mehr als nur Zeichnungen zu erkennen. Zum Beispiel enthüllt dieses Experiment kulturelle Unterschiede: Anhand eines Kreises – zeichne ich ihn im Uhrzeigersinn oder dagegen – oder eines Schneemanns – zeichne ich ihn mit zwei oder drei Kreisen – kann die Software etwa mit hoher Wahrscheinlichkeit feststellen, ob ich aus dem asiatischen Raum komme, links- oder rechtshändig bin, jung oder alt, weiblich oder männlich. Voraussetzung dafür ist allein die Auswertung der Browser-Anfragen, die z. B. den Ort verraten, an dem sich die Person befindet. Ähnlich wie Tom Sawyers Freunde waren und sind viele Menschen bereit, für Google zu zeichnen, obwohl es dafür keine Bezahlung gibt, wir im Gegenteil mit unserer kreativen Leistung auch noch eine Fülle verwertbarer kultureller Daten liefern. Googles Mal-Spielwiese belegt eindrücklich den Zusammenhang von KI-Algorithmen und deren Training durch Userdaten: Wir füttern die Maschine, die uns später dann in Form von Anwendungen wieder begegnet. Google sagt Danke.
Sehr schöne Erklärung, leider steht da nicht bei, was der Beteiligte konkreter davon hat, dass Andere mit den Nutzereingaben Geld verdienen und warum die für das Individuum vergeudete Lebenszeit sinnvoll investiert sei.
Ergänzung warum das derzeit nicht funktionieren wird auf diese Art und Weise:
1. fehlende Granularität der Einzeleigenschaften von Objekten, das heißt die Maschine weiß nicht, wie die Objekteigenschaft zu Stande kommt
2. zu große Datenvolumina bei Speicherung von Tiefeninformationen (CAD-Software ähnlich) und fehlende automatisierte und durchsuchbare Kompressionsalgorithmen von Geometrien (werden noch immer von Hand von Designern für Spiele etc erstellt)
3. fehlendes Incentive von Menschen Maschinen zu generieren, die dann von Anderen (google & co) ohne Rückzahlung etc monetarisiert werden [und viel übler Abhängigkeitsverhältnisse von google & co schaffen]
Was man also eigentlich macht: Patternmatching zum konstruierten Modell des Netzwerkes bei Problemen, zu denen man keine vollständigen oder schlechte Daten hat mit Methoden, die man nicht versteht. :)
1: Axiomatisierung der Realität in Teilformen (zu großer Aufwand)
2: wäre hart und die Forscher denken, dass das noch zu schwer ist
3: Unlösbar, wenn Beteiligte nicht beteiligt sind oder langfristig davon profitieren. Dann wiederum ökonomisch wenig erfolgversprechend und durchführbar (zu viele Beteiligte ohne einheitliches Ziel, weil konkreter Nutzen unklar).
Das Problem ist gesellschaftlich, nicht technisch. Eine Gesellschaft goutiert keine Externalisierung von Kosten unter Privatisierung von Gewinnen.
Vielen Dank für die Ergänzung. Der Beitrag ist ein Auszug aus dem neuen Buch des Autors, der womöglich an anderer Stelle im Buch auch selbst stärker Position bezieht. Wir leiten ihm die Kritik in jedem Fall gerne weiter.
Sehr interessanter Textauszug und allgemein eine super Auswahl an Gastbeiträgen!
Leider haben sich hier ein paar Fehler eingeschlichen:
Ich nehme an, die Zwischenüberschrift “Unser Gehirn: Die einzige bisher bekannte Allgemeinen Künstlichen Intelligenz” heißt eigentlich “Unser Gehirn: Die einzige bisher bekannte [Umsetzung einer] Allgemeinen Künstlichen Intelligenz”.
Hinter einigen externen Links sind außerdem noch Kommentare wie “PAYWALL behalten??” oder “!!! spanischer Link” zu lesen.
Ein großes Danke trotzdem für den Artikel!
Ist korrigiert, vielen Dank!