Selbst in fremden Umgebungen orientierungsfähige Roboter laufen auf zwei Beinen über holprige Hindernisstrecken, andere verarbeiten, vermessen oder verpacken Gegenstände und kommunizieren dabei permanent mit anderen Maschinen. Die Roboter sind in den letzten Jahren flexibler einsetzbar geworden, und wir gewöhnen uns mehr und mehr an die leistungsfähigen Maschinen, nicht nur in der Arbeitswelt. Das Schlagwort „Industrie 4.0“ hat zwar schon dem Namen nach einen starken Wirtschaftsbezug: Es wird diskutiert, wie es um Chancen für die Zukunft der Industrie und um Innovationen steht. Aber die Technik verändert mehr als nur das Arbeiten.
Der folgende Beitrag ist ein Interview mit Klaus Mainzer, Professor am Lehrstuhl für Philosophie und Wissenschaftstheorie der Technischen Universität München und Autor, der über künstliche Intelligenz, Technikgestaltung und Chaostheorie forscht. Der Beitrag ist eine gekürzte Fassung eines Gesprächs in der Zeitschrift G.I.B.Info. Wir veröffentlichen das Interview mit der freundlichen Genehmigung von Klaus Mainzer und Manfred Keuler von der G.I.B.Info, der zusammen mit Paul Pantel das Gespräch führte.
Warum überhaupt „Industrie 4.0“? Woher kommt der Begriff?
Der Begriff Industrie 4.0 wird nur in Deutschland verwandt – die Amerikaner sagen übrigens Industrial Internet – und wird mittlerweile auch als eine Art deutscher Kampfbegriff gewertet. Kreiert wurde er von der deutschen Akademie für Technikwissenschaften in einem engeren Kreis aus einer Laune heraus und hat sich dann eingebürgert. Ich halte den Begriff für gar nicht unpassend, weil er auf die historischen Entwicklungsstufen der Industrialisierung anspielt.
Demnach bezeichnet Industrie 1.0 die Welt der Dampfmaschinen und automatisierten Webstühle zu Anfang des 19. Jahrhunderts. Anfang des 20. Jahrhunderts folgte Industrie 2.0, die Taylorismus-Welt von Henry Ford mit ihrer getakteten Fließbandarbeit und Massenproduktion nicht nur in der Industrie, sondern in der gesamten Arbeitswelt bis hin zu den Schlachthöfen. Ende des 20. Jahrhunderts entstand die Industrie 3.0, das ist die von stationären Robotern unterstützte Fließbandarbeit. Jetzt, Anfang des 21. Jahrhundert, erleben wir Industrie 4.0, also – wie gesagt – die Anwendung des Internets der Dinge auf die Industriewelt.
Jetzt kommunizieren die Objekte, die Geräte in der Industrie miteinander, das Werkstück kommuniziert über einen RFID-Chip mit der Werkbank und gibt ihr Auskunft über seinen Bearbeitungszustand, so dass gegebenenfalls automatisch ein Roboterfahrzeug angefordert werden kann, der das Werkstück zur Weiterverarbeitung weitertransportiert, also eine vollautomatische Logistik, die heute schon etwa im Containerhafen in Hamburg zu beobachten ist.
Anders als in der Industrie 3.0 befinden sich die heutigen Roboter aber nicht mehr abgeschottet in Käfigen, sondern sind auf die Interaktion mit Menschen ausgelegt und gehen buchstäblich auf sie zu. Der mit Sensoren ausgestattete Roboter wird so zum Partner der Beschäftigten, wobei die Sensoren mit einer Art Haut ausgestattet sind, so dass sie nicht nur Wärme, sondern auch Druck registrieren und verarbeiten können. Dabei muss es sich nicht unbedingt um humanoide Roboter mit menschlicher Gestalt handeln, wie wir sie aus Japan kennen, sondern es können durchaus klassisch aussehende Industrieroboter sein, ausgestattet etwa mit einem Arm und einer Kamera, mit der sie ihre Umwelt wahrnehmen. In manchen Produktionshallen hat man diese Roboterarme bereits vermenschlicht und ihnen Namen gegeben.
Die Achillesferse des digitalisierten Unternehmens
Gibt es schon Branchen, in denen nach Industrie-4.0-Prinzipien mit allen Konsequenzen gearbeitet wird?
Die großen Konzerne der Automobilbranche haben die Bedeutung von Industrie 4.0 wohl am ehesten verstanden, aber auch die Motorenindustrie und der Anlagenbau wissen, was die Stunde geschlagen hat. Die Kunst wird darin bestehen, für eine individuelle Firma die passende Lösung sowie den Zeit- und Geschäftsplan zur schrittweisen Einführung zu finden. Dazu gehören auch Versicherungsfragen, die mit der Einführung von Automatisierung und der Delegierung von Arbeit an Maschinen verbunden sind. Das deutsche Recht muss umdenken: Bisher ist Verantwortung im deutschen Recht immer nur an einzelne Menschen gebunden, wie zum Beispiel das Verkehrsrecht beim Führen von Fahrzeugen. Zukünftig werden Firmen, Unternehmen und Organisationen Verantwortung übernehmen und sich durch Versicherungen absichern müssen. Das amerikanische Recht ist dafür bereits offen.
Aber ein mittelständischer Unternehmer wird sich – unter dem Eindruck der Snowden-Affäre und von Industriespionage – auch hüten, sein erfolgreiches Geschäftskonzept in die Cloud zu setzen. Hier liegt die Achillesferse des digitalisierten Unternehmens, wobei es um die schlichte Frage geht: Welche Daten sollen überhaupt in die Cloud? Patente und Firmengeheimnisse, also zentrale Kernanliegen der Firma, gehören natürlich nicht hinein, Informationen, die für die tägliche Kommunikation der Mitarbeitenden vonnöten sind, hingegen schon.
Die Digitalisierung beschränkt sich nicht auf den Bereich der Industrie. Wie sieht es zum Beispiel im Gesundheitssektor aus?
Denselben Trend wie in der industriellen Welt mit seiner Kundenorientierung und seiner personalisierten, individualisierten On-demand-Produktion erleben wir in der Medizin. Auch hier finden wir eine auf den Kunden, den einzelnen Patienten zugeschnittene Personalisierung und Individualisierung, auch hier spielt die zweite Digitalisierungsrevolution mithilfe der Sensortechnologie eine entscheidende Rolle. In ganz normalen Praxen sehen wir heute schon hoch auflösende Ultraschall-Geräte, die nicht nur in Windeseile Organe in einer Hochauflösung visualisieren, sondern zugleich mathematische Funktionen grafisch darstellen, die zeigen, ob und wie die individuellen Werte von den Normwerten abweichen.
Auch im Gesundheitssektor entsteht ein gewaltiges Datenaufkommen über den einzelnen Kunden, den Patienten, ein Datenprofil mit einer unglaublichen Datenmasse, aber das ist auch gut so, denn angesichts der Komplexität des menschlichen Organismus und weil jede Krankheit bis hin zum simplen Schnupfen in einem Organismus sehr unterschiedlich ablaufen kann, gab es bislang viel zu wenige Daten. Bisher war die Medizin eine Henry-Ford-Welt mit Standardverfahren, so dass Ärzte gelegentlich einen Patienten als austherapiert bezeichneten, weil sie mit ihren Verfahren am Ende waren.
Der große Megatrend in der Medizin ist die Produktion einer durch die neuen Technologien ermöglichten personalisierten Medizin. Beispielhaft dafür steht der Supercomputer „Watson“ von IBM, der in einem auf die Behandlung von Krebs spezialisierten Krankenhaus in New York anhand der Symptome von Patienten, ihrer Krankheitsverläufe, der familiären Vorbelastung und anderer Faktoren einen Diagnoseplan erstellt, der alle denkbaren Irrtümer von Fachärzten vermeidet und bessere Antworten gibt als der Mensch.
Kommen wir zu den Konsequenzen für die Beschäftigten. Ist Industrie 4.0 eher ein Arbeitsplatzkiller oder Beschäftigungsmotor?
Automatisierung führt nicht zwangsläufig zu Arbeitslosigkeit. Diese Diskussion gibt es seit Beginn der Industrialisierung, seit Industrie 1.0, und hat die Weberaufstände in Schlesien und die Maschinenstürmer in England hervorgebracht, aber am Ende waren die Menschen froh über die mit der Industrialisierung einhergehende Entlastung. In der Volkswirtschaft haben darüber bereits die großen Theoretiker diskutiert. Ricardo und Marx haben von Arbeitslosigkeit durch Mechanisierung gesprochen und Keynes von der technologischen Arbeitslosigkeit. Dahinter stand immer die These, dass sich der Kapitalismus durch immer größeres Effizienzstreben entwickelt, mechanisiert, Arbeitskräfte freisetzt und Massenarbeitslosigkeit produziert.
Leibniz, der mit seiner Rechenmaschine und seiner Erfindung der Bits im Grunde die Lawine der Digitalisierung in Gang gesetzt hat, hat prognostiziert, dass die Sklavenarbeit von den Maschinen übernommen wird und die Menschen nur noch die kreative Arbeit leisten. Das war ein bisschen idealistisch gedacht. Richtig ist: Die routinierten Arbeiten wurden schrittweise aussortiert. Das betrifft nicht nur körperliche, sondern auch geistige Arbeiten wie die buchhalterische Tätigkeit, die heute meist schon von einer Software übernommen wird. Gleichzeitig aber sind pausenlos neue Berufe entstanden und einige uralte Berufe haben sich, auch schon in vorindustrieller Zeit, sehr geschickt der neuen Entwicklung angepasst.
Auf absehbare Zeit werden weiterhin Menschen die großen Entscheidungen treffen und Abläufe insgesamt überwachen müssen. Das Beispiel Hochfrequenzhandel, das Flash Trading der Börsen, hat ja gezeigt, was passieren kann, wenn Systeme allein Entscheidungen treffen. Natürlich erkennen Algorithmen schneller Preisveränderungen der Börse und können auch schneller mit Ein- und Verkaufsentscheidungen reagieren. Doch die Algorithmen in Frankfurt, Zürich oder an der Wall Street arbeiten auch gegeneinander, so dass Finanzkrisen unterhalb der menschlichen Wahrnehmungsmöglichkeiten ausgelöst werden können. Wir brauchen also auch weiterhin Menschen mit ihrer Urteilskraft.
Menschen auf die neue Arbeitswelt vorbereiten
Führen zunehmende Qualität und Komplexität in der Arbeitswelt zu einer Spaltung der Gesellschaft, weil ein Teil der Menschen, der Beschäftigten mit dem Komplexitätszuwachs nicht Schritt halten kann?
Dem widerspricht die historische Erfahrung. Es mag solche hochspezialisierten technischen Bereiche geben, die weitgehend automatisiert sind, also Industrie 4.0 in Reinkultur. Aber es wäre eine völlige Fehleinschätzung, dass wir nachher nur noch hochausgebildete Informatiker und Diplom-Ingenieure brauchen, die von einer Kanzel herabschauen in eine Halle, in der sich die Fabrik selbst organisiert. Das ist Science-Fiction.
Der große Teil der Wirtschaft, der Industrie wird auf absehbare Zeit fast alle heute bekannten Berufe mehr oder weniger verändert brauchen. Entscheidend wird sein, die Menschen auf die neue Arbeitswelt vorzubereiten, sie dafür zu qualifizieren. Das ist eine Aufgabe des Bildungs- und Ausbildungssystems, der Schulen, Hochschulen und Technikerschulen und damit auch der Lehrer und Meister, aber auch der Gewerkschaften.
Die beschleunigten Innovationszyklen der Automatisierung erfordern eine Umstrukturierung des Arbeitsmarkts. Sie sind schon jetzt in vielen Bereichen schneller als unsere Ausbildungszyklen. Wir müssen uns also künftig überlegen, wozu wir die Menschen eigentlich ausbilden. Wenn wir jemandem heute in der Lehre ein bestimmtes Computerprogramm beibringen, ist das schon überholt, wenn er in den Betrieb kommt. Deswegen müssen wir die Fähigkeit des Menschen ausbilden, sich in neue Arbeitsprozesse einzuarbeiten und sich auf neue Situationen einzustellen. Ich denke, es wird in Zukunft absolut zur Normalität gehören, dass ein Teil der Mitarbeiter immer an Lehrgängen und Fortbildungen teilnimmt, um sich auf neue Abläufe vorzubereiten. Man könnte nach amerikanischer Art sagen: Wir setzen sie frei, und wenn wir sie brauchen, stellen wir sie wieder ein. Doch angesichts des zukünftigen Fachkräftemangels wird das nicht gelingen. Eine neu gestaltete Unternehmensbindung gewinnt also an Bedeutung.
Wenn zukünftig Algorithmen die Entscheidungen treffen, droht damit nicht der Autonomieverlust des Einzelnen, also eine stärkere Entfremdung in der Arbeitswelt?
Algorithmen zu interpretieren, zu werten und Zielvorgaben für sie festzulegen, lässt sich nicht seinerseits über Algorithmen erledigen, sondern braucht eine so genuin humane Fähigkeit wie die Urteilskraft. Die Entwicklung der Technik hängt also von unserem Entscheidungswillen ab, daran wird sich auch in Zeiten einer vernetzten Dingwelt nichts ändern. Es kommt darauf an, wie wir diese Welt gestalten. Wir dürfen Effizienz nicht nur nach dem klassischen Bruttosozialprodukt berechnen, sondern brauchen eine ganzheitliche Sicht, ein „garnet management“, und das ist die Aufgabe des Menschen.
Wo ist die Politik gefordert?
Mittlerweile veranstaltet die Bundesregierung immerhin „digitale Gipfeltreffen“ und auch die Länder entwickeln eine „digitale Agenda“. Auch das Bundesministerium für Arbeit und Soziales beschäftigt sich mit den Auswirkungen der Digitalisierung mit dem „Grünbuch Arbeiten 4.0 – Arbeit weiter denken“. Seit Kurzem gibt es zudem die Plattform „Industrie 4.0“, getragen von einer Allianz aus Politik, Wirtschaft, Gewerkschaften und Forschung. Offensichtlich haben die beteiligten Akteure erkannt, wie wichtig es ist, die Digitalisierung aktiv zu gestalten.
Politik darf sich dabei nicht auf die Rolle als Nachwächterstaat reduzieren, sondern muss auch die Arbeitswelt gesetzlich regeln. Doch Aufgabe des Staates ist nicht nur die Regulierung, sondern er muss auch Anreize setzen für Innovationen, Wachstum und Entwicklung. Ich bin keineswegs ein Keynesianer, der dafür plädiert, dass der Staat ständig Geld reinbuttert, um bestimmte Entwicklungen voranzutreiben, aber er kann gestalterisch tätig werden, indem er das Ausbildungssystem so ausstattet, dass es Innovationskräfte freisetzen kann.
Wir müssen uns darüber im Klaren sein: Big data ist das Rohöl der Zukunft, aber viel besser, denn Rohöl wird verbraucht und ist irgendwann aufgebraucht, aber Daten leben ewig. Daten können in immer neue Zusammenhänge gesetzt werden und man kann mit ihnen neue Geschäftsmodelle entwickeln und damit jede Menge Geld verdienen. Das ist der Grund dafür, dass seit Jahren Datensätze im Medizinbereich gestohlen oder schwarz verhökert werden. Jeder kann etwas aus Daten machen, und dieser Markt muss natürlich geregelt sein.
Eine „Singularität“?
In einem Ihrer Bücher schreiben Sie, die Digitalisierung mache nur vor der Quantenphysik Halt, ansonsten sei alles möglich. Wenn Sie heute einen Science-Fiction-Film drehen würden – wie sähe der aus?
Dazu würde ich mir zunächst bewusst machen, worüber bereits heute diskutiert wird. An der Singularity University im Silicon Valley sitzen die Chefdenker, die Chefideologen der Neuen Welt, keine Science-Fiction-Autoren, sondern hochdekorierte Technologen wie etwa der Informatiker, Erfinder und Futurist Ray Kurzweil, Leiter der technischen Entwicklung bei Google.
In dessen Denken spielt der Begriff „Singularität“ eine zentrale Rolle. Erstmals wurde der Begriff im Zusammenhang mit technischer Intelligenz vom Mathematiker John von Neumann Mitte der fünfziger Jahre gebraucht, bevor in den achtziger Jahren der Science-Fiction-Autor und Mathematiker Vernor Vinge unter Bezugnahme auf den Begriff die These aufstellte, dass eine „Superintelligenz“ in der Lage sei, sich in ihren Fähigkeiten immer noch schneller zu steigern. Ray Kurzweil nun definiert die Singularität als „technischen Wandel, der so schnell und allumfassend ist, dass er einen Bruch in der Struktur der Geschichte der Menschheit darstellt“.
Ein kurzer Blick zurück: Früher wurden Wissen und Erfahrungen, also die kollektive Intelligenz der Menschheit, eine Art Schwarmintelligenz, durch Erzählungen oder Bücher an nachfolgende Generationen weitergegeben, vom Lehrer auf den Schüler, vom Meister auf den Lehrling. Diese Schwarmintelligenz ist der des Einzelnen weit überlegen.
Heute steckt diese Intelligenz in Datenbanken. Aber das ist nur der Anfang einer neuen Entwicklung: Schon heute haben wir „human brain“-Projekte in Europa und den USA, die das menschliche Gehirn vollständig kartieren und irgendwann werden wir alle menschlichen Gehirne durch einen neuromorphen Computer ersetzen, eine kollektive künstliche Intelligenz, wobei ein Netzwerk aus integrierten Mininetzen Mensch und Ding zu einem Superorganismus, einer Superintelligenz verschmelzen könnte, die der menschlichen und künstlichen kollektiven Intelligenz weit überlegen ist.
Schon heute hat der intelligente Roboterarm bei „audi“ einen individuellen Spielraum und kann selbständig Entscheidungen treffen. Zukünftig aber, sagen Ray Kurzweil und andere, wird die vom Menschen geschaffene Superintelligenz ihre eigenen Ziele und Zwecke setzen und es kommt zum take off, wie die Amerikaner sagen. Dann werden die Systeme in der Lage sein, sich selbst zu reproduzieren und zu verbessern, eine exponentielle Entwicklung, die Singularisten mit der Energievermehrung bei der Kernexplosion vergleichen: die unkontrollierte Energie-, die unkontrollierte Intelligenzvermehrung.
Aber bei dieser Theorie würde ich gegenhalten und meinen alteuropäischen Hut aufsetzen. Die Singularisten unterstellen mit ihrer Theorie eine Zwangsläufigkeit in der Technologieentwicklung, die ich mit Blick auf die Technikgeschichte bezweifele, denn die Entwicklungsgeschichte war immer auch von Zufällen bestimmt.
Das gilt auch für die aktuelle Entwicklung: Weil die Amerikaner im Kalten Krieg befürchteten, dass die Russen mit einem Atomschlag ihre zentralen Computer und damit, wie bei einer Guillotine, den Kopf des Ganzen zerstören könnten, wollten sie das dort gespeicherte Wissen verteilen und haben das Internet geschaffen. Was aber hat sich entwickelt? Ein in keiner Hinsicht geplantes Netz, über das wir uns weltweit in sozialen Medien über das dümmste Zeug unterhalten, und auch das Smartphone hat niemand vorausgesehen, hat sich keine kluge Forschergruppe einfallen lassen.
Also: die Entwicklung ist keineswegs vorgegeben, vielmehr gibt es völlig unterschiedliche Entwicklungsmöglichkeiten. Technikgestaltung ist ein schönes deutsches Wort, weil Gestaltung auch etwas mit Kunst und Design zu tun hat und uns wegführt vom Maschinentakt. Technikgestaltung heißt auch Lebens- und Arbeitsgestaltung und die unterscheidet sich von der blinden Evolution, die sich übrigens keineswegs zwangsläufig in einem Designerprozess entwickelt hat. Es gibt kein Argument, dass die im Silicon Valley produzierten Szenarien ausschließt, aber wir haben die Chance, uns schon heute in Medizin und Arbeitswelt darin zu üben, mit Hilfe der Technik als intelligenter Dienstleistungsinfrastruktur unsere Arbeits- und Lebenswelt so zu gestalten, wie sie uns am besten gefällt.
Eine große Anzahl junger unzufriedener Männer ist das Gefährlichste, was sich eine Gesellschaft leisten kann. Damit soll das Gemisch im Bereich humanen Daseins beschrieben sein, dass sich derzeit zur Verpuffung ansammelt.
Andererseits gelangt aus dem Bereich der Technologie all jenes zur Anwendung, was im Bereich des Möglichen wuchert und mit Kapital gedüngt wird. Auf die Frage, wie es denn kommt, dass humane Arbeitskraft durch technologische „Lösungen“ ersetzt werden, hört man schlicht „weil es möglich ist“.
Aber nicht nur Banker und Ingenieure sind zu schlichten Antworten fähig. Eine Generation, die sich durch technologische Errungenschaften um ihre Perspektive gebracht sieht, wird Antworten finden, nicht zuletzt weil auch das möglich ist.
Wenn durch Kapitaleinsatz mittels Robotik die Existenzgrundlage breiter Teile der arbeitsfähigen Bevölkerung gefährdet wird, sollte rechtzeitig darüber nachdenken, wie globale Produktionsstandorte sozial so abgesichert werden können, ohne dass die Unzufriedenen und Überflüssigen am Firmentor rütteln oder den Strom abdrehen.
Wenn eine Technologie einerseits für wenige nützlich und für viele letztlich bedrohlich wird, muss neu nachgedacht werden. Die Zeit dafür ist längst überfällig.
Weil Kfz-Motoren neben volkswirtschaftlichem Nutzen auch Schaden anrichten können, werden regulatorische Gesetze und finanzielle Ausgleiche mittels Steuern angewendet.
Es ist auch zu überdenken, ob weiterhin Technologien gefördert werden sollen, die zu sozialen Verwerfungen führen.
Bisher hat Intelligenz es immer geschafft, das zu zerstören, was sie existentiell bedroht.
Neben Schwarmintelligenz gibt es noch das Phänomen ausgeprägter Schwarmdummheit.
Es kommt also darauf an, zu welchem Schwarm sich die Intelligenz gesellt. Hinzu kommt noch, das Fassungsvermögen des Schwarms, Intelligenz einfangen und sammeln zu können.
Bisherige Empirie zeigt, dass Schwärme Inter-Schwarmkonflikte austragen. Diese sind Teil einer Schwarm-Evolution. Erfolgreiche Evolutionäre vermeiden einerseits Konflikte, die sie nicht gewinnen können, andererseits müssen Konflikte unerbittlich geführt werden, die mit p > 0.73 gewonnen werden können.
Intelligenz, soweit besteht Konsens, ist Normalverteilt. Signifikante Intelligenz jedoch ist kein Massenphänomen. Potente Intelligenzträger verpaaren sich vornehmlich untereinander und schließen sich gleichwertigen Schwärmen an. Damit ist auch schon dargestellt, dass es unterschiedlich potente Schwärme gibt, die untereinander in Konkurrenz stehen.
Bisheriger Sprachgebrauch hat sich davor gescheut, Schwarmeigenschaften und Schwarmzugehörigkeit auf Menschen anzuwenden. Diese jüngste Fehlleistung zu bemerken, ist Wesen mit Selbstreflektion vorbehalten. Der Versuch der Verschwarmung sozialer Gruppen ist angewandte Entmenschlichung.
Hat man es einmal geschafft, eine Gruppe unliebsamer Menschen als Schwarm zu bezeichnen, lässt sich die Anwendung von Schwarm-Insektiziden leichter rechtfertigen.
Wer sich eine Stunde Zeit für dieses Thema nehmen möchte… hier ist ein umfassender Artikel über die Gefahren der Superintelligenz: http://www.seriengruender.de/superintelligenz/