Eigentlich kann man alles im Universum als ein komplexes System betrachten. Als ein Netzwerk, bestehend aus Knotenpunkten, die durch eine Verknüpfung miteinander verbunden sind. Ob es sich um das menschliche Gehirn handelt, den brasilianischen Regenwald oder das Internet, diesen globalen Zusammenschluss von Rechnern, die per Datenübertragung miteinander in Verbindung stehen.
Das Gleiche gilt für den modernen Finanzmarkt, der durch die Digitalisierung zu einem Finanz-Cyberspace transformiert wurde. Auch dort existieren Knotenpunkte, nämlich die Rechenzentren der Computerbörsen und algorithmischen Computerhändler, die miteinander durch den Austausch von Handelsinformationen miteinander verbunden sind.
Daher lässt sich sagen, dass Finanzmarktpolitik Netzpolitik ist. Denn systemisch betrachtet existiert eine gemeinsame Antwort auf die Frage, wie man komplexe Systeme wie das Internet oder den Finanz-Cyberspace politisch steuern kann.
Die Weisheiten des Gewichthebers
Das Ziel einer solchen Steuerung muss sein, dass sich eine politische Umstrukturierung der Knotenpunkte und Verbindungen positiv auf das Gesamtsystem auswirkt. Wie eine solche Steuerung aussehen könnte, damit beschäftigen sich einige Forscher.
Eine pointierte Zusammenfassung der akademischen Debatte lieferte der Ex-Wall-Street-Finanzmathematiker und leidenschaftliche Gewichtheber Nassim Taleb. In seinem Buch „Antifragilität“ unterscheidet er zwischen vier Interventionsarten: Begrenzung der Größe von einzelnen Akteuren sowie Reduktion von Konzentrationsprozessen, Geschwindigkeit und Komplexität. Diese vier Interventionsarten wirken sich laut Taleb vorteilhaft auf das Gesamtsystem aus, indem sie unberechenbare negative Ereignisse reduzieren.
Google: Too big to fail?
Doch was bedeutet dieser theoretische Ansatz nun für die finanz- und netzpolitische Praxis? Beginnen wir bei der Größe von Akteuren. In der Netzpolitik wird seit Jahren die Monopolstellung von Unternehmen wie Google, Facebook und Amazon kritisiert. Ihre Machtposition, so die Argumentation, würde den Fortschritt bremsen und die Preise verfälschen. Zum Nachteil für die Gesellschaft.
Eine ähnliche Debatte wird seit der Krise 2008 an den Finanzmärkten geführt. Damals führte die Lehman-Pleite das weltweite Wirtschaftssystem nahe an den Kollaps. Unter dem Begriff „too big to fail“ wird diskutiert, dass kein Akteur zu groß werden darf. Denn kollabiert ein kleiner Akteur, bleibt der Schaden klein, geht jedoch ein systemrelevanter Akteur bankrott, kann er das Gesamtsystem mit in den Abgrund reißen.
Und was für Lehman Brothers gilt, gilt wohl auch für Google. Eine Größenbeschränkung von einzelnen Akteuren in beiden Sektoren ist daher sinnvoll. Nicht zuletzt, weil neue Knotenpunkte im System mit größerer Wahrscheinlichkeit Kontakt zu einem Knoten aufnehmen, der bereits viele Verbindungen hat. Folgt man dieser Logik, dann wird die Ausdehnung des Internets Google in Zukunft noch systemrelevanter machen. Doch welche Konsequenz hätte eine Google-Pleite bereits heute?
Keine zentralen Datensauger
Man kann die Auswirkungen einer solchen Mega-Pleite nur erahnen. Fakt ist jedoch, dass sich die Konsequenzen über den ganzen Globus verbreiten werden. Denn die bevorzugte Kontaktaufnahme von neuen Knotenpunkten mit großen Akteuren führt in einer globalisierten Welt nicht nur zu einem Wachstum von Google und Co., sondern auch zu einem konzentrierten Zusammenschluss unzähliger Marktakteure auf der ganzen Welt.
Das gleiche Phänomen lässt sich im Finanz-Cyberspace beobachten. Etwa unter den algorithmischen Computerhändlern: Das US-Unternehmen Virtu Financial handelt bereits heute an 235 unterschiedlichen Handelsplätzen in 36 Ländern weltweit mit circa 12.000 verschiedenen Finanzinstrumenten. Mehr dazu in meinem kürzlich erschienenen Buch „Die Geldroboter“.
Eine Konsequenz dieser Entwicklung ist, dass sich die Akteure in einer sehr sensiblen Wechselwirkung zueinander befinden. Einzelne Systemstörungen verteilen sich rasch über den ganzen Globus und bleiben nicht auf regionaler Ebene begrenzt. Und das geschieht durch die steigende Geschwindigkeit auch immer schneller. Eine Begrenzung von Konzentrationsprozessen ist daher von allgemeinem Vorteil.
Private Überholspur auf dem Daten-Highway
Ein weiteres Steuerungselement ist die Geschwindigkeit. Ein Element, das die Verfechter der Netzneutralität immer wieder zum Thema machen. Sie argumentierten, dass sich einzelne Akteure keine freie Fahrt auf der Überholspur der Daten-Highways erkaufen dürften. Alle Datenpakete sollen gleich behandelt werden, auch in Bezug auf die Übertragungsgeschwindigkeit.
Mit Blick auf die Fairness im Gesamtsystem ergibt diese Forderung Sinn. Auch im Finanz-Cyberspace, denn Geschwindigkeit ist auch dort von geldwertem Vorteil. Wer Preisunterschiede zwischen einzelnen Börsen zu seinem Vorteil ausnutzen möchte, benötigt ein schnelleres Handelssystem als seine Mitbewerber. Ein Prinzip, ähnlich wie das der Netzneutralität, wäre also auch in diesem System wünschenswert.
Doch es existiert nicht. Algorithmische Computerhändler bauen sich ihre privaten Daten-Autobahnen, etwa Mikrowellen-Netzwerke zwischen London und Frankfurt oder Laser-Richtfunkanlagen in New York. Oder sie bekommen gleich einen exklusiven Zugang zum Rechenzentrum der Deutschen Börse. Um einzelnen Händlern gewinn- und wettbewerbsverzerrende Zeitvorsprünge zu ermöglichen, vermietet das Unternehmen gut gelegene Serverstandplätze. Geschwindigkeit ist eben auch hier ein allgemeines Steuerungselement.
Die Zunahme der Komplexität
Das vierte allgemeine Steuerungselement ist die Reduktion von Komplexität. Wer weiß schon genau, was mit seinen persönlichen Daten oder Geld tatsächlich basiert? Systeme sind heutzutage derart komplex, dass man nicht genau weiß, wie Ursache und Wirkung tatsächlich miteinander in Verbindung stehen. Regulatorische Maßnahmen in solchen nicht-linearen Systemen können schlussendlich das Gegenteil von dem erzeugen, was sie ursprünglich bezweckt hatten.
Mit dem Einzug künstlicher Intelligenz, wenn Computersysteme aus ihren eigenen Erfahrungen lernen und Rückschlüsse ziehen, wird es wohl nicht einfacher werden für die Regulatoren und die Verbraucher zu erkennen, was und vor allem warum Systeme tun, was sie eben tun. Die Komplexität wird weiter zunehmen und nicht abnehmen, wie es für das Gesamtsystem vorteilhaft wäre.
Zusammenfassend kann man wohl sagen, dass es so etwas wie eine allgemeine Formel zur Steuerung von Systemen wie dem Internet und dem Finanz-Cyberspace gibt. Denn alle vier Elemente – Größe, Konzentrationsprozesse, Geschwindigkeit und Komplexität – finden sich sowohl in der netzpolitischen Debatte als auch in der finanzpolitischen Diskussion wieder. Finanzmarktpolitik und Netzpolitik sind sich näher als man denkt.
Martin Ehrenhauser ist Unternehmer und Autor. Der ehemalige EU-Abgeordnete hält am 4. Mai 2018 einen Vortrag auf der Berliner re:publica zu seinem aktuellen Buch „Die Geldroboter“.
Der Autor wirft bereits in der Überschrift unpassende Dinge in einen Zusammenhang den es nicht gibt und wirft auch bei der seit 2007 andauernden Bankenkrise Begriffe durcheinander.
Wo er richtig liegt, ist, das es Regulierung bedarf – entweder staatlich oder Selbstregulierung durch Teilnehmer die keine Gewinnerzielungsabsicht haben.
Google als Unternehmen ist schwer mit einer Bank vergleichbar.
und übrigens weist „too big to fail“ nicht auf Lehmann hin, sondern auf die die aus Gründen gerettet wurden (HypoRealEstate zB).
Große Teile der Internetwirtschaft stellen eine einzige große Blase dar, in der der Wert von Unternehmen lediglich die Erwartung auf künftige Gewinne widerspiegelt.
Große Teile der Immobilienwirtschaft stellen eine einzige große Blase dar, in der der Wert von Unternehmen lediglich die Erwartung auf künftige Gewinne widerspiegelt.
Eine Finanz-Pleite von Google würde zwar ganz ordentlich ordentlich Börsenkapital vernichten, aber eine Finanzkrise würde das wohl eher nicht nach sich ziehen.
Abgesehen davon ist Alphabet Inc. (aka Google) weit von einer Insolvenz entfernt, da unglaubliche Mengen von nahezu unversteuerten Erträgen auf die Steuerparadiese dieser Welt verteilt werden.
Gäbe es eine gute Fee auf dieser Welt, die Alphabet Inc. vollständig, inklusive Börsenkapitalisation von diesem Globus verschwinden lassen würde, so wäre das ein Segen für all jene, die von diesem Monopolisten kontinuierlich ausgesaugt werden. Der Effekt wäre als ob sich ein Organismus von einer parasitären Krankheit erholen würde.
Das klingt ziemlich weit hergeholt. Sicher sind die „Gewinne“ einiger großer Internetkonzerne eher „Enron-“ verdächtig. Aber, wenn die rein fiktiv pleite gehen, gibt es höchstens eine Börsenbaisse. Ganz anders sieht es aus, wenn solche enorm kreditgehebelten Schattenbanken, die behaupten „Fonds“ zu sein, meinetwegen Blackrock, implodieren. Das IT-Blasen-Problem ist lösbar, indem man die Internetriesen wie „altmodische“ Industriekonzerne bewertet, sie also monetär auf das schrumpft, was sie wirklich leisten.
Der Artikel steigt mit dem Universum ein, doch beschränkt sich im Endeffekt auf den Planeten. Dem Wachstum von Akteuren kann sicher mit Regulierungen entgegengetreten werden, doch lohnt sich ein Blick zu Star Trek: dort ist eine Regulierung des Wachstums nicht existent. Das Wachstum beschränkt sich nicht auf Planeten selbst, es kann monopolistische Akteure in einem ganzen System geben oder sogar im ganzen bekannten und besiedelten Universum. Das ist jedoch nur möglich, weil dank des fiktiven Warp Drives Reisen schneller als Licht möglich ist. Die Realität sieht jedoch anders aus und so bietet Lichtgeschwindigkeit ein praktisches, regulierungsfreies und unbürokratisches Mittel um Wachstum zu begrenzen. Das Ziel muss daher sein, sich im Weltraum auszubreiten. Eine Börse auf Europa (dem Mond) hätte ein paar Stunden Latenz und könnte daher nicht so einfach den universalen Finanzmarkt schrotten.
Gegenwärtig sind wir jedoch auf den Planeten beschränkt und daher führt wohl an Bürokratie nichts vorbei.