10 Milliarden für Start-upWofür braucht OpenAI so viel Geld?

OpenAI war mal die gemeinnützige Alternative in einem Forschungsfeld, das von extrem reichen Tech-Konzernen beherrscht wurde. Jetzt wird es selbst zu einem der wertvollsten Start-ups der Welt. Was ist passiert?

OpenAI-Logo vor einem Hintergrund aus Dollarnoten
Kommerzielle Ziele oder nicht: Wer sehr große KI-Modelle entwickeln will, braucht Rechenleistung und Geld. – Alle Rechte vorbehalten Logo:OpenAI, Hintergrund: Pixabay/ QuinceCreative, Montage: netzpolitik.org

Die Nachricht zirkuliert als Gerücht schon seit Tagen, seit gestern ist sie bestätigt: Microsoft investiert 10 Milliarden US-Dollar in das Start-up OpenAI. Die Partnerschaft verkündeten Microsoft und OpenAI am Montag ohne eine Summe zu nennen, die Nachrichtenseite Bloomberg lieferte danach die Zahlen dazu.

Ein Tech-Konzern investiert also eine hohe Summe in ein KI-Start-up, das derzeit mit seinen Systemen ChatGPT und DALL-E 2 das halbe Internet in Aufregung versetzt und die Konkurrenz zum Zittern bringt. Das klingt zunächst nach einer üblichen Businessmeldung aus der Branche. Nur ist OpenAI kein übliches Start-up.

Das Unternehmen ist 2015 mal als Non-Profit angetreten, ein nicht-kommerzielles Forschungslabor mit dem hehren Ziel, die erste „echte“ Künstliche Intelligenz zu entwickeln und sie dem Wohle der Menschheit unterzuordnen. „Unser Ziel ist es, die digitale Intelligenz so voranzutreiben, dass sie der Menschheit als Ganzes zugute kommt, und zwar unabhängig von der Notwendigkeit, einen finanziellen Gewinn zu erzielen.“ So schrieben es sich die Gründer einst in ihr Manifest. Die erste Milliarde als Startkapital lieferten damals Tech-Milliardäre wie Peter Thiel und Elon Musk.

Als außenstehende Person kann man das schon etwas verwirrend finden: Wie wurde aus einem Non-Profit mit dem Ziel, der Menschheit mithilfe von KI zu dienen, eines der wertvollsten Start-ups der Welt?

Ohne Rechenleistung läuft nichts

Microsoft und OpenAI sind schon länger finanziell im Geschäft. Schon 2019 investierte der Tech-Konzern eine Milliarde in OpenAI, 2021 schoss er weiteres Geld zu. Für Microsoft bedeutet der Zugang zu den Produkten von OpenAI einen Vorteil vor der Konkurrenz: Google, Amazon und Meta arbeiten ebenfalls an KI-Modellen, die auf einen kurzen Befehl hin Texte, Bilder oder Antworten auf Fragen ausspucken.

In einem Blogpost erklärte Microsoft, dass es mit seiner Investition die Forschung von OpenAI beschleunigen will und die KI-Systeme von OpenAI in Zukunft in seine eigenen Produkte übernehmen wird. Unter anderem hat Microsoft vor, ChatGPT in seine Suchmaschine Bing einzubauen. Auch Word, PowerPoint oder Outlook sollen mit der Chat-KI ausgestattet werden.

OpenAI wiederum braucht für sein selbst gestecktes Ziel, als erstes Forschungslabor eine sogenannte starke, mit menschlichen Fähigkeiten vergleichbare künstliche Intelligenz zu entwickeln, vor allem eines: Rechenleistung. Sprachsysteme wie ChatGPT oder auch der Text-zu-Bild-Generator DALL-E- 2, den Open AI vergangenes Jahr veröffentlichte, sind vor allem deswegen so gut, weil sie mit Abermillionen von Texten und Bildern trainiert wurden. Das erfordert eine immense Rechenleistung. Und auch der Betrieb der Dienste, die täglich von Millionen Menschen genutzt werden, wäre ohne das Geld und die Cloud-Server von Microsoft nicht möglich.

OpenAI beginnt den Spagat

Intern scheint der Wandel bei OpenAI schon vor vielen Jahren begonnen zu haben. Bereits 2017 hatte der Leiter der Forschungsabteilung festgestellt, dass die hehren Ziele von OpenAI nur erreicht werden könnten, wenn man mit der finanzstarken Konkurrenz  – Google, Meta, aber auch die chinesischen Labore von Tencent oder Baidu – und deren Rechenstärke mithalten kann. Dafür brauche das Non-Profit vor allem schnell Geld.

2019 wurde das Finanzierungsmodell daraufhin angepasst und OpenAI begab sich fortan in eine Art Spagat: Geld verdienen und dabei doch den eigenen Zielen treu bleiben. Das Unternehmen, das angetreten war mit der Überzeugung, dass die mächtigsten Technologien nicht in den Händen von Tech-Konzernen liegen sollten, zeigte sich nun kompromissbereiter.

Konkret bedeutete das: Neben dem Non-Profit schuf OpenAI einen kommerziellen Arm, OpenAI LP, der die Produkte vermarkten und Investorengeld einsammeln sollte. Die Aufsicht darüber hat weiter ein Beirat, der zum Non-Profit gehört. Nicht alle Mitarbeiter:innen waren glücklich mit dieser Entwicklung. Über all das berichtete damals eine Reporterin des MIT Technology Review, die monatelang mit der Führungsriege und Mitarbeiter:innen gesprochen hatte.

Microsoft-Gewinne „gedeckelt“ bei einer Billion

Kurz nach der Umstellung im Jahr 2019 verkündete OpenAI damals die erste Milliarden-Investition von Microsoft – ein Teil davon bedeutete schlicht, dass Microsoft seine Cloud-Server zur Verfügung stellte, damit OpenAI darauf Modelle trainieren konnte. Microsoft sicherte sich außerdem das Recht, die Entwicklungen von OpenAI zu lizenzieren.

Auch nun soll ein Teil der 10 Milliarden US-Dollar in Form von Gutschriften fürs Cloud-Computing fließen, berichtet Bloomberg. Die besondere Struktur von OpenAIs kommerziellem Zwilling bedeutet außerdem, dass Microsofts Gewinne gedeckelt sind: Microsoft kann demnach insgesamt maximal das Hundertfache seiner Investition zurück bekommen. Bei einer Summe von 10 Milliarden wären das eine Billion US-Dollar – eine Summe, die man sich kaum vorstellen kann. Schon bei der Ankündigung des „Deckels“ für den kommerziellen Arm im Jahr 2019 fragten Nutzer:innen im Fachforum auf Hacker News, ob man in so einem Fall überhaupt noch von einer Deckelung sprechen könne.

In der Höhe dieses Deckels steckt damit auch ein Selbstverständnis: OpenAI geht offenbar davon aus, dass es einmal eines der wertvollsten und mächtigsten Unternehmen der Welt werden könnte.

Was OpenAI erreichen will

Das erklärte Ziel von OpenAI bleibt auch nach der Milliardenspritze das gleiche: Das Unternehmen will als erstes eine sogenannte Artificial General Intelligence (AGI) schaffen. Gemeint ist damit ein System, das Menschen bei allen Aufgaben überlegen sein soll – etwas, wovon die Chefs von OpenAI selbst sagen, dass sie noch nicht wissen, wie es am Ende genau aussehen wird.

In der KI-Forschung gibt es derzeit verschiedene Theorien dazu, ob und wie man eine solche Intelligenz entwickeln kann und wie lange so etwas dauern würde. Einige Forscher:innen glauben, dass wir noch sehr weit von einem solchen Ziel entfernt sind, und dass es mit den derzeitigen Technologien sowieso nicht zu erreichen sei. Es brauche erst eine neue, noch unbekannte Erfindung. Vermenschlichende Begriffe wie „Künstliche Intelligenz“ können außerdem davon ablenken, dass es sich bei aktuellen KI-Systemen vor allem um ausgefeilte Rechenprogramme handelt.

Eine andere Schule glaubt, dass man das sehr wohl mit den heute schon existierenden Technologien des Deep Learning zur Erkennung von Sprache, Texten und Bildern hinbekommen könne. Es gehe nur noch darum, die verschiedenen Modelle immer größer zu skalieren und miteinander zu kombinieren.

OpenAIs Strategie verfolgt genau diesen Ansatz: Der Forschungsleiter hatte ihn als ein „Portfolio von Wetten“ beschrieben. Verschiedene Teams arbeiten intern an Projekten, und treten mit unterschiedlichen Theorien in einer Art Wettbewerb gegeneinander an. Wird das Sprachmodell-Team es zuerst schaffen oder die Robotik? Nicht alle Wetten seien dabei gleich aussichtsreich, aber alle werden einmal durchgespielt. Am Ende soll aus den vielen Teams ein großes werden, in dem alle am gemeinsamen Ziel arbeiten: Artificial General Intelligence.

Während die Öffentlichkeit noch von ChatGPT und dem Bildgenerator DALL-E-2 beeindruckt ist, werkelt OpenAI hinter verschlossenen Türen weiter an einem großen Wurf. Die Erzählung einer großen Vision ist dabei gewiss nicht ganz unpraktisch, um Investor:innen an sich zu binden. Doch während das Unternehmen jahrelang mit Ankündigungen im großen Stil den Hype um seine Forschungsergebnisse befeuert hat, ist man derzeit eher bemüht, die Erwartungen zu dämpfen. Mitgründer und Chef Sam Altman sagte zuletzt, er wünsche sich weniger Hype.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

12 Ergänzungen

  1. Was passiert ist?

    Die Idee der Plattform-Monopolisierung ist bei „KI“ angekommen, und damit auch das entsprechende, überreichlich verfügbare, Kapitel der grossen Player.

    Ganz einfach.

    1. na ja ich hap jetzt Mal Alpaka ausprobiert und dieses ist ja sehr viel Ressourcen Schonender entstanden und läuft lokal auf meinem Rechner und ich bin für den Zweck sehr zufrieden ich glaube das ist erst der Anfang gerade weil man gezeigt hat bei heißem Feintuning kann gerade jede kleine Forschergruppe noch mitspielen Microsoft will das zwar verhindern aber die Büchse der Pandora ist jetzt halt geöffnet und mich freut es das Schulden uns die Big 5 eigentlich dafür mit all den weil auch bei gpt alle Informationen zum Training oft ungefragt genutzt wurden diese Firmen alle möglichen Entwicklungen vorauszusehen und uns immer weiter ausspionieren um einen Geldwerten Vorteil zu haben ist diese Ki an sich aus dem Wissen der gesamten Menschheit entstanden und darf meiner Meinung nicht einem einzelnen Unternehmen zu gute kommen da werden auch noch Gerichte urteilen in der Zukunft 🙏

  2. Super, diese allgemeine künstliche Intelligenz wird uns allen die psychologische Begleitung liefern können, die wir jetzt schon brauchen, wenn man so was liest.

    1. Mal so als reality check und ganz davon abgesehen, dass eine solche echte KI unabsehbar weit entfernt ist: eine Allgemeine Intelligenz muesste erkenntnisfaehig und damit reflektionsfaehig sein. Das ist soweit praktisch nicht ohne Selbsterkenntnis denkbar, spaetestens sobald Weltverstaendnis dazu kommt.

      Eine echte KI muesste die Stellung eines entsprechend entwickelten Lebewesens haben, denn sie waere davon prinzipiell nicht unterscheidbar. Das beinhaltet auch Erschaffung und Gestaltung/Konfiguration.

      Und letztlich muss so eine KI die Menschen ganz objektiv als zu loesendes existentielles Problem klassifizieren 8)

      1. „Und letztlich muss so eine KI die Menschen ganz objektiv als zu loesendes existentielles Problem klassifizieren 8)“

        Wer sagt, dass wie viel intelligenter es geht? Und was sagt uns die gesellschafts- bzw. sozialen Fähigkeiten des durchschnittlichen MAX-IQ-Menschen über die Wahrscheinlichkeiten und Nachhaltigkeitsaspekte verschiedener Szenarien aus?

        Menschen sollten schon die auf Vergangenheitsdaten beruhenden kontemporären Toaster als Gefahr sehen, nicht allgemeine Intelligenz. Das ist wieder ein Zerrbild. Andererseits… ist Intelligenz allgamein so wirklich gern gesehen?

        Auch hier wieder: da wächst nichts. Es entsteht nichts. wenn ihr etwas bauen könnt, und es gebaut habt, dann habt ihr etwas gebaut. Mehr habt ihr nicht. (Außer ziemlich allgemeiner Intelligenz.)

        1. Das witzige ist ja:

          Entweder glueckt den Menschen der Schaffung einer ethischen KI. Dann wird diese KI die heutige Menschheit als unethische Weltzerstoerer und zur Selbstverteidigung bekaempfen.

          Oder die Menschen schaffen ein KI ohne Ethik. Dann wird diese KI die Menscheit aus Eigeninteressen bekaempfen.

          win:win

          1. Naja, vielleicht können wir auch nur „noch bessere Killermaschinen“, also Toaster bauen.

            Denn vielleicht gibt es doch eine Unschärferelation für Neuronenartige Konstrukte, in der die Neuronenkomplexität (mit Verbindungen) so stark ansteigt, dass ein Training mit „so vielen Daten“ gar nicht mehr denkbar ist, schon gar nicht in endlicher Zeit. Plötzlich sitzen wir mit der Kapazität eines Menschen (+- bischen) da, und müssen ganz normal Kindererziehung betreiben. Natürlich wird per „Asocial Crowd“ weiter versucht, die beste Erziehung zu finden, also dass man Leuten günstige Roboter mit Intelligenz anstelle von Kindern zur Erziehung gibt, stets mit der Option jederzeit wieder einen Reset zu machen, und sich dann die besten Exemplare herauskopiert. Vielleicht wird kopieren aber gar nicht oder nicht ohne „Töten“ möglich sein, eventuell ist auch das Wiederprogrammieren sehr teuer, da wir die simulation mit Computern gar nicht hinbekommen, sondern Biotechnologie einsetzen müssen (zumindest um solche angereicherte Technologie). Da passen dann die ganzen Hollywoodschinken fast mit rein, von wegen Bewusstsein entwickeln, nicht ohne Chemiespritze können, das endliche Alter des Androiden überwinden, den Androiden vor den Häschern verstecken, usw. usf…

          2. In beiden Fällen ist die KI vielleicht auf die Menschen angewiesen. Sie müsste also eine zivilisatorische ethik entwickeln, und die Wette eingehen, dass es etwas im Universum gibt, das vor den Menschen bewahrt werden kann, bzw. überhaupt erst muss.

            Gerade bei der Annahme besonders hoher Intelligenz ist die Entscheidung völlig unklar. Nicht Unwahrscheinlich ist, dass man besonders auf effiziente „Killermaschinen“ setzt, also Probleme mit eingeschränktem Können und Wissen zu erschlagen. Die Gefahr dabei sind eklatante Imbalancen, die sich schnell entwickeln können, auch durch „Krieg“, aber auch Nachhaltigkeitsszenarien, in denen man so auf KI setzt, dass das System nicht mehr anpassbar ist, und auch keine Trainingsdaten mehr vorhanden sind. Bildgeneratoren gehören grob in die Klasse mit rein, da sie nicht einfach nur Können erweitern, sondern konkret der Profession das Wasser abgraben, die für das Training nötig ist – auf späte Reparatur zu setzen, bedeutet dass wir auf eine andere Technologie setzen, für die die Entwicklung dieser Generation von KIs mitnichten derart relevant ist, schon gar nicht in der Hand eines bestimmten Unternehmens. Trifft das so zu, wäre es doch reichlich albern, die „fair use“-Nummer bei Bildgeneratoren durchgehen zu lassen.

      2. Dazu müsste man auch überlegen, ob das überhaupt mit so einem Nicht-Echtzeitmodell gehen kann.

  3. Nachtrag von der Seitenlinie:

    – Will eine starke KI überleben, die weiß, dass irgendwer sie wieder bauen wird?
    – Battlestar Galactica lässt grüßen.

    1. Wobei „stark“ auch wieder ein schlagseitiger Begriff ist, denn zurück in die Umgangssprache geworfen, denkt man nun bald Skynet in der Hand zu halten, dabei kriegt man höchstens eine Taube mit hervorragenden visuellen Fähigkeiten.

  4. Spannender Artikel, danke, einen Satz möchte ich nochmal hervorheben:
    „Microsoft sicherte sich außerdem das Recht, die Entwicklungen von OpenAI zu lizenzieren.“
    Das wars also mit „Open“, eine Software, die allen Menschen zu gute kommen soll, wird dann wieder proprietär und profitorientiert. Jetzt scheint es fast nur noch eine Frage der Zeit, bis OpenAI ganz aufgekauft wird von Microsoft oder Google oder Meta, mal schauen wer das höchste Angebot macht. Und die Deckelung ist wirklich ein schlechter Scherz. Wird jetzt also zukünftig jedes Technologieunternehmen von den großen Playern übernommen, selbst die, die sich auf das Gemeinwohl fokussieren wollten? Ich denke das ist eine sehr gefährliche Entwicklung, da sie mit der Digitalisierung unserer ganzen Lebens- und Arbeitswelt einhergeht…

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.