Künstliche IntelligenzDie Hype-Tech-Agenda der Bundesregierung

Die Bundesregierung hat ihre Hightech-Agenda beschlossen. Ein zentrales Ziel: Künstliche Intelligenz soll die deutsche Forschung und Wirtschaft wieder an die Weltspitze „katapultieren“. Damit erliegt die Regierung einmal mehr dem KI-Hype, obwohl er anderswo schon wieder abebbt.

Forschungsministerin Dorothee Bär (CSU)
Forschungsministerin Dorothee Bär (CSU), gehyped. – Alle Rechte vorbehalten HMB-Media

Mehr Wettbewerbsfähigkeit, Wertschöpfung und Souveränität – das verspricht die „Hightech-Agenda Deutschland“, die das Bundeskabinett gestern verabschiedet hat.

Der Entwurf stammt aus dem Bundesministerium für ­Forschung, Technologie und Raumfahrt (BMFTR) von Dorothee Bär (CSU). Die gute Nachricht: Flugtaxis will die Ministerin offenbar nicht länger in die Luft bringen. Stattdessen liegt ihr Augenmerk nun auf sechs „Schlüsseltechnologien“: Quantentechnologien, Mikroelektronik, Biotechnologie, Fusion und klimaneutrale Energieerzeugung, Technologien für die klimaneutrale Mobilität – und Künstliche Intelligenz.

Vor allem bei dem „Megathema“ KI strebt Bär für Deutschland eine Spitzenposition an. Ihre Hightech-Agenda ist durchzogen von der Vorstellung, dass sich mit KI ökonomische und wissenschaftliche Wunder vollbringen lassen. Diese Glaubensfestigkeit überrascht. Denn anderswo werden die Verheißungen des KI-Hypes längst hinterfragt und Kehrtwenden eingeleitet.

Mehr Wirtschaftsleistung durch KI?

In ihrer Hightech-Agenda spart die Regierung selbst nicht mit vollmundigen Versprechungen. Gleich zu Beginn formuliert sie das Ziel, „mit einer KI-Offensive bis 2030 zehn Prozent unserer Wirtschaftsleistung KI-basiert [zu] erwirtschaften“.

An keiner Stelle verrät das knapp 50-seitige Papier, wie das Ministerium zu dieser Zielmarke gelangt ist – oder wie es herausfinden will, dass dieses Ziel erreicht wurde.

„Die Formulierung ist äußerst vage“, sagt Florian Butollo gegenüber netzpolitik.org. Er ist Professor für Soziologie der digitalen Transformation und Arbeit an der Goethe-Universität in Frankfurt am Main und leitet das Forschungsprojekt „Generative KI in der Arbeitswelt“ am Weizenbaum-Institut. Sollen in fünf Jahren zehn Prozent aller Unternehmen KI einsetzen? Das wäre sehr wenig, sagt Butollo. Oder soll tatsächlich zehn Prozent der Bruttowertschöpfung auf KI zurückgehen? Dann aber müsste die Regierung berücksichtigen, dass die Arbeit mit KI meist in einer dynamischen Interaktion zwischen Mensch und Technologie erfolgt. Hier den Beitrag von KI seriös zu messen, sei kaum möglich, so der Soziologe.

„Nicht vom KI-Hype treiben lassen“

Auch andere trauen den wirtschaftlichen Verheißungen der Hightech-Agenda nicht. Sie befürchten vielmehr, dass der KI-Einsatz zulasten von Arbeitnehmer:innen geht. Die Sorge ist begründet: Gut ein Viertel der Unternehmen geht davon aus, dass der KI-Einsatz in den kommenden fünf Jahren zu einem Stellenabbau führen wird.

„Es darf nicht darum gehen, die Personalkosten zu senken“, warnt die Vorsitzende des Deutschen Gewerkschaftsbunds, Yasmin Fahimi. Vielmehr müsse eine höhere Qualität der Arbeit und mehr Mitbestimmung der Mitarbeitenden im Fokus stehen.

Und der europäische Betriebsratschef von SAP, Andreas Hahn, fordert, sich nicht vom KI-Hype treiben zu lassen. Wer glaube, „dasselbe mit weniger Ressourcen liefern zu können“, drohe von Konkurrenten überholt zu werden, die mit einer nicht geschrumpften Belegschaft mehr und bessere Produkte liefern.

Alles netzpolitisch Relevante

Drei Mal pro Woche als Newsletter in deiner Inbox.

Jetzt abonnieren

Hahn widerspricht damit auch SAP-Vorstandschef Christian Klein. Der hatte behauptet, die Entwickler:innen seines Softwarekonzerns seien dank KI um dreißig Prozent produktiver geworden. Bereits Anfang vergangenen Jahres hatte Klein eine KI-Offensive und Streichung mehrerer tausend Stellen angekündigt.

Erst investieren, dann verstehen?

Solche Effizienzversprechen ziehen erste Studien in Zweifel. So kommt eine aktuelle Untersuchung der Cornell University sogar zu dem Schluss, dass erfahrene Programmierer nicht weniger, sondern mehr Zeit benötigen, wenn sie mit Hilfe von KI Code entwickeln. Darüber hinaus räumen erste Unternehmen ein, das die Angebotsqualität durch den KI-Einsatz leidet. So setzt etwa das schwedische Fintech-Unternehmen Klarna in seinem Kundendienst inzwischen wieder auf Menschen statt auf KI.

Florian Butollo überrascht das nicht. „Nicht die KI macht etwas, sondern Menschen machen etwas mit KI. Unternehmen schaden sich also selbst, wenn sie am menschlichen Arbeitsvermögen sparen, ohne das die KI nicht sinnvoll eingesetzt werden kann.“

Gründe für das erratische Verhalten von Unternehmen hat eine internationale IBM-Studie gefunden. Demnach neigen etwa zwei Drittel der CEOs dazu, in Technologien zu investieren, noch bevor sie deren ökonomischen Wert vollständig verstanden hätten. Ihre große Sorge: Dass sie hinter der Konkurrenz zurückfallen könnten.

KI als Forschungstreiber?

Die Sorge, abgehängt zu werden, treibt auch Forschungsministerin Bär an. Bei der Präsentation der Hightech-Agenda zeigte sie sich überzeugt, dass die deutsche Wirtschaft international nur dann „wieder an die Wettbewerbsspitze“ gelangen könne, wenn die Rahmenbedingungen für die Forschung stimmen. Etliche Wissenschaftsbereiche sollen deshalb von Künstlicher Intelligenz profitieren – von der Gesundheits- und Materialforschung über die Klima- und Biodiversitätsforschung bis zur Energie- und Nachhaltigkeitsforschung.

Doch auch für die Wissenschaft wird die KI keine Wunder vollbringen können. Denn die Fähigkeiten selbst aktueller Spitzenmodelle sind offenkundig ziemlich beschränkt und damit nicht vertrauenswürdig.

Der neueste Schrei auf dem KI-Hype-Markt sind sogenannte Large Reasoning Models (LRMs). Das sind fortgeschrittene KI-Modelle, die auf der Architektur großer Sprachmodelle (Large Language Models, LLMs) basieren, aber speziell darauf trainiert sind, mehrschrittige und vermeintlich strukturierte Schlussfolgerungen zu ziehen. Sie sollen somit nicht nur Texte „verstehen“ und erzeugen, sondern auch menschenähnliches Denken imitieren können, was insbesondere auch der Forschung zugutekommen soll.

Dass die Ergebnisse der LRMs jedoch nur mit Vorsicht zu genießen sind, hat jüngst eine Forschungsgruppe des Konzerns Apple herausgefunden. Laut der Studie „The Illusion of Thinking“ arbeiten etwa die Sprachmodelle von OpenAI mit zunehmender Komplexität der Aufgaben immer ungenauer – bis zum „complete accuracy collapse“, einem kompletten Genauigkeitskollaps. Warum es dazu kommt, können die Forschenden nach eigenen Angaben nicht erklären, sie gehen aber von einem grundlegenden Problem der KI-Technologie aus.

Und auch eine Studie, an denen unter anderem KI-Forschende aus dem Hause Google beteiligt waren, bewertet die Begründungen von LRMs als „irreführend“ und deren Resultate als wenig vertrauenswürdig.

Im besten Fall könne KI Software-Code oder Texte schreiben, so das Fazit des KI-Forschers Gary Marcus. Aber selbst dann seien die Ergebnisse alles andere als zuverlässig. Vielmehr könnte die KI „dir vorgaukeln, dass sie eine richtige, verallgemeinerbare Lösung entwickelt habe, obwohl das nicht der Fall ist.“

Uns fehlen dieses Jahr noch 303.670 Euro.

Bundesregierung will AI-Gigafactory bauen

Derlei Erkenntnisse halten die Bundesregierung nicht davon ab, KI auch baulich in übergroßen Dimensionen zu denken. „Wir holen mindestens eine der europäischen AI Gigafactories nach Deutschland“, heißt es in der Hightech-Agenda. Eine solche Ankündigung fand sich auch im Koalitionsvertrag.

Die gigantischen Rechenzentren dienen dem Training großer Sprachmodelle und verfügen über mindestens 100.000 spezielle Hochleistungsprozessoren, sogenannte GPU. Derzeit verfügen die größten Anlagen hierzulande über rund 25.000 GPU.

Insgesamt fünf dieser Rechenzentren will EU-Kommission europaweit bauen. Die Kommission schätzt, dass die Kosten pro Gigafabrik bei drei bis fünf Milliarden Euro liegen – die ökologischen Kosten mal außen vorgelassen. Ein europäischer Fonds soll deren Bau mit insgesamt 20 Milliarden Euro bezuschussen. Voraussichtlich 35 Prozent der Gesamtkosten werden die europäischen Steuerzahler:innen tragen, den Rest müssen die beteiligten Firmen und Investmentfonds aufbringen.

Das Interesse ist offenkundig groß: Bis Ende Juni haben Unternehmen und Forschungseinrichtungen bei der Kommission insgesamt 76 sogenannte Interessensbekundungen für den Bau einer Gigafactory eingereicht. Darunter sind einige deutsche Konzerne wie T-Systems und Ionos, während der KI-Bundesverband vom deutschen Staat noch mehr finanzielle Unterstützung wie Steuererleichterungen einfordert.

Der Hype ebbt ab

Die Bundesregierung zeigt sich optimistisch. Laut ihrer Hightech-Agenda soll die erste AI Gigafactory in Deutschland schon Mitte 2027 in Betrieb gehen.

Selbst wenn diese Frist gehalten wird, ist das mit Blick auf die KI-Forschung eine langer Zeitraum. Vor gut einem halben Jahr veröffentlichten chinesische Entwickler:innen das KI-Modell DeepSeek. Ihnen zufolge könne DeepSeek mit der Konkurrenz mithalten. Das Training der KI benötige im Vergleich aber nur ein Bruchteil der Rechenkraft und erheblich weniger Zeit.

Die Tech-Welt zeigte sich aufgeschreckt: „Wir sollten die Entwicklungen in China sehr, sehr ernst nehmen“, sagte Microsoft-CEO Satya Nadella damals auf dem Weltwirtschaftsforum in Davos. Trotzdem gab Microsoft im April bekannt, einige seiner Rechenzentrumsprojekte „zu verlangsamen oder zu pausieren“. Beobachter gehen davon aus, dass sich der Konzern „im Eifer des Gefechts um Künstliche Intelligenz höchstwahrscheinlich zu viel vorgenommen“ hatte. Auch Marktführer Amazon hat mehrere Bauprojekte für Rechenzentren auf Eis gelegt.

Selbst in China ebbt der KI-Hype offenkundig ab. In den Jahren 2023 und 2024 wurde landesweit der Bau von mehr als 500 Rechenzentren angekündigt. Bis Ende 2024 waren zwar 150 von ihnen gebaut. Doch 80 Prozent dieser Rechenzentren sind chinesischen Medien zufolge nicht in Gebrauch. „KI-Projekte scheitern, Energie wird verschwendet und Rechenzentren sind zu ’notleidenden Vermögenswerten‘ geworden, die Investoren gerne zu Preisen unter dem Marktwert loswerden möchten“, beschreibt die MIT Technology Review die Lage in China.

Dass die Frage der Wirtschaftlichkeit in der deutschen Debatte nur am Rande vorkommt, könnte auch mit dem schwarz-roten Koalitionsvertrag zusammenhängen. Darin steht, dass der Staat bei Vorhaben der Hightech-Agenda auch als „Ankerkunde“ tätig wird. Mit anderen Worten: Die Bundesregierung sichert zu, mit Steuergeldern für eine Mindestnachfrage bei den Gigafactories zu sorgen. Offenbar ist sie selbst also nicht allzu fest davon überzeugt, dass der KI-Hype aus sich heraus Früchte trägt.

6 Ergänzungen

  1. FYI

    >> Die gigantischen Rechenzentren dienen dem Training großer Sprachmodelle und verfügen über mindestens 100.000 spezielle Hochleistungsprozessoren, sogenannte GPU. Derzeit verfügen die größten Anlagen hierzulande über rund 25.000 GPU.

    Unsere allseits beliebte Forschungsministerin Dorothee Bär (CSU) sollte mal beim bayerischen LRZ einen Besuch einplanen und gemäß des urbayerischen Slogans „Laptop und Lederhose“ im feschen Dirndl sich die Vorzüge der System-on-wafer integration erklären lassen.

    https://arxiv.org/pdf/2502.04563

    WaferLLM: Large Language Model Inference at Wafer Scale

    Emerging AI accelerators increasingly adopt wafer-scale manufacturing technologies, integrating hundreds of thousands of AI cores in a mesh architecture with large distributed on-chip memory (tens of GB in total) and ultra-high on-chip memory bandwidth (tens of PB/s). However, current LLM inference systems, optimized for shared memory architectures like GPUs, fail to exploit these accelerators fully.

    https://www.lrz.de/news/detail/2024-12-10-hassrede-erkennen

    Mit dem CS-2-System von Cerebras können KI-Modelle zur Erkennung von Hassrede auf Social Media-Plattformen schneller trainiert und verletzende Texte besser bekämpft werden. Das zeigt eine LRZ-Studie, die verschiedene KI-Beschleuniger-Systeme miteinander vergleicht.

    1. Die ökologischen Kosten (Energieverbrauch) lassen sich erheblich senken, wenn der politische Wille vorhanden ist.

      https://arxiv.org/pdf/2503.11698v1

      This work evaluates the WSE-3 architecture and compares it with leading GPU-based AI accelerators, notably Nvidia’s H100 and B200. The work highlights the advantages of WSE-3 in performance per watt and memory scalability and provides insights into the challenges in man-
      ufacturing, thermal management, and reliability.

      Eine kleine Anfrage der Opposition (Clara Bünger), ob die BuReg diese fortschrittlichen Technologien schon mal in Betracht gezogen hat, würde sicherlich hilfreich sein. Cerebras produziert seine Chips bei Taiwan Semiconductor Manufacturing Company (TSMC) und Dresden wäre als ein neuer Standort für eine europäische Produktionsstätte bestens geeignet.

      1. In dem Paper steht allerdings auch, dass ISO-power Vergleiche Zugunsten der neuesten NVIDIA Hardware ausgehen… wenn Cerebras so viel besser wäre, warum kaufen die Hyperscaler dann weiter NVIDIA? Die haben selbst immerhin die besten Leute, um das unabhängig zu bewerten.

        Darüber hinaus produziert NVIDIA auch bei TSMC. Die neue Fab in Dresden wird außerdem im 17nm Prozess produzieren, nicht geeignet für cutting-edge AI datacenter Chips.

        1. https://www.theregister.com/2025/05/06/cerebras_ceo_blasts_us_trade/

          Cerebras Systems‘ dinner-plate-sized chips currently power the latest AI inference offerings from Meta and, soon, those of IBM, but US trade policy weighs heavy on its prospects worldwide.

          „The [AI] diffusion rule is bad policy,“ CEO Andrew Feldman said during a press conference ahead of IBM’s annual Think conference, which kicked off on Tuesday.

          These and other AI-related rules, set to go into effect later this month unless the Trump administration intervenes, were put forward in the final hours of former President Joe Biden’s first term and seek to limit the sale of American GPUs and AI accelerators outside the US and a select few allies.

          One of the goals of the policy is to prevent China and other nations barred from getting around the bans by buying American accelerators directly from using countries where they are legal.

          Yet while some AI startups have called for even tougher controls on AI exports, US chip companies aren’t a fan. Last week, Nvidia CEO Jensen Huang, whose GPU empire stands to lose the most from the rules, called on the Trump administration to revise them.

          Cerebras Supernova 2025: Andrew Feldmann

          https://www.youtube.com/watch?v=4tbeWbAfxiw

  2. Hype hin oder her: Dieses Mal ist genug Geld, will sagen „Sondervermögen“ da.

    Soziale Sicherungsstrukturen ab-, KI-Infrastruktur aufbauen. Es sollte jetzt langsam klar sein, wohin die Reise gehen wird.

  3. Baden-Württemberg Neckarsulmer Schwarz-Gruppe und Telekom planen gemeinsame KI-Gigafactory

    Stand: 01.12.2025 06:47 Uhr

    Die Schwarz-Gruppe aus Neckarsulm will mit der Telekom eine europäische Gigafactory für künstliche Intelligenz aufbauen. Laut Insidern gibt es bereits fortgeschrittene Gespräche.

    https://www.tagesschau.de/inland/regional/badenwuerttemberg/swr-neckarsulmer-schwarz-gruppe-und-telekom-planen-gemeinsame-ki-gigafactory-100.html

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Bitte keine reinen Meinungsbeiträge! Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.