Digital

OpenAI: Milliardenkosten für KI-Rechenzentren in Musk-Prozess

Gerichtsunterlagen offenbaren die enormen Betriebsausgaben für ChatGPT und andere KI-Modelle.

Von Markus Bauer 8 Min. Lesezeit Aktualisiert: 07.05.2026
OpenAI: Milliardenkosten für KI-Rechenzentren in Musk-Prozess

Rund 8,5 Milliarden US-Dollar Betriebskosten bei einem Umsatz von etwa 3,7 Milliarden Dollar — diese Zahlen aus internen OpenAI-Dokumenten, die im Rechtsstreit mit Elon Musk vor einem kalifornischen Gericht offengelegt wurden, verdeutlichen schlagartig, wie kapitalintensiv das Geschäft mit generativer Künstlicher Intelligenz tatsächlich ist. Der Rechtsstreit zwischen dem OpenAI-Gründer und dem Unternehmen wird damit unfreiwillig zum Fenster in die sonst hermetisch abgeschirmte Finanzwelt des wertvollsten KI-Unternehmens der Welt.

Was die Gerichtsdokumente zeigen

Im Kern des Verfahrens steht Elon Musks Klage gegen OpenAI, in der er dem Unternehmen vorwirft, seinen ursprünglich gemeinnützigen Gründungsauftrag zugunsten kommerzieller Gewinnmaximierung aufgegeben zu haben. Im Zuge der Prozessvorbereitung musste OpenAI interne Finanzdaten vorlegen, die nun ein seltenes Bild der wahren wirtschaftlichen Realität hinter dem ChatGPT-Hype zeichnen. Laut den Unterlagen belaufen sich die jährlichen Ausgaben des Unternehmens auf deutlich mehr als das Doppelte seiner Einnahmen — ein Defizit, das OpenAI durch kontinuierliche Investitionsrunden zu schließen versucht.

Besonders aufschlussreich ist die Aufschlüsselung der Kosten: Den größten Posten bilden Rechenkapazitäten, die OpenAI vor allem über Microsoft Azure bezieht. Die Partnerschaft mit Microsoft, die mit einem Investitionsvolumen von mehreren Milliarden Dollar unterlegt ist, sichert OpenAI zwar den Zugang zu massiver Infrastruktur, macht das Unternehmen aber gleichzeitig von einem einzigen Anbieter abhängig. Hinzu kommen Personalkosten für mehrere tausend Mitarbeitende sowie Ausgaben für Forschung und Sicherheit, die OpenAI als unverzichtbar für den verantwortungsvollen Betrieb von KI-Systemen bezeichnet.

Der laufende Rechtsstreit mit Musk hat eine weitere Dimension: Laut Gerichtsunterlagen soll Musk in frühen Gesprächen vorgeschlagen haben, OpenAI-Gewinne für ambitionierte außerirdische Projekte zu verwenden — mehr dazu in unserem Bericht über die Pläne, wie Musk die Mars-Besiedlung über OpenAI finanzieren wollte. Die nun offengelegten Zahlen machen deutlich, dass von profitablen Überschüssen derzeit keine Rede sein kann.

Kerndaten: OpenAI verbuchte zuletzt Betriebsausgaben von rund 8,5 Milliarden US-Dollar pro Jahr bei einem Umsatz von etwa 3,7 Milliarden Dollar. Die größten Kostentreiber sind Recheninfrastruktur (GPU-Server, Cloud-Kapazitäten) sowie Personalaufwand. Das Unternehmen beschäftigt mehrere tausend Mitarbeitende und ist maßgeblich auf Kapitalzuflüsse von Investoren angewiesen. Microsoft gilt als wichtigster Infrastrukturpartner und Hauptinvestor. ChatGPT zählt laut Statista zu den am schnellsten wachsenden Internetanwendungen der Geschichte — mit über 100 Millionen Nutzenden innerhalb von zwei Monaten nach dem Start. Der Gesamtmarkt für generative KI soll laut Gartner bis Ende des Jahrzehnts auf über 280 Milliarden US-Dollar wachsen.

Warum KI-Rechenzentren so teuer sind

Chatgpt Kuenstliche Intelligenz Openai Dialog Chatbot Konversation Benutzeroberflaeche Zennews24

Um die Dimension dieser Kosten einzuordnen, lohnt ein Blick auf die technische Grundlage: Große Sprachmodelle wie GPT-4o oder die aktuell eingeführten Nachfolgemodelle basieren auf sogenannten Transformerarchitekturen — mathematische Systeme, die während des Trainings und im laufenden Betrieb enorme Mengen an Rechenoperationen durchführen. Dafür werden spezialisierte Prozessoren benötigt, sogenannte GPUs (Graphics Processing Units) oder neuere KI-Beschleuniger wie Nvidias H100-Chips, die einzeln mehrere zehntausend Dollar kosten.

Ein einziger Trainingsvorgang für ein großes Sprachmodell kann Hunderte Millionen Dollar verschlingen — und das ist erst der Anfang. Im Dauerbetrieb, also wenn Millionen von Nutzenden täglich Anfragen an ChatGPT stellen, entstehen kontinuierliche Inferenzkosten. Als Inferenz bezeichnet man den Prozess, bei dem das fertig trainierte Modell tatsächliche Antworten generiert. Jede Anfrage erfordert Rechenoperationen, Speicherbandbreite und Kühlung — alles zusammen ergibt einen permanenten Stromverbrauch in industriellen Dimensionen.

Laut Schätzungen der Marktforschung von IDC entfallen auf Recheninfrastruktur und Energiekosten mittlerweile der größte Teil der Betriebsausgaben bei führenden KI-Unternehmen. Die Nachfrage nach KI-spezifischen Rechenzentren wächst dabei so schnell, dass globale Engpässe bei geeigneten Standorten, Stromkapazitäten und Kühlsystemen entstehen — ein Problem, das OpenAI, Google, Meta und Microsoft gleichermaßen betrifft.

Die Rolle von Microsoft und der Cloud-Abhängigkeit

OpenAIs Abhängigkeit von Microsoft Azure ist strategisch und wirtschaftlich zugleich bedeutsam. Microsoft hat sich über seine Milliarden-Investitionen nicht nur Anteile an OpenAI gesichert, sondern auch das exklusive Recht, OpenAIs Modelle in eigene Produkte wie Microsoft 365 Copilot zu integrieren und über die Azure-Cloud weiterzuvermarkten. Diese Verflechtung hat OpenAI zwar schnell zu enormen Rechenkapazitäten verholfen, schafft aber eine strukturelle Abhängigkeit, die auf lange Sicht strategische Fragen aufwirft.

Denn: Wer die Infrastruktur kontrolliert, kontrolliert auch wesentliche Teile der Kostenstruktur. Laut Berichten aus dem Gerichtsverfahren zahlt OpenAI Microsoft erhebliche Summen für Cloud-Dienste — Geld, das damit letztlich an den Investor zurückfließt. Dieses zirkuläre Finanzmodell ist keineswegs einzigartig in der Tech-Branche, wirft aber Fragen zur tatsächlichen Unabhängigkeit von OpenAI auf. Zum Vergleich: Konkurrenten wie Anthropic arbeiten ähnliche Partnerschaften mit Google und Amazon aus, während Meta auf selbst betriebene Infrastruktur setzt.

Parallel zur Infrastrukturfrage drängen OpenAI und seine Konkurrenten in neue Geschäftsfelder: Wie OpenAI und Anthropic in die Unternehmensberatung drängen, zeigt, dass die KI-Firmen versuchen, ihre Einnahmebasis über reine Produktabonnements hinaus zu diversifizieren — auch um die enormen laufenden Kosten besser abzudecken.

Was das Musk-Verfahren über OpenAIs Zukunft verrät

Elon Musks Klage ist juristisch komplex, aber ihre Nebenwirkung — die unfreiwillige Transparenz über OpenAIs Finanzsituation — ist für die Öffentlichkeit mindestens so interessant wie das eigentliche Verfahren. Die offengelegten Zahlen zeigen, dass OpenAI derzeit in einem strukturellen Verlustbetrieb agiert und auf ständige Kapitalzuflüsse angewiesen ist, um die laufenden Kosten zu decken.

Das ist im Tech-Sektor keine Ausnahme, sondern bei wachstumsorientierten Plattformunternehmen eher die Regel — Amazon, Uber und Airbnb haben jahrelang Verluste verbucht, bevor sie die Gewinnzone erreichten. Dennoch unterscheidet sich OpenAIs Situation in einem wichtigen Punkt: Die Kosten skalieren nicht linear mit der Nutzerbasis, sondern bleiben strukturell hoch, weil jede einzelne KI-Anfrage tatsächliche Rechenkosten verursacht. Das ist fundamental anders als etwa eine Streaming-Plattform, die einen Film unbegrenzt oft ausliefern kann, ohne zusätzliche Produktionskosten zu generieren.

Laut Gartner befinden sich Unternehmen, die auf generative KI setzen, in einem frühen, kostspieligen Reifestadium, in dem Investitionen in Infrastruktur und Modellentwicklung Renditen vorwegnehmen, die erst mittelfristig realisierbar sind. Bitkom schätzt, dass allein in Deutschland die Ausgaben für KI-Infrastruktur in den nächsten Jahren stark zunehmen werden — ein Trend, der OpenAIs globale Kostensituation spiegelt.

Anbieter Flagship-Modell Infrastruktur Geschätztes Defizit / Kostenstruktur Haupteinnahme
OpenAI GPT-4o / GPT-5.5 Instant Microsoft Azure (extern) Betriebsdefizit laut Gerichtsunterlagen mehrere Mrd. USD jährlich ChatGPT-Abos, API-Zugang, Enterprise-Lizenzen
Anthropic Claude 3.5 / Claude 3 Opus Google Cloud, AWS (extern) Strukturell verlustreich, hohe Investitionsfinanzierung API-Zugang, Claude.ai-Abos, Enterprise
Google DeepMind Gemini Ultra / Gemini Pro Google-eigene TPU-Infrastruktur In Google-Konzernstruktur integriert, keine separaten Zahlen Google Workspace, Cloud AI APIs
Meta AI Llama 3 (Open Source) Meta-eigene Rechenzentren Open-Source-Modell, Monetarisierung über Plattformen Werbegeschäft, keine direkten KI-Abos
Mistral AI Mistral Large / Mixtral Hybrid (Cloud + eigen) Europäischer Herausforderer, noch kleiner Marktanteil API-Zugang, Enterprise-Partnerschaften

Das Modellportfolio als Kostenfaktor

Ein weiterer Aspekt, den die Gerichtsdaten indirekt beleuchten: OpenAI betreibt nicht ein einzelnes KI-Modell, sondern ein wachsendes Portfolio an Systemen für unterschiedliche Anwendungsfälle. Das bedeutet parallele Infrastrukturkosten für Training, Feinabstimmung und Betrieb mehrerer Modellgenerationen gleichzeitig. GPT-4o als bisher leistungsfähigstes Modell markierte einen qualitativen Sprung in Echtzeit-Multimodalität — also der Fähigkeit, Text, Bild und Audio gleichzeitig zu verarbeiten — erhöhte aber auch den Ressourcenbedarf erheblich.

Parallel dazu hat OpenAI zuletzt GPT-5.5 Instant als neues Standard-Modell eingeführt, das auf Schnelligkeit und Kosteneffizienz optimiert ist. Diese Strategie — günstigere Modelle für alltägliche Aufgaben, teure Spitzenmodelle für komplexe Anforderungen — ist der Versuch, die Kostenstruktur zu differenzieren und gleichzeitig mehr Nutzergruppen anzusprechen. Ob das ausreicht, die strukturellen Defizite zu schließen, bleibt offen.

Für Verbraucherinnen und Verbraucher bedeutet das konkret: Die scheinbar günstigen oder kostenlosen KI-Dienste werden massiv quersubventioniert — durch Risikokapital, durch Microsofts Infrastrukturinvestitionen und durch Hoffnungen auf zukünftige Profitabilität. Statista dokumentiert, dass die Zahlungsbereitschaft für KI-Abonnements zwar steigt, aber nach wie vor hinter den tatsächlichen Betriebskosten pro Nutzer zurückbleibt.

Musk, OpenAI und die Frage der Kontrolle

Hinter dem juristischen Konflikt steht auch ein Machtkampf um die Richtung der KI-Entwicklung. Musk, der inzwischen mit xAI und dem Modell Grok ein eigenes KI-Unternehmen betreibt, wirft OpenAI vor, sich von gemeinnützigen Idealen entfernt zu haben. OpenAI wiederum argumentiert, dass nur ausreichend Kapital und kommerzielle Einnahmen die notwendige Forschung an sicherer, fortgeschrittener KI ermöglichen.

Dass Musk gleichzeitig Konkurrent und Kläger ist, macht die Sache juristisch und ethisch kompliziert. Die Idee, dass Musk OpenAI-Gewinne für die Mars-Besiedlung nutzen wollte, illustriert, wie weit die Visionen der beteiligten Akteure auseinanderlagen — und wie sehr der Konflikt auch persönlicher Natur ist.

Die interne Krise um Sam Altmans Entlassung und spektakuläre Rückkehr bei OpenAI hat gezeigt, wie fragil die Führungsstruktur des Unternehmens trotz seiner Marktmacht ist. Die nun offengelegten Finanzdaten fügen dieser Geschichte eine weitere Schicht hinzu: Ein Unternehmen, das mit seinen Modellen die Welt verändert, kämpft gleichzeitig darum, seine eigene wirtschaftliche Zukunft zu sichern.

Einordnung: Was die Zahlen bedeuten

Die im Musk-Verfahren zutage getretenen Finanzdaten sind kein Zeichen einer drohenden Insolvenz — OpenAI verfügt über ausreichend Kapitalzusagen, um den Betrieb fortzuführen. Sie sind aber ein nüchternes Korrektiv zum bisweilen euphorischen Diskurs rund um KI als sofort profitables Geschäftsfeld. Wer KI-Dienste in großem Maßstab anbietet, muss enorme physische Ressourcen binden: Strom, Kühlwasser, seltene Halbleiter, spezialisiertes Personal.

IDC prognostiziert, dass die globalen Ausgaben für KI-Infrastruktur in den nächsten Jahren weiter stark wachsen werden — ein Wachstum, das Halbleiterhersteller wie Nvidia, Cloud-Anbieter und Energieversorger direkt begünstigt, während die eigentlichen KI-Modellentwickler zunächst in Vorleistung gehen. Für die Branche als Ganzes stellt sich damit eine fundamentale Frage: Wer verdient am KI-Boom — die Plattformen oder die Infrastrukturanbieter?

Die Antwort, die die Gerichtsdokumente implizit geben, ist ernüchternd: Derzeit vor allem letztere. OpenAI, das Unternehmen, das den aktuellen KI-Zyklus wie kein zweites geprägt hat, subventioniert mit seinen Milliardendéfiziten letztlich das Wachstum seiner eigenen Infrastrukturzulieferer — und hofft darauf, dass die Monetarisierung schnell genug folgt, um dieses Modell dauerhaft tragfähig zu machen.

Mehr zum Thema

Weiterführende Informationen: BSI Bundesamt fuer Sicherheit

Wie findest du das?
M
Markus Bauer
Technologie & Digitales

Markus Bauer verfolgt die Entwicklungen in Tech, KI und Digitalpolitik. Er analysiert, wie neue Technologien Gesellschaft und Wirtschaft verändern — von Datenschutz bis Plattformregulierung.

Quelle: t3n
Themen: KI Künstliche Intelligenz Mobilität ChatGPT Außenpolitik Umwelt Bundesliga USA CDU Bilanz Bayern Kosten Bundesregierung Ukraine Koalition SPD Druck Milliarden Rekord Boom Prozent Russland Trump Champions League