Digital

Nvidia-Konkurrenz: AMD, Intel und die nächste KI-Chip-Generation

H100, MI300X, Gaudi 3 — wer Nvidias Dominanz herausfordert

Von Markus Bauer 7 Min. Lesezeit Aktualisiert: 07.05.2026
Nvidia-Konkurrenz: AMD, Intel und die nächste KI-Chip-Generation

Nvidia kontrolliert nach Schätzungen von Analysten rund 80 Prozent des Marktes für KI-Beschleuniger — doch erstmals seit Jahren formiert sich ernstzunehmende Konkurrenz. AMD und Intel greifen mit neuen Chip-Architekturen an, und die Frage ist nicht mehr ob, sondern wann sich das Kräfteverhältnis verschiebt.

Der Hunger nach Rechenleistung für künstliche Intelligenz wächst schneller als jede andere Nachfrage in der Halbleiterbranche. Laut IDC soll der globale Markt für KI-Beschleuniger in den nächsten Jahren auf über 150 Milliarden US-Dollar anwachsen. Nvidia hat diesen Markt mit dem H100 praktisch erfunden — doch AMD und Intel wollen sich ein wachsendes Stück des Kuchens sichern. Dabei geht es nicht nur um Marktanteile, sondern um eine fundamentale Frage der digitalen Infrastruktur: Wer liefert die Rechengrundlage für das KI-Zeitalter?

Kerndaten: Nvidia H100 — 80 GB HBM2e-Speicher, bis zu 3,35 Petaflops (FP8), Hopper-Architektur, NVLink-Verbund bis 256 GPUs. AMD MI300X — 192 GB HBM3-Speicher, bis zu 5,3 Petaflops (FP8), CDNA3-Architektur. Intel Gaudi 3 — 128 GB HBM2e, bis zu 1,8 Petaflops (BF16), optimiert für LLM-Inferenz. Marktanteil Nvidia KI-Beschleuniger: ca. 80 % (Quelle: IDC). Prognostiziertes Marktwachstum KI-Chips: >150 Mrd. USD (Quelle: IDC).

Nvidia H100: Der Maßstab, an dem alle gemessen werden

Wer die aktuelle KI-Chip-Debatte verstehen will, muss beim H100 beginnen. Nvidias Flaggschiff-Beschleuniger basiert auf der sogenannten Hopper-Architektur — benannt nach der Computerpionierinnen Grace Hopper. Der Chip ist keine klassische Grafikkarte im herkömmlichen Sinne, sondern ein spezialisierter Rechenbeschleuniger: Er führt massiv parallele Rechenoperationen durch, die für das Training großer Sprachmodelle wie GPT-4 oder Gemini zwingend erforderlich sind. Parallel bedeutet hier, dass Tausende von Rechenkernen gleichzeitig an einem Problem arbeiten — vergleichbar mit einem Orchester statt einem Solisten.

Der entscheidende Vorteil des H100 liegt weniger im reinen Rechenvolumen als im Ökosystem: Nvidias CUDA-Plattform ist seit fast zwanzig Jahren der Industriestandard für GPU-Programmierung. Entwickler, Unternehmen und Forschungseinrichtungen haben Milliarden von Codezeilen auf CUDA optimiert. Diesen Graben zu überwinden ist für jeden Herausforderer die eigentliche Herausforderung — nicht der Chip selbst. Wie tief dieser Graben ist, beschreibt auch Nvidias unwahrscheinliche Erfolgsgeschichte in der Tech-Welt, die zeigt, wie das Unternehmen seinen Vorsprung über Jahrzehnte systematisch ausgebaut hat.

Dennoch hat das Nvidia-Modell strukturelle Schwächen. Die Lieferengpässe der vergangenen Jahre, die massiven Preise — ein einzelner H100-Server-Node kostet mehrere Hunderttausend Dollar — und die Abhängigkeit von einem einzigen Anbieter machen CIOs und Infrastrukturverantwortliche nervös. Das öffnet das Fenster für AMD und Intel.

AMDs MI300X: Der ernsthafteste Herausforderer

Streaming Krieg Plattformen Abonnenten Konkurrenz Logos Zennews24
Streaming Krieg Plattformen Abonnenten Konkurrenz Logos Zennews24

Die AMD Instinct MI300X ist derzeit das überzeugendste Gegenargument zu Nvidias Dominanz. Technisch sticht ein Merkmal besonders heraus: Der Chip verfügt über 192 Gigabyte HBM3-Speicher — also Hochgeschwindigkeitsspeicher, der direkt auf dem Chip-Package integriert ist. Das ist mehr als doppelt so viel wie beim H100. Für KI-Anwendungen ist das kein Luxusmerkmal, sondern ein funktionaler Vorteil: Große Sprachmodelle mit Milliarden von Parametern passen vollständig in den Chip-Speicher, ohne dass Daten aufwendig zwischen verschiedenen Speicherebenen ausgetauscht werden müssen.

Microsoft Azure, Meta und Oracle haben den MI300X in ihre Rechenzentren integriert — ein Signal, das die Branche aufhorchen ließ. AMD-CEO Lisa Su sprach öffentlich von einem Milliarden-Quartalsumsatz allein mit dem MI300X-Segment, was für ein Produkt, das den Markt erst kürzlich betrat, bemerkenswert ist.

Software als entscheidende Lücke

Das zentrale Problem für AMD bleibt die Software-Schicht. Nvidias CUDA ist faktisch ein Quasi-Monopol in der Entwickler-Community. AMDs Gegenstück heißt ROCm (Radeon Open Compute) und hat zwar technisch aufgeholt, kämpft aber noch immer mit Kompatibilitätslücken und einer weniger ausgereiften Entwicklungsumgebung. Viele KI-Frameworks wie PyTorch oder JAX laufen zwar auf ROCm, doch die Performance-Optimierung für spezifische Workloads ist aufwendiger als auf CUDA. Für Enterprise-Kunden, die auf stabile, gut dokumentierte Werkzeuge angewiesen sind, ist das ein reales Hindernis.

Laut Gartner wird die Software-Kompatibilität in den nächsten Jahren zum wichtigsten Differenzierungsmerkmal im KI-Beschleuniger-Markt — noch vor der reinen Chip-Performance. AMD investiert stark in ROCm-Verbesserungen, aber der Rückstand ist strukturell und lässt sich nicht über Nacht schließen.

Intel Gaudi 3: Der Außenseiter mit spezifischen Stärken

Intel ist in der KI-Chip-Debatte der unwahrscheinlichste Teilnehmer — und gleichzeitig derjenige mit dem interessantesten Positionierungsansatz. Der Gaudi 3, Intels aktueller KI-Beschleuniger, kommt aus der Habana-Labs-Übernahme und unterscheidet sich architektonisch grundlegend von GPU-basierten Lösungen. Statt auf parallele Grafikpipelines setzt Gaudi auf eine matrixoptimierte Tensor-Architektur — vereinfacht: Der Chip ist spezifisch für die Matrizenmultiplikationen optimiert, die beim Betrieb großer Sprachmodelle dominieren.

Intel positioniert den Gaudi 3 nicht als direkten H100-Killer, sondern als kosteneffiziente Alternative für Inferenz-Workloads. Inferenz bezeichnet dabei den produktiven Betrieb eines bereits trainierten KI-Modells — also wenn ein Nutzer ChatGPT eine Frage stellt, läuft Inferenz, kein Training. Dieser Markt wächst exponentiell, da immer mehr Unternehmen bestehende Modelle in ihre Produkte integrieren, statt selbst zu trainieren. Intel sieht hier seine Chance.

Intels strukturelles Dilemma

Das Problem: Intel kämpft auf mehreren Fronten gleichzeitig. Das Kerngeschäft mit Server-CPUs verliert gegenüber AMD Opteron an Boden, die eigene Fertigungskapazität (Intel Foundry Services) kämpft mit Rendite-Problemen, und das Gaudi-Programm leidet unter Ressourcenkonflikten innerhalb des Konzerns. Analysten von Statista sehen Intels Marktanteil im KI-Beschleuniger-Segment im einstelligen Prozentbereich — gemessen am Gesamtmarkt eine Randgröße.

Hinzu kommt: Der Gaudi 3 ist auf bestimmten Workloads kompetitiv, auf anderen deutlich schwächer als H100 oder MI300X. Für Unternehmen ohne bestehendes Intel-Ökosystem gibt es wenig Anreiz, einen heterogenen Infrastruktur-Stack mit Gaudi-Chips zu bauen. Das macht den Gaudi 3 zu einer Nischen-Option — wertvoll für Intel-treue Enterprise-Kunden, aber kein Massenmarkt-Herausforderer.

Vergleich der drei Plattformen

Kriterium Nvidia H100 AMD MI300X Intel Gaudi 3
Architektur Hopper (GPU) CDNA3 (GPU) Tensor-optimiert (non-GPU)
Speicher 80 GB HBM2e 192 GB HBM3 128 GB HBM2e
Peak-Performance (FP8) 3,35 Petaflops 5,3 Petaflops ~1,8 Petaflops (BF16)
Software-Ökosystem CUDA (Industriestandard) ROCm (aufholend) Intel oneAPI (nischig)
Stärken Training, Ökosystem, Reife Speicherkapazität, Inferenz großer Modelle Kosteneffizienz bei Inferenz
Schwächen Preis, Lieferverfügbarkeit Software-Reife, Ecosystem-Adoption Training-Performance, Marktanteil
Wichtige Kunden OpenAI, Google, AWS Microsoft, Meta, Oracle Ausgewählte Intel-Enterprise-Partner

Was die Zahlen über den Markt sagen

Der Bitkom schätzt, dass deutsche Unternehmen ihre KI-Infrastruktur-Budgets im laufenden Jahr signifikant ausbauen — und dabei verstärkt auf Multi-Vendor-Strategien setzen. Das ist ein struktureller Trend, der AMD und Intel nützt: Wer nicht von einem einzigen Lieferanten abhängig sein will, muss Alternativen erproben. Dieser Druck kommt nicht aus technischer Überzeugung, sondern aus strategischer Risikovermeidung.

Gleichzeitig warnt Gartner davor, die Software-Bindung an Nvidia zu unterschätzen. CUDA sei kein technischer Standard, der sich leicht ablösen lasse, sondern ein tief verwurzeltes kulturelles und wirtschaftliches Ökosystem. Unternehmen, die heute auf alternative Beschleuniger setzen, müssten Entwickler ausbilden, Prozesse anpassen und in vielen Fällen Code neu schreiben — Kosten, die in den Chip-Preisvergleichen nicht auftauchen, aber real sind.

Dass die gesamte KI-Chip-Lieferkette auf wenigen kritischen Knoten ruht, illustriert auch ein Blick auf die Fertigungsseite: ASML produziert die EUV-Lithographieanlagen, ohne die weder H100 noch MI300X gefertigt werden könnten. Wie exklusiv diese Position ist, zeigt der Bericht darüber, dass der ASML-Chef keine ernsthafte Konkurrenz am Markt sieht — eine Aussage, die die strukturelle Abhängigkeit der gesamten Branche von einzelnen Technologielieferanten deutlich macht.

Nvidias nächste Generation und der Druck von oben

Nvidia selbst steht nicht still. Die Blackwell-Architektur, die auf den H100 folgt, soll die Leistungsgrenze erneut deutlich verschieben — doch die Produktionskomplexität hat zu erheblichen Engpässen geführt. Wer verstehen will, warum selbst technikaffine Unternehmen monatelang auf ihre Chip-Lieferungen warten, findet dazu eine detaillierte Analyse im Bericht über Nvidia Blackwell und die Hintergründe des anhaltenden Lieferengpasses. Diese Knappheit ist kein Marketingtrick, sondern ein strukturelles Problem der Halbleiterfertigung auf dem aktuellen Technologieniveau.

Jensen Huang, Nvidias CEO, hat den Ansatz seines Unternehmens mehrfach öffentlich beschrieben: Nvidia verkauft keine Chips, sondern eine Plattform. Diese Plattformphilosophie — CUDA plus Chips plus Netzwerktechnik plus Software-Stack — macht es für Kunden schwierig, einzelne Komponenten auszutauschen. Mehr zu Huangs Perspektive auf den KI-Markt findet sich im Gespräch, in dem der Nvidia-CEO den aktuellen KI-Goldrausch einordnet.

Die KI-Chip-Debatte spielt sich unterdessen nicht nur auf Serverebene ab. Apple verfolgt mit eigenen Silizium-Strategien einen komplett anderen Ansatz: spezialisierte Chips für On-Device-KI, die Inferenz direkt auf dem Endgerät ermöglichen. Was das für Nutzer bedeutet, beleuchtet der Bericht zu Apples angekündigten KI-Features für das iPhone, die zeigen, wie sich der Wettbewerb um KI-Rechenleistung zunehmend auch auf Konsumentengeräte verlagert. Die strategischen Hintergründe dahinter analysiert zudem der Bericht zu Apples vorsichtigem Einstieg in die KI-Ära.

Einordnung: Wettbewerb ja — Ablösung nein

Die ehrliche Bilanz der aktuellen Lage lautet: AMD hat einen funktionalen, technisch kompetitiven Herausforderer auf den Markt gebracht. Intel hat eine Nischen-Option mit realen Stärken im Inferenz-Segment. Beide zusammen haben Nvidias Dominanz aber nicht gebrochen — sie haben sie allenfalls in bestimmten Segmenten und bei bestimmten Kunden relativiert.

Der entscheidende Faktor für die nächsten Jahre wird nicht die Hardware-Performance sein, sondern die Frage, ob AMD mit ROCm das Software-Ökosystem ausreichend reifen kann, um CUDA-Abhängigkeiten zu lösen. Solange das nicht gelingt, bleibt Nvidias Marktposition trotz aller technischen Alternativen strukturell gefestigt. Laut IDC werden alternative KI-Beschleuniger bis Mitte des Jahrzehnts einen wachsenden, aber noch immer deutlich kleineren Teil des Gesamtmarktes bedienen als Nvidia.

Was der Wettbewerb aber bereits jetzt bewirkt: Preisdruck, mehr Innovationsgeschwindigkeit und eine gesündere Diversifizierung der Lieferkette für KI-Infrastruktur. Das ist für Unternehmen, Rechenzentren und letztlich auch für die Nutzer von KI-Diensten ein realer Gewinn — auch wenn Nvidias Thron noch nicht ernsthaft wackelt.

Mehr zum Thema

Weiterführende Informationen: BSI Bundesamt fuer Sicherheit

Wie findest du das?
M
Markus Bauer
Technologie & Digitales

Markus Bauer verfolgt die Entwicklungen in Tech, KI und Digitalpolitik. Er analysiert, wie neue Technologien Gesellschaft und Wirtschaft verändern — von Datenschutz bis Plattformregulierung.

Themen: KI Künstliche Intelligenz Mobilität ChatGPT Außenpolitik Umwelt Bundesliga USA CDU Bilanz Bayern Kosten Bundesregierung Ukraine Koalition SPD Druck Milliarden Rekord Boom Prozent Russland Trump Champions League