Digital

Quantencomputer: IBM und Google melden historischen Durchbruch

Was die Durchbrüche bedeuten — und wann Quantencomputer praxisreif werden

Von ZenNews24 Redaktion 3 Min. Lesezeit Aktualisiert: 08.05.2026
Quantencomputer: IBM und Google melden historischen Durchbruch

Die Quantencomputer-Industrie hat im Jahr 2024 einen Reifegrad erreicht, der vor wenigen Jahren noch kaum denkbar schien. IBM und Google präsentierten in diesem Jahr keine Konzeptstudien, sondern messbare technische Fortschritte — mit konkreten Chips, publizierten Fehlerkorrekturdaten und ersten industriellen Kooperationen. Gleichzeitig wäre es journalistisch unverantwortlich, diese Meilensteine ohne kritische Einordnung zu präsentieren: Zwischen einem Labordurchbruch und einer kommerziell einsetzbaren Technologie liegen noch Jahre harter Ingenieursarbeit. Dieser Artikel erklärt, was 2024 tatsächlich erreicht wurde, was die Zahlen bedeuten — und was sie nicht bedeuten.

Das Wichtigste in Kürze
  • Quantencomputer 2024: Was IBM und Google konkret erreicht haben
  • Quantenfehlerkorrektur: Der eigentliche Durchbruch und seine Grenzen

Quantencomputer 2024: Was IBM und Google konkret erreicht haben

IBM Condor (Stand: Ende 2024) Google Willow: 105 physische Qubits, supraleitend, Fehlerrate pro Gate: ~0,1 % (Zwei-Qubit-Gates), Betriebstemperatur: ca.

Google stellte im Dezember 2024 seinen neuen Quantenprozessor Willow vor. Der Chip arbeitet mit 105 physischen Qubits — nicht 70, wie in früheren Entwürfen des Unternehmens kommuniziert wurde. Die entscheidende Neuerung ist nicht die Qubit-Zahl an sich, sondern ein experimentell belegter Fortschritt bei der Quantenfehlerkorrektur unterhalb der Schwellenwert-Grenze: Je mehr redundante physische Qubits zur Absicherung eines logischen Qubits eingesetzt wurden, desto stärker sank die Fehlerrate — und zwar exponentiell. Dieses Verhalten, bekannt als „below-threshold"-Fehlerkorrektur, gilt in der Quanteninformatik als notwendige Bedingung für skalierbare Quantenrechner. Google publizierte die Ergebnisse im Fachjournal Nature (Dezember 2024), was den Befunden wissenschaftliche Überprüfbarkeit verleiht.

Der ebenfalls von Google genannte Benchmark — ein spezieller Zufallsschaltkreis-Sampling-Test (Random Circuit Sampling, RCS) — soll auf Willow in unter fünf Minuten lösbar sein, während der schnellste klassische Supercomputer dafür nach Googles Schätzung etwa 10 Septillion Jahre benötigen würde. Diese Zahl ist technisch nicht falsch, aber mit erheblichen Vorbehalten versehen: RCS ist kein praxisrelevantes Problem, sondern ein synthetischer Benchmark, der gezielt auf die Stärken von Quantenhardware zugeschnitten ist. Klassische Algorithmen für diesen Benchmark wurden in den vergangenen Jahren zudem erheblich verbessert; die tatsächliche Überlegenheit ist schwerer zu quantifizieren, als die PR-Kommunikation von Google nahelegt.

IBM verfolgt eine strukturell andere Strategie. Das Unternehmen aus Armonk, New York, hat seinen Condor-Prozessor mit 1.121 supraleitenden Qubits bereits Ende 2023 vorgestellt und arbeitet seither an der Qualität dieser Qubits — gemessen in der unternehmenseigenen Metrik CLOPS (Circuit Layer Operations Per Second) sowie im Quantum Volume, einer kombinierten Kennzahl für Qubit-Anzahl, Konnektivität und Fehlerraten. IBM betont intern und gegenüber Partnerunternehmen, dass rohe Qubit-Zahlen irreführend sind: Ein System mit 1.000 fehleranfälligen Qubits ist einem System mit 1

Hintergründe und Einordnung

00 gut kontrollierten Qubits in den meisten Anwendungsszenarien unterlegen. Darüber hinaus investieren Industriepartner wie die Schwarz-Gruppe investiert in Quantencomputer-Startup Eleqtron, um das Ökosystem zu stärken.

Kenndaten im Vergleich: Google Willow vs. IBM Condor (Stand: Ende 2024)

  • Google Willow: 105 physische Qubits, supraleitend, Fehlerrate pro Gate: ~0,1 % (Zwei-Qubit-Gates), Betriebstemperatur: ca. 15 Millikelvin
  • IBM Condor: 1.121 physische Qubits, supraleitend, Quantum Volume: intern noch nicht vollständig publiziert; Nachfolger „Heron" (133 Qubits) mit verbesserter Gate-Fidelity als primärer Rechenknoten eingesetzt
  • Zum Vergleich: Ein fehlertoleranter Quantencomputer für praxisrelevante Kryptografie-Angriffe (Shor-Algorithmus auf RSA-2048) würde nach aktuellen Schätzungen zwischen 4 und 20 Millionen physische Qubits erfordern (Quelle: Studie von Banegas et al., 2023)
  • Aktuelle Fehlerkorrektur-Verhältnis: Für ein logisches Qubit werden derzeit je nach System zwischen 1.000 und 10.000 physische Qubits benötigt

Quantenfehlerkorrektur: Der eigentliche Durchbruch und seine Grenzen

Quantencomputer 2024: IBM und Google melden historische Meilensteine
Quantencomputer 2024: IBM und Google melden historische Meilensteine

Die Fehlerkorrektur ist das zentrale technische Problem der Quanteninformatik — und der Bereich, in dem Googles Willow-Ergebnis tatsächlich historische Bedeutung hat. Wie auch AfD auf 20 Prozent: Historischer Höchststand in Umfragen zeigt, faszinieren historische Meilensteine die Öffentlichkeit. Zum Verständnis: Ein Qubit befindet sich in einer kohärenten Superposition aus den Zuständen 0 und 1, solange es nicht mit seiner Umgebung wechselwirkt. Jede ungewollte Wechselwirkung — Wärme, elektromagnetische Strahlung, Vibrationen — zerstört diese Kohärenz (Dekohärenz). Typische Kohärenzzeiten moderner supraleitender Qubits liegen im Bereich von 100 bis 500 Mikrosekunden.

Lesen Sie auch
Z
ZenNews24 Redaktion
Redaktion

Die ZenNews24-Redaktion berichtet rund um die Uhr über die wichtigsten Ereignisse aus Deutschland und der Welt. Unsere Journalistinnen und Journalisten recherchieren, analysieren und ordnen ein — unabhängig und verlässlich.

Themen: KI Künstliche Intelligenz Mobilität ChatGPT Außenpolitik Umwelt Bundesliga USA CDU Bilanz Bayern Kosten Bundesregierung Ukraine Koalition SPD Druck Milliarden Rekord Boom Prozent Russland Trump Champions League