Digital

Zuckerberg will AGI: Realistisch oder Marketing-Gag?

Was Artificial General Intelligence bedeutet — und warum das schwer ist

Von ZenNews24 Redaktion 6 Min. Lesezeit Aktualisiert: 06.05.2026
Zuckerberg will AGI: Realistisch oder Marketing-Gag?

Mark Zuckerberg hat die Messlatte hoch gelegt. Im Januar 2024 verkündete der Meta-CEO öffentlich, sein Unternehmen werde gezielt an Artificial General Intelligence arbeiten — und positionierte Meta damit als ernsthaften Konkurrenten zu OpenAI, Google DeepMind und Anthropic. Eine Ankündigung, die in der Tech-Welt für Aufsehen sorgte. Doch wie substanziell ist dieses Vorhaben wirklich? Ist es echte strategische Vision oder geschicktes Marketing, um Investoren und Talente zu begeistern? ZenNews24 nimmt die Aussage auseinander, ordnet sie in den globalen KI-Kontext ein und zeigt auf, warum echte AGI nach wie vor eine der härtesten offenen Fragen der Informatik bleibt.

Auf einen Blick:
  • Meta kündigte im Januar 2024 an, eine dedizierte AGI-Forschungseinheit aufzubauen
  • Zuckerberg plant, bis Ende 2024 rund 350.000 NVIDIA H100-GPUs zu betreiben — eines der größten privaten GPU-Cluster weltweit
  • Meta investiert 2024 zwischen 35 und 40 Milliarden US-Dollar in Kapitalausgaben, ein erheblicher Teil davon in KI-Infrastruktur
  • Kein KI-Labor der Welt hat bislang AGI demonstriert — die Definition des Begriffs ist selbst unter Fachleuten umstritten
  • Metas Open-Source-Modell LLaMA 3 wurde im April 2024 veröffentlicht und gilt als leistungsstärkstes frei verfügbares Sprachmodell seiner Klasse

Was ist Artificial General Intelligence — und warum ist die Definition entscheidend?

Bevor Zuckerbergs Ambitionen bewertet werden können, muss klar sein: Was ist AGI überhaupt? Der Begriff wird in der KI-Debatte häufig unscharf verwendet — mal als Marketingbegriff, mal als ernstes wissenschaftliches Ziel. Diese Unschärfe ist kein Zufall, sondern Teil des Problems.

Narrow AI versus General Intelligence: Der entscheidende Unterschied

Die KI-Systeme, die heute im Einsatz sind — ChatGPT, Claude, Gemini oder Metas eigenes LLaMA — sind sogenannte Narrow-AI-Systeme. Sie sind hochspezialisiert: Sprachverarbeitung, Bildanalyse, Code-Generierung. Innerhalb dieser definierten Domänen erzielen sie beeindruckende Ergebnisse. Sie können jedoch nicht flexibel zwischen völlig unterschiedlichen kognitiven Aufgaben wechseln, ohne auf ihrer jeweiligen Architektur und den entsprechenden Trainingsdaten zu beruhen. Ein Sprachmodell, das brillant Texte verfasst, hat kein Verständnis von physischer Kausalität und scheitert an Aufgaben, die für ein sechsjähriges Kind trivial wären.

Artificial General Intelligence hingegen beschreibt ein hypothetisches System mit breiter kognitiver Flexibilität — vergleichbar mit menschlicher Intelligenz, aber nicht zwingend identisch damit. Eine echte AGI könnte:

  • Komplexe mathematische Probleme lösen und das Lösungsprinzip auf neue Domänen übertragen
  • Kreative Werke erschaffen, die kontextuelles Urteilsvermögen erfordern
  • Sich in unbekannte Fachgebiete selbstständig einarbeiten, ohne Retraining
  • Kausalbeziehungen modellieren — nicht nur statistische Korrelationen erkennen
  • Eigene Ziele setzen, Pläne revidieren und aus Fehlern lernen

Kein System der Welt erfüllt diese Kriterien heute auch nur annähernd vollständig. Was führende Labore haben, sind leistungsfähige Spezialisten mit beeindruckenden Emergenz-Effekten — aber keine allgemeine Intelligenz.

Wann kommt AGI wirklich? Die ehrliche Antwort lautet: Niemand weiß es

Die Prognosen klaffen weit auseinander. Sam Altman von OpenAI deutete mehrfach an, AGI könnte „in den nächsten Jahren" erreichbar sein. Demis Hassabis von Google DeepMind ist vorsichtiger und spricht von einem Jahrzehnt oder mehr. Renommierte KI-Skeptiker wie Gary Marcus oder der verstorbene Marvin Minsky argumentierten beziehungsweise argumentieren, dass das heutige Paradigma des Deep Learning strukturell nicht ausreicht, um echte allgemeine Intelligenz zu erzeugen. Laut einer 2022 durchgeführten Umfrage unter KI-Forschenden, veröffentlicht im Fachjournal AI Magazine, erwartete die Mehrheit der Befragten AGI frühestens in 20 bis 50 Jahren — ein breites Spektrum, das die fundamentale Unsicherheit widerspiegelt.

Zuckerbergs AGI-Plan: Was Meta konkret ankündigt und was dahintersteckt

Im Vergleich dazu zeigt sich, dass andere Tech-Giganten wie Musk will OpenAI-Gewinne für Mars-Besiedlung nutzen, was deutlich macht, wie unterschiedlich Technologie-Führungskräfte ihre Ressourcen und Zukunftsvision prioritätsieren.

Zuckerberg will AGI: Realistisch oder Marketing-Gag?
Zuckerberg will AGI: Realistisch oder Marketing-Gag?

Die neue Strategieeinheit und Yann LeCuns Rolle

Meta hat im Januar 2024 angekündigt, seine bisherigen KI-Forschungsteams — FAIR (Fundamental AI Research) und GenAI — enger zu verzahnen und unter einer gemeinsamen AGI-Strategie auszurichten. Bemerkenswert ist dabei die Rolle von Yann LeCun, Metas Chief AI Scientist und Turing-Award-Träger. LeCun gilt als einer der einflussreichsten KI-Forscher unserer Zeit und hat bereits früh auf die Notwendigkeit von Metaverse: Zuckerbergs 10-Milliarden-Wette auf eine virtuelle Welt hingewiesen, um langfristig technologische Durchbrüche zu erreichen.

Infrastruktur als Signal

Die konkreteste Maßnahme ist der massive GPU-Einsatz. Zuckerbergs Ankündigung, bis Ende 2024 rund 350.000 NVIDIA H100-GPUs zu betreiben, ist im Tech-Kontext beachtlich. Zum Vergleich: Das entspricht einem Investitionsvolumen von schätzungsweise 10 bis 15 Milliarden US-Dollar allein für die Hardware. Die Kapitalausgaben 2024 von 35 bis 40 Milliarden US-Dollar sind beispiellos für Meta und übersteigen sogar die Cloud-Investitionen von AWS oder Google in einzelnen Jahren. Dieses Ausmaß an Infrastruktur-Commitment ist schwer als reines Marketing abzutun — es kostet echtes Geld und bindet Ressourcen über Jahre.

Ein realistischer Blick auf solche Zusagen zeigt sich auch in anderen Bereichen: Genauso wie Zucker reduzieren: Ein realistischer Praxisguide demonstriert, dass große Pläne nur mit durchdachter Umsetzung funktionieren, muss Metas AGI-Strategie sich in konkreten Ergebnissen bewähren.

Die Open-Source-Strategie: LLaMA als Differenzierungspunkt

Metas Entscheidung, sein leistungsstarkes Sprachmodell LLaMA 3 Open Source zu veröffentlichen, unterscheidet die Strategie von OpenAI und Google DeepMind markant. Der pragmatische Vorteil liegt auf der Hand:

  • Talentanziehung: Open-Source-Projekte ziehen externe Forscher an und fördern die Reputation als Pionier
  • Ecosystem-Effekt: Je mehr Entwickler LLaMA verwenden, desto mehr Feedback und Verbesserungsvorschläge fließen zu Meta zurück
  • Regulatorischer Schutz: Breit verteilte Modelle sind schwerer regulierbar als zentralisierte Systeme — ein Vorteil für Meta in potenziellen künftigen KI-Regulierungen
  • Kostenkontrolle: Externe Entwickler tragen Rechenkosten, nicht Meta

Das ist intelligente Geschäftsstrategie, keine uneigennützige Wissenschaft. Allerdings schadet es der AGI-Vision auch nicht — es demonstriert technologische Kompetenz und praktische Schritte statt nur großspurige Ankündigungen.

Die kritischen Fragen: Wo liegt das Risiko?

Rechenkraft ist nicht Intelligenz

Eines der zentralen Probleme mit Zuckerbergs Strategie liegt in einer impliziten Annahme: dass mehr GPUs und mehr Rechenpower automatisch zu AGI führen. Das ist ein Fehlschluss, den auch ALBA Berlin EuroLeague 2024/25: Realistische Bilanz einer Saison aus anderer Perspektive zeigt — nämlich dass finanzielle oder ressourcenmäßige Überlegenheit nicht automatisch zu Erfolg führt, wenn die Strategie nicht stimmt.

Die Geschichte der KI ist voll von Beispielen, in denen massive Investitionen ohne methodische Durchbrüche fehlschlugen. Der zweite „AI Winter" der 1980er Jahre entstand nicht aus Mangel an Computern, sondern aus dem Scheitern der verfolgten Ansätze. Yann LeCun und sein Team müssen zeigen, dass sie nicht nur schneller trainieren können, sondern neue Architekturen und Algorithmen entwickeln, die grundsätzliche Probleme lösen:

  • Wie kann ein Modell echte Kausalität — nicht nur statistische Muster — modellieren?
  • Wie kann ein System sich selbst verbessern und neue Konzepte lernen, ohne ständig neu trainiert zu werden?
  • Wie kann echtes Verständnis, nicht nur Pattern-Matching, entstehen?

Zuckerberg hat diese Fragen bislang öffentlich nicht befriedigend beantwortet. Die Fokussierung auf Infrastruktur könnte ein Anzeichen dafür sein, dass Meta hofft, diese Probleme „hochzuskalieren" — ein Ansatz, der bislang nicht funktioniert hat.

Die Talent-Fluktuation

Ein unterschätztes Risiko: Metas Abhängigkeit von Spitzenpersonal im KI-Bereich. Yann LeCun ist großartig, aber auch er kann nicht allein AGI erschaffen. Und die KI-Elite ist mobil. Ein großer Teil der Top-Talente arbeitet bei OpenAI, Google DeepMind, Anthropic oder in akademischen Laboren. Meta konkurriert mit diesen Akteuren um Forscher und Ingenieure. Die Frage ist: Reicht die Infrastruktur und das Markenimage aus, um konstant die besten Köpfe zu halten?

Regulatorische Unsicherheit

Meta operiert unter Druck. Das Unternehmen ist in der Öffentlichkeit umstritten — von Datenschutz über Desinformation bis zu Jugendschu

Z
ZenNews24 Redaktion
Redaktion

Die ZenNews24-Redaktion berichtet rund um die Uhr über die wichtigsten Ereignisse aus Deutschland und der Welt. Unsere Journalistinnen und Journalisten recherchieren, analysieren und ordnen ein — unabhängig und verlässlich.