Digital

OpenAI vs. EU: Neuer Kampf um KI-Regulierung

Brüssel verschärft Kontrolle über amerikanische Konzerne

Von Kai Richter 9 Min. Lesezeit Aktualisiert: 15.05.2026
OpenAI vs. EU: Neuer Kampf um KI-Regulierung

Rund 400 Millionen Menschen nutzen ChatGPT weltweit monatlich — doch in der Europäischen Union könnte dieser Zugang bald erheblich eingeschränkt oder grundlegend verändert werden. Brüssel und Washington befinden sich in einem eskalierenden Regulierungsstreit, der die Zukunft künstlicher Intelligenz in Europa entscheidend prägen wird.

Kerndaten: ChatGPT-Nutzer weltweit: ca. 400 Millionen monatlich aktive Nutzer (Quelle: OpenAI). EU-KI-Gesetz (AI Act): in Kraft seit August dieses Jahres, vollständige Anwendung ab 2026. Bußgelder bei Verstößen: bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes. OpenAI-Bewertung: zuletzt bei 157 Milliarden US-Dollar. Marktvolumen generativer KI in Europa laut Gartner: bis Ende des Jahrzehnts auf über 110 Milliarden Euro geschätzt. Anteil europäischer Unternehmen am globalen KI-Markt: unter 5 % (Quelle: IDC).

▶ Auf einen Blick
  • Die EU verschärft die Regulierung von OpenAI und anderen US-KI-Konzernen durch den weltweit strengsten AI Act mit Bußgeldern bis zu 35 Millionen Euro.
  • OpenAI muss umfassende Transparenz über Trainingsdaten und technische Dokumentation für unabhängige Sicherheitsprüfungen bereitstellen.
  • Der Konflikt zwischen Brüssel und Washington prägt die Zukunft von KI in Europa, während europäische Unternehmen unter 5 % des globalen KI-Marktes kontrollieren.

Der Konflikt: Was Brüssel von OpenAI verlangt

Die Europäische Kommission hat ihre Gangart gegenüber amerikanischen KI-Konzernen spürbar verschärft. Im Zentrum steht der sogenannte EU AI Act — das weltweit erste umfassende Gesetz zur Regulierung künstlicher Intelligenz, das das EU-KI-Gesetz als strengste KI-Regulierung weltweit etabliert hat. OpenAI, Anbieter von ChatGPT und einer wachsenden Palette an KI-Diensten, steht dabei unter besonderer Beobachtung.

Konkret fordert die EU von OpenAI umfassende Transparenz über Trainingsdaten, eine nachvollziehbare Risikoklassifizierung seiner Modelle sowie technische Dokumentationen, die europäischen Behörden ermöglichen sollen, die Sicherheit und Zuverlässigkeit der Systeme unabhängig zu überprüfen. Darüber hinaus verlangt der AI Act für sogenannte Hochrisiko-KI-Systeme — etwa solche, die in Bildung, Bewerbungsprozessen oder kritischer Infrastruktur eingesetzt werden — ein umfangreiches Konformitätsbewertungsverfahren.

OpenAI hat bislang nur begrenzt auf diese Anforderungen reagiert. Interne Dokumente, die europäischen Medien zugespielt wurden, deuten darauf hin, dass das Unternehmen bestimmte Offenlegungspflichten als Bedrohung für sein geistiges Eigentum betrachtet. Dieser Konflikt zwischen dem öffentlichen Transparenzinteresse und dem wirtschaftlichen Schutzinteresse eines Unternehmens bildet den Kern der aktuellen Auseinandersetzung.

General Purpose AI: Eine neue Kategorie mit neuen Pflichten

Der AI Act hat eine spezifische Kategorie für sogenannte „General Purpose AI"-Modelle (GPAI) geschaffen — also Systeme, die nicht für einen einzigen Anwendungsfall entwickelt wurden, sondern universell einsetzbar sind. ChatGPT und die dahinterliegenden GPT-Modelle fallen klar in diese Kategorie. Für GPAI-Modelle mit sogenannter „systemischer Wirkung" — einem Status, der bei bestimmten Rechenleistungsschwellen automatisch greift — gelten besonders strenge Auflagen.

Modelle wie GPT-4o, das OpenAI als sein leistungsfähigstes Modell vorgestellt hat, überschreiten diese Schwellenwerte deutlich. Das bedeutet: OpenAI muss gegenüber der EU-Behörde EUAI Office nicht nur technische Dokumentationen einreichen, sondern auch aktiv an der Entwicklung von Verhaltenskodizes mitwirken und Sicherheitstests durch externe Prüfer ermöglichen. Diese Anforderungen haben in der Unternehmensführung von OpenAI nach Informationen aus Brüsseler Kreisen erhebliche Nervosität ausgelöst.

Europas regulatorisches Ökosystem: Mehr als nur der AI Act

Der AI Act ist nicht das einzige Instrument, mit dem Europa amerikanische KI-Konzerne in die Pflicht nimmt. Hinzu kommen der Digital Services Act (DSA), der Digital Markets Act (DMA) sowie die Datenschutzgrundverordnung (DSGVO) — ein dichtes Netz an Vorschriften, das zusammen ein regulatorisches Ökosystem bildet, das weltweit einzigartig ist.

Besonders relevant ist die DSGVO, die bereits in der Vergangenheit für Spannungen zwischen OpenAI und europäischen Datenschutzbehörden gesorgt hat. Die italienische Datenschutzbehörde Garante hatte ChatGPT zeitweise gesperrt, nachdem Fragen zur rechtskonformen Verarbeitung personenbezogener Daten nicht zufriedenstellend beantwortet wurden. Ähnliche Untersuchungen laufen in Polen, Spanien und Deutschland.

DSGVO trifft KI-Training: Das ungelöste Datenproblem

Ein zentrales Streitthema ist die Frage, auf welcher Rechtsgrundlage OpenAI europäische Nutzerdaten für das Training seiner Modelle verwendet — und ob bereits verarbeitete Daten nachträglich aus trainierten Modellen „gelöscht" werden können. Letzteres ist technisch äußerst komplex: Ein neuronales Netz, das auf Milliarden von Datenpunkten trainiert wurde, speichert keine Rohdaten, sondern statistische Muster. Die Forderung nach einem „Recht auf Vergessenwerden" kollidiert hier mit technischen Realitäten.

Laut einer Einschätzung des Beratungsunternehmens Gartner werden bis Ende dieses Jahrzehnts mehr als 60 Prozent aller Datenschutzkonflikte in Europa einen KI-Bezug haben. Die Regulierungsbehörden stehen damit vor der Herausforderung, Rechtsnormen auf Technologien anzuwenden, die zum Zeitpunkt ihrer Entstehung noch nicht existierten.

Die Rolle des EUAI Office

Als zentrale Aufsichtsbehörde für GPAI-Modelle auf EU-Ebene wurde das sogenannte EUAI Office eingerichtet — eine Institution, die noch im Aufbau begriffen ist, aber bereits erheblichen Einfluss auf die strategischen Entscheidungen amerikanischer KI-Konzerne entfaltet. Das Office ist berechtigt, Untersuchungen einzuleiten, Bußgelder zu verhängen und im Extremfall den Betrieb von KI-Diensten auf europäischem Territorium zu untersagen.

Bitkom, der deutsche Digitalverband, warnt in diesem Zusammenhang vor einem regulatorischen Übergewicht, das europäische KI-Entwicklungen im globalen Wettbewerb benachteiligen könnte. Gleichzeitig betonen Verbraucherschutzverbände, dass gerade bei so einflussreichen Technologien wie großen Sprachmodellen ein starkes Regulierungsgerüst unverzichtbar sei.

Bildmaterial: ZenNews24 Mediathek

OpenAIs Strategie in Europa: Kooperation oder Konfrontation?

OpenAI verfolgt in Europa eine Doppelstrategie: Einerseits bemüht sich das Unternehmen sichtlich um den Aufbau eines positiven Verhältnisses zu EU-Institutionen, eröffnet Büros in Dublin und Brüssel und engagiert erfahrene Lobbyisten. Andererseits signalisiert die zögerliche Erfüllung konkreter Offenlegungspflichten, dass das Unternehmen nicht bereit ist, seine Kerntechnologie vollständig zu öffnen.

Besonders aufschlussreich ist dabei die Entwicklung der Modellgeneration: OpenAI hat GPT-5.5 Instant als neues Standard-Modell präsentiert — ein Schritt, der zeigt, wie rasch die Entwicklungszyklen voranschreiten. Die regulatorischen Anforderungen der EU können mit diesem Tempo kaum Schritt halten: Bis eine Konformitätsprüfung abgeschlossen ist, könnte das geprüfte Modell bereits durch eine neue Generation ersetzt worden sein.

Wettbewerbsfrage: Bevorzugt Regulierung einheimische Anbieter?

Kritiker werfen der EU-Kommission vor, mit ihren Regulierungsmaßnahmen faktisch europäische Anbieter zu bevorzugen — oder zumindest amerikanische Konkurrenten zu behindern. Dieser Vorwurf ist nicht neu: Auch Apple, Google und Meta haben ähnliche Argumente im Kontext des Digital Markets Act vorgebracht. Die Kommission weist diese Deutung zurück und betont, dass die Regeln technologieneutral und anbieterunabhängig formuliert seien.

Tatsächlich zeigen Zahlen von IDC, dass europäische KI-Unternehmen trotz — oder vielleicht auch wegen — des regulatorischen Drucks kaum an globaler Bedeutung gewonnen haben. Ihr Anteil am weltweiten KI-Markt liegt nach wie vor unter fünf Prozent. Ob strengere Regeln für amerikanische Konkurrenten diesen Befund ändern können, bleibt fraglich.

Hintergrund: OpenAIs eigene Widersprüche

Die Auseinandersetzung mit Brüssel ist nicht das einzige Spannungsfeld, in dem OpenAI derzeit agiert. Das Unternehmen befindet sich in einer Phase tiefgreifenden internen und externen Wandels. Die einstige gemeinnützige Forschungsorganisation hat sich zu einem der wertvollsten Technologiekonzerne der Welt entwickelt — ein Prozess, der von erheblichen Kontroversen begleitet wird.

Besonders die Rolle von Elon Musk, einem der Mitgründer, sorgt für anhaltende öffentliche Aufmerksamkeit. Berichte zufolge hatte Musk die Mars-Besiedlung über OpenAI finanzieren wollen — ein Plan, der zeigt, wie weit die ursprünglichen Visionen der Gründer von einem reinen KI-Sicherheitsprojekt entfernt waren. Die damit verbundenen finanziellen Auseinandersetzungen beleuchten zudem, wie OpenAIs Milliardenkosten für KI-Rechenzentren im Musk-Prozess eine zentrale Rolle spielen.

Strukturwandel: Vom Non-Profit zum Kapitalmarkt

OpenAIs Umwandlung in eine vollständig profitorientierte Gesellschaft ist für die EU-Regulierer relevant — und zwar aus einem konkreten Grund: Mit dem Kapitalmarktzugang steigen die Anreize, kurzfristige Wachstumsziele über langfristige Sicherheitserwägungen zu stellen. Genau dieses Spannungsverhältnis ist es, das der AI Act adressieren soll. Ob das gelingt, hängt nicht zuletzt davon ab, ob die neuen Aufsichtsbehörden mit ausreichend Personal und Expertise ausgestattet werden.

Statista-Daten zufolge waren in der EU-KI-Regulierungsbürokratie zuletzt weniger als 200 Vollzeitstellen vorgesehen — gegenüber tausenden von Ingenieuren und Juristen bei den zu beaufsichtigenden Konzernen. Dieses strukturelle Ungleichgewicht ist eine der größten Schwachstellen des europäischen Regulierungsansatzes.

Vergleich: KI-Regulierung im globalen Kontext

Region / Ansatz Regulierungsmodell Durchsetzungsstärke Innovationsoffenheit Transparenzpflichten
Europäische Union (AI Act) Risikobasiert, gesetzlich verbindlich Hoch (EUAI Office, Bußgelder bis 7 % Umsatz) Mittel (Sandboxes vorgesehen) Sehr hoch (GPAI-Dokumentation, externe Audits)
USA (federal) Freiwillige Selbstverpflichtung, sektorale Regeln Niedrig bis mittel (kein zentrales KI-Gesetz) Hoch Niedrig bis mittel
China Staatlich gesteuert, algorithmische Aufsicht Hoch (CAC-Behörde, Lizenzpflicht) Selektiv (national bevorzugte Anbieter) Hoch gegenüber Staat, niedrig gegenüber Öffentlichkeit
Großbritannien (post-Brexit) Prinzipienbasiert, sektorale Aufsicht Mittel (FCA, CMA, ICO koordinieren) Hoch (Pro-Innovation-Ansatz) Mittel
OpenAI (Selbstauskunft) Interne Safety-Teams, freiwillige Commitments Nicht extern überprüfbar Sehr hoch Selektiv (System Cards, begrenzte Modellinfos)

Der Vergleich macht deutlich: Die EU ist das einzige große Wirtschaftsgebiet mit einem rechtsverbindlichen, umfassenden KI-Gesetz. Die USA setzen hingegen weiterhin auf Freiwilligkeit und sektorale Einzelregeln — ein Ansatz, der amerikanischen Unternehmen kurzfristig mehr Handlungsspielraum lässt, aber langfristig zu regulatorischer Fragmentierung führt. China reguliert zwar ebenfalls stark, aber primär im Sinne staatlicher Kontrolle, nicht zum Schutz von Verbraucherrechten oder offener Märkten.

Was steht auf dem Spiel — für Europa und für OpenAI

Der Ausgang dieses Regulierungsstreits hat weitreichende Konsequenzen in beide Richtungen. Für Europa geht es um nichts weniger als die Frage, ob technologische Souveränität durch Regulierung erreichbar ist — oder ob strenge Regeln am Ende nur dazu führen, dass innovative Dienste außerhalb europäischer Grenzen entwickelt und genutzt werden. Die Gefahr eines sogenannten „AI Leakage" — also der Abwanderung von KI-Nutzung in weniger regulierte Räume — ist real.

Für OpenAI wiederum ist Europa kein Randmarkt. Der europäische KI-Markt wird laut Gartner-Prognosen erheblich wachsen, und zahlreiche Unternehmenskunden aus Deutschland, Frankreich und den Benelux-Ländern gehören bereits zu den wichtigsten B2B-Abnehmern. Einen Rückzug aus Europa kann sich das Unternehmen wirtschaftlich kaum leisten — auch wenn dies rhetorisch gelegentlich angedeutet wurde.

Verhandlungen hinter den Kulissen

Nach Informationen aus Brüsseler Kreisen laufen derzeit intensive Gespräche zwischen OpenAI-Vertretern und dem EUAI Office über sogenannte „Compliance Roadmaps" — also verbindliche Zeitpläne zur schrittweisen Erfüllung der AI-Act-Anforderungen. Ähnliche Verfahren kennt man aus der DSGVO-Geschichte, wo viele Unternehmen zunächst auf Zeit spielten und dann unter Bußgelddruck Zugeständnisse machten.

Die Parallele ist treffend: Auch damals hieß es zunächst, europäische Datenschutzregeln seien technisch nicht umsetzbar — und am Ende passten sich alle großen Anbieter zumindest formal an. Ob das bei KI-Systemen ähnlich gelingt, ist allerdings weniger sicher, weil die technischen Komplexitäten tatsächlich größer sind. Berichte über Musks Pläne, OpenAI-Gewinne für die Mars-Besiedlung zu nutzen, illustrieren dabei, wie unterschiedlich die Prioritäten zwischen den Gründervisionären und den operativen Erfordernissen eines regulierten Konzerns inzwischen liegen.

Zivilgesellschaft
EinordnungDeutsche Nutzer könnten bei Verstößen gegen den AI Act einen eingeschränkten oder veränderten Zugang zu ChatGPT erhalten. Die EU-Regulierung könnte europäischen KI-Anbietern Wettbewerbsvorteile verschaffen und Investitionen in lokale Alternativen fördern.
Z
ZenNews24 RedaktionUnabhängige Nachrichtenredaktion · Schwerpunkt: Technologie

Wie findest du das?
K
Kai Richter
Unterhaltung & Auto

Kai Richter beobachtet Trends in Streaming, Kultur und Mobilität. Er testet, analysiert und ordnet ein — ob neue Serienformate, Kinostarts oder die Entwicklungen auf dem Automobilmarkt.

Themen: KI Künstliche Intelligenz Mobilität ChatGPT Außenpolitik Umwelt Bundesliga USA CDU Bilanz Bayern Kosten Bundesregierung Ukraine Koalition SPD Druck Milliarden Rekord Boom Prozent Russland Trump Champions League