KI-Kunst vor Gericht: Getty Images gegen Stable Diffusion
Was die Entscheidung für Künstler, Nutzer und KI-Entwickler bedeutet
Das Kunstwerk als Trainingsdaten, der Künstler als Randnotiz: Der Rechtsstreit zwischen Getty Images und Stability AI, dem Unternehmen hinter dem Bildgenerator Stable Diffusion, ist mehr als ein Urheberrechtsstreit zwischen einem Konzern und einem KI-Start-up. Er ist ein Stresstest für das gesamte westliche Urheberrechtssystem im Zeitalter generativer Künstlicher Intelligenz. Das britische High Court in London hat nun in einem Teilurteil eine erste Richtung vorgegeben — und das Ergebnis ist komplizierter, als viele erwartet hatten.
Getty Images gegen Stability AI: Worum geht es im KI-Urheberrechtsstreit?
Getty Images ist eine der weltweit größten Bildagenturen mit einem lizenzierten Archiv von über 80 Millionen Fotos, Illustrationen und Videos. Das Unternehmen mit Hauptsitz in Seattle und einer starken Präsenz in London vertreibt Bildmaterial von professionellen Fotografen und Agenturen — und schützt deren Urheber- und Verwertungsrechte vertraglich und rechtlich. Als Stability AI sein Modell Stable Diffusion trainierte, griff das Unternehmen auf Milliarden von Bildern aus dem offenen Web zurück — ohne Getty Images, ohne die Fotografen, ohne irgendjemanden um Erlaubnis zu fragen.
Getty Images reichte daraufhin Klage vor dem High Court in London ein. Die Vorwürfe: systematische Urheberrechtsverletzung, Verletzung des Datenbankrechts, unlauterer Wettbewerb und Missbrauch von Markenzeichen. Das Kernargument war juristisch präzise formuliert: Stability AI habe nicht einzelne Bilder zufällig genutzt, sondern das Getty-Archiv strukturiert und in industriellem Maßstab als Trainingsdatensatz verwendet — ohne Lizenz, ohne Vergütung, ohne Benachrichtigung.
Besonders brisant: Stable Diffusion erzeugte in frühen Versionen gelegentlich Ausgaben, die das Wasserzeichen von Getty Images trugen — ein visueller Beweis dafür, dass das Modell massenhaft Getty-Material verarbeitet haben musste. Solche Wasserzeichen-Artefakte entstehen nur, wenn das Trainingsmaterial in großem Umfang entsprechend markierte Bilder enthält. Stability AI bestritt die Vorwürfe dem Grunde nach, machte aber keine präzisen Angaben zur Zusammensetzung seiner Trainingsdaten.
Das Urteil: Datenbankrecht verletzt — aber kein Totalverbot für KI-Training
Das britische Gericht gab Getty Images in zentralen Punkten Recht. Es stellte fest, dass Stability AI das britische Datenbankrecht verletzt hat — eine juristische Kategorie, die in der öffentlichen Debatte oft unterschätzt wird. Das Datenbankrecht schützt nicht einzelne Werke, sondern die Investition in die Zusammenstellung, Pflege und Strukturierung einer Datenbank als Ganzes. Wer also nicht einzelne Bilder kopiert, sondern systematisch auf ein kuratiertes Archiv zugreift, verletzt dieses Recht — unabhängig davon, ob die einzelnen Inhalte urheberrechtlich geschützt sind oder nicht.
Gleichzeitig lehnte das Gericht Teile der Klage ab. Es signalisierte, dass der reine Trainingsprozess eines KI-Modells unter bestimmten rechtlichen Rahmenbedingungen als zulässige Nutzung gelten könnte — eine Öffnung, die konzeptionell dem amerikanischen Fair-Use-Prinzip ähnelt, aber im britischen Recht keine direkte Entsprechung hat. Das Gericht ließ damit eine grundlegende Frage bewusst offen: Darf ein KI-Modell überhaupt mit urheberrechtlich geschütztem Material trainiert werden — und wenn ja, unter welchen Bedingungen?
Für Stability AI bedeutet das Urteil keinen Freispruch, aber auch kein existenzielles Verbot. Das Verfahren über Schadensersatz und konkrete Folgen ist noch nicht abgeschlossen. Für Getty Images ist es ein symbolisch wichtiger Teilerfolg — der erste gerichtlich bestätigte Nachweis, dass ein KI-Unternehmen Datenbankrechte einer Bildagentur verletzt hat. Diese Entscheidung könnte weitreichende Auswirkungen haben, besonders angesichts von Diskussionen über X verliert Nutzer: Wohin Twitter-Flüchtlinge wechseln und wie Daten im digitalen Ökosystem genutzt werden.
Kerndaten zum Fall: Getty Images führt ein lizenziertes Archiv mit über 80 Millionen Bildern und Videos. Das Unternehmen wirft Stability AI vor, mehr als 12 Millionen Getty-Bilder ohne Lizenz für das Training von Stable Diffusion verwendet zu haben. Das Trainings-Dataset LAION-5B, auf dem Stable Diffusion basiert, umfasst rund 5,85 Milliarden Bild-Text-Paare, die automatisiert aus dem offenen Web gesammelt wurden — darunter nachweislich Material von Getty. Das britische High Court in London stellte in einem Teilurteil eine Verletzung des Datenbankrechts fest. Schadensersatzhöhe und weitere Klagepunkte sind noch nicht rechtskräftig entschieden. Parallel läuft eine Klage von Getty Images gegen Stability AI vor einem US-Bundesgericht in Delaware. Ähnlich wie die Debatte über Sterbehilfe in Deutschland: Was nach dem Urteil des Bundesverfassungsgerichts gilt zeigt dieser Fall, wie Bundeshaushalt und das Verfassungsgerichtsurteil: 60 Milliarden fehlen rechtliche Grenzen neu verhandelt werden müssen.
| Aspekt | Getty Images | Stability AI |
|---|---|---|
| Geschäftsmodell | Lizenzierung von Bildmaterial an Verlage, Agenturen und kommerzielle Nutzer | Kostenloser oder kostenpflichtiger Zugang zu generativer KI auf Basis trainierter Modelle |
| Anspruch im Verfahren | Urheberrechts- und Datenbankrechtverletzung, Unterlassung, Schadensersatz | Trainieren ist legale Datennutzung, keine Verletzung von Urheberrechten |
| Urteil (Teilentscheidung) | Datenbankrecht bestätigt verletzt, Teilerfolg | Urheberrechtliche Verletzung im Trainingskontext nicht eindeutig festgestellt |
Was bedeutet das Urteil für andere KI-Unternehmen?
Das Urteil hat Signalwirkung für die gesamte KI-Industrie — besonders für Unternehmen, die Large Language Models oder generative Bildmodelle auf Basis massiver Webdaten-Scraping trainieren. OpenAI (ChatGPT, DALL-E), Meta (Llama), Google (Gemini) und andere Anbieter müssen damit rechnen, dass ihre Trainingsdaten-Praktiken rechtlich überprüft werden.
Das britische Urteil ist dabei restriktiver als die bisherige amerikanische Rechtspraxis, wo Fair Use großzügiger ausgelegt wird. Im EU-Raum könnten nationale Umsetzungen der AI-Act ebenfalls strengere Grenzen setzen. Gleichzeitig bleibt offen, ob das KI-Training selbst eine lizenzierungspflichtige Aktivität wird — oder ob Unternehmen künftig Lizenzen für Trainingsdaten erwerben müssen.
Für kreative Berufe (Fotografen, Illustratoren, Texter, Musikproduzenten) bedeutet das Urteil eine erste rechtliche Bestätigung ihrer Schutzansprüche. Es ist allerdings noch nicht geklärt, wie groß die Schadensersatzzahlungen ausfallen und ob sie ein echtes wirtschaftliches Abschreckungspotenzial haben.
Die offenen Fragen bleiben
Getty Images vs. Stability AI ist ein wichtiger Fall, aber längst nicht die Enddebatte. Zentrale Fragen bleiben ungeklärt:
- Ist KI-Training unter allen Umständen lizenzierungspflichtig? Das Gericht lehnte dies ab, signalisierte aber Bedingungen.
- Wie werden Schadensersatzsummen bemessen? Orientieren sich Gerichte an Lizenzgebühren, Gewinnabschöpfung oder symbolischen Strafen?
- Gibt es einen Unterschied zwischen kommerziellem und Forschungs-KI-Training? Das Urteil deutet darauf hin, dass Kontext zählt.
- Können KI-Modelle technisch und rechtlich so angepasst werden, dass sie nur lizenzierte Daten nutzen? Ist das überhaupt möglich?
Fazit: Ein Sieg — aber kein Endsieg
Getty Images hat einen wichtigen ersten Punkt in einem längeren Rechtsstreit gewonnen. Das britische High Court hat festgestellt, dass der industrielle Datenzugriff auf lizenziertes Material ohne Genehmigung rechtswidrig ist — zumindest unter britischem und EU-Datenbankrecht. Das schützt nicht nur Getty, sondern generell die Geschäftsmodelle von Agenturen und Plattformen, die in die Kuratierung und Strukturierung von Inhalten investieren.
Gleichzeitig ist das Urteil kein totales Verbot für KI-Training. Es eröffnet einen Korridor für legale Praktiken, unter Bedingungen, die das Gericht noch nicht vollständig definiert hat. Für die KI-Industrie bedeutet das: Business as usual ist nicht mehr möglich, aber auch nicht illegalisiert.
Der eigentliche Kampf um die Regeln der KI-Ära findet nicht in Londons High Court statt, sondern in Parlamenten, in Regulierungsbehörden und in der nächsten Gerichtsinstanz. Getty Images gegen Stability AI ist ein wichtiges Kapitel — nicht das letzte.