KI-Autos und Unfälle: Wer haftet wenn der Autopilot versagt?
Tesla Autopilot, Waymo, Mercedes Drive Pilot — Haftungsfragen vor Gericht
Die Zukunft des Automobils wird von künstlicher Intelligenz geprägt – doch während Tesla-Fahrzeuge bereits Milliarden Kilometer mit aktivierten Assistenzsystemen zurückgelegt haben und Waymo robotergesteuerte Taxis in amerikanischen Großstädten betreibt, bleibt eine fundamentale Frage ungelöst: Wer trägt die Verantwortung, wenn ein KI-gesteuertes Auto einen Unfall verursacht? Diese Haftungsfrage ist nicht nur eine akademische Diskussion für Juristinnen und Juristen – sie bestimmt über Schadensersatzzahlungen in Millionenhöhe, die Zukunft ganzer Industriezweige und letztlich darüber, wie schnell autonome Fahrzeuge in den Massenmarkt gelangen werden.
Kerndaten zur Situation autonomer Fahrzeuge: Tesla hat nach eigenen Angaben über 6 Milliarden Kilometer mit aktivierten Autopilot-Funktionen absolviert – wobei das Unternehmen diese Zahl nicht unabhängig verifizieren lässt. Weltweit sind Schätzungen zufolge mehrere Millionen Fahrzeuge mit Level-2-Assistenzsystemen im Einsatz; belastbare globale Gesamtzahlen variieren je nach Definition erheblich. In Deutschland hat die Bundesanstalt für Straßenwesen (BASt) mehrere Dutzend Testfelder und Testkorridore für automatisiertes Fahren dokumentiert. Die Europäische Kommission hat im Rahmen ihrer Strategie für nachhaltige und intelligente Mobilität das Ziel formuliert, dass vernetzte und automatisierte Mobilität bis 2030 in der EU breiter verfügbar sein soll. (Quellen: Tesla Quarterly Safety Report 2023; Europäische Kommission, Strategie für nachhaltige und intelligente Mobilität, 2020)
Autonomes Fahren und Haftung: Das Kernproblem zwischen Fahrer und Hersteller
Um die Haftungsfrage zu verstehen, muss man zunächst die technischen Kategorien autonomer Fahrsysteme kennen. Die Society of Automotive Engineers (SAE) hat sechs Automatisierungsstufen definiert – von Level 0 (keine Automatisierung) bis Level 5 (vollständige Autonomie unter allen Bedingungen). Derzeit verfügbare Systeme wie Teslas Autopilot oder das weiterentwickelte Full Self-Driving (FSD) bewegen sich im Bereich Level 2. Das bedeutet: Das System übernimmt gleichzeitig Lenken und Beschleunigen bzw. Bremsen, aber ein Mensch muss jederzeit die volle Kontrolle übernehmen können und bleibt rechtlich verantwortlich. Level 3 – bei dem der Fahrer die Kontrolle unter definierten Bedingungen tatsächlich abgeben darf – ist in der Serienproduktion bislang nur von Honda in Japan und in eingeschränkter Form von Mercedes-Benz in Deutschland zugelassen worden.
Genau hier liegt das juristische Kernproblem. Traditionelles Haftungsrecht basiert auf persönlicher Schuld und Verschulden. Der Fahrer haftet für Unfälle, weil er die Kontrolle über das Fahrzeug hat und Entscheidungen trifft. Doch bei einem KI-assistierten Auto übernimmt der Algorithmus faktisch die Steuerung für Sekunden oder Minuten. Der Mensch am Steuer kann bei schnellen Systemfehlern oft nicht rechtzeitig eingreifen – ein Phänomen, das Verkehrspsychologen als „Vigilanzproblem" beschreiben: Wer über längere Zeit nichts tun muss, verliert die Reaktionsbereitschaft. Studien des Deutschen Zentrums für Luft- und Raumfahrt (DLR) zeigen, dass die Übernahmezeit bei Level-2-Systemen je nach Fahrer und Situation zwischen zwei und zehn Sekunden beträgt – in vielen Unfallszenarien zu lang.
Ein konkretes Beispiel verdeutlicht das Dilemma: Eine Tesla-Fahrerin nutzt den Autopiloten auf der Autobahn. Der Algorithmus interpretiert eine Fahrbahnmarkierung fehlerhaft und leitet einen Spurwechsel ein. Die Fahrerin hat Sekunden, um zu reagieren. Das Auto streift ein Nachbarfahrzeug. Wer haftet? Die Fahrerin hätte aufmerksam bleiben müssen – aber der Hersteller hat ein System vermarktet, das aktive Passivität geradezu einlädt. Der Hersteller behauptet: Der Mensch war nicht aufmerksam genug. Die Fahrerin sagt: Das System war nicht zuverlässig genug. Dieses Spannungsfeld ist der Kern von Dutzenden laufender Gerichtsverfahren in den USA und Europa. Dabei zeigen Verkehrsunfälle: Die aktuellen Zahlen die wachsende Relevanz dieser Frage – denn die traditionellen Unfallursachen verschieben sich durch die Automatisierung grundlegend.
Haftung bei autonomem Fahren: Die aktuelle Rechtslage in Deutschland und Europa
Das deutsche Modell: Haftungsverschiebung bei Level 3 und höher
Deutschland hat mit dem Gesetz zum autonomen Fahren vom Juli 2021 – umgangssprachlich auch als Fahrzeugautomatisierungsgesetz bezeichnet und im Straßenverkehrsgesetz sowie im Pflichtversicherungsgesetz verankert – einen europaweit beachteten Rahmen geschaffen. Das Gesetz erlaubt den Betrieb vollautomatisierter Kraftfahrzeuge (Level 4) in festgelegten Betriebsbereichen und verschiebt die Haftung beim autonomen Betrieb hin zum Fahrzeughalter und mittels Rückgriffsmöglichkeit zum Hersteller. Ein Vergleich zu anderen Branchen zeigt, dass solche Haftungsverschiebungen bereits etabliert sind – ähnlich wie bei der Frage nach KI-Urheberrecht: Wenn Maschinen stehlen — und wer haftet, wo künstliche Systeme Verantwortlichkeiten neu definieren.
Das ist ei