MISSING :: structure.inactiveTabOverlay
{"irCurrentContainer":"1389069","configName":"structure.inactiveTabOverlay"}

Tödliche Unfälle mit Tesla-Autopilot
"Kunden sollten keine Versuchskaninchen sein"

Auch der jüngste tödliche Unfall mit einem Tesla passierte mit einem aktivierten Autopiloten. Das tragische Ereignis erinnert stark an den ersten tödlichen Autopilot-Unfall von 2016. Experte und Ex-NHTSA-Chef David Friedman fordert Tesla auf, die Kunden nicht mehr als Versuchskaninchen einzusetzen.

Tesla Model 3, Autopilot-Unfall
Foto: NTSB

Die Diskussion über Teslas umstrittenes Assistenzsystem namens „Autopilot“ endet nicht: Am ersten März dieses Jahres fuhr ein Tesla Model 3 mit einer Geschwindigkeit von 68 Meilen pro Stunde (109 km/h) ungebremst unter einen die Straße überquerenden Lkw-Anhänger. Erlaubt waren auf diesem Highway-Teilstück 55 Meilen pro Stunde (88 km/h). Bei dem Unfall riss der obere Teil des Elektroautos inklusive des kompletten Daches ab, der untere fuhr noch einige hundert Meter weiter – der Fahrer starb an schwersten Verletzungen.

Unsere Highlights

Die US-Verkehrsbehörde NTSB (National Transportation Safety Board) hat nun in ihrem ersten Unfallbericht festgestellt, dass der Fahrer zehn Sekunden vor dem Unfall den Autopiloten aktivierte. Acht Sekunden vor dem Einschlag waren keine Handbewegungen mehr am Lenkrad zu registrieren. Tesla geht davon aus, dass der Fahrer sofort nach Aktivierung des Assistenzsystems das Steuer los ließ und weder er noch der Autopilot versuchten abzubremsen oder dem Hindernis auszuweichen.

Parallelen zu tödlichem Unfall 2016

Der jetzige Unfall weist Parallelen zu einem Unfall vom 7. Mai 2016 auf: Damals raste ein Tesla Model S mit einer Geschwindigkeit von 119 km/h unter einen die Straße querenden Anhänger eines Sattelschleppers. Auch dort riss der obere Teil des Autos ab, die Reste fuhren ebenfalls noch einige hundert Meter weiter. Der aktivierte Autopilot hatte seinerzeit anscheinend die weiße Seite des Anhängers als hoch hängendes Verkehrsschild interpretiert. Außerdem gestand der damalige Kameralieferant Mobileye ein, dass seine Systeme nicht geeignet waren, Querverkehr zu erkennen. Im Oktober 2016 forderte das deutsche Kraftfahrt-Bundesamt (KBA) Tesla auf, den Namen „Autopilot“ nicht mehr für sein Assistenzsystem zu verwenden, da dieser bei dem Fahrer die irrige Annahme entstehen lassen könnte, das Auto sei in Lage, autonom zu fahren. Tesla lehnte den Wunsch des KBA mit der Begründung ab, man weise deutlich darauf hin, dass der Fahrer auch bei aktiviertem Autopiloten aufmerksam den Verkehr beobachten und notfalls eingreifen müsse.

Tesla Model S Small Overlap Crashtest IIHS 2017
IIHS
Tesla Model S beim Crashtest: Das Crashverhalten der Elektrolimousine gilt als gut - beim Unfall 2016 war die Einschlaggeschwindigkeit mit 119 km/h aber zu hoch.

Musk über Berichterstattung sauer

Danach passierten weitere Tesla-Unfälle mit aktiviertem Autopilot – mindestens ein weiterer mit tödlichen Folgen: Am 23. März 2018 schlug ein Model X in die von einem vorherigen Unfall beschädigte Beton-Mittelleitplanke eines kalifornischen Highways ein – der Fahrer, ein 38-jähriger Apple-Ingenieur, starb. Bei diesem Vorfall funktionierte anscheinend die Spurerkennung oder der Lenkassistent des Autopiloten nicht. Seinen Fuß brach sich ein Tesla-Fahrer, als sein Model S am 11. Mai 2018 mit aktiviertem Autopilot in ein stehendes Feuerwehrauto krachte. Wie die vorhergehenden, so löste auch dieser Unfall ein großes Medienecho aus, was Tesla-Chef Elon Musk wütend zurückwies. In den USA würden pro Jahr 40.000 Menschen bei Verkehrsunfällen sterben, aber über ein gebrochenes Fußgelenk bei einem Tesla-Crash würde berichtet, polterte er. Außerdem wären bei einem Unfall mit dieser Geschwindigkeit viel schlimmere Verletzungen bis hin zum Tod zu erwarten. Später sah er anscheinend ein, dass es in der Berichterstattung weniger um den gebrochenen Fuß als um das wiederholte Totalversagen des Autopilot-Systems ging und er gestand kleinlaut ein, dass die Assistenztechnik besser werden müsse und Tesla jeden Tag daran arbeite.

Technik war und ist noch nicht soweit

Seit 2016 basierte der Tesla-Autopilot auf Hardware des kalifornischen Chipsatz-Entwicklers NVIDIA. Während Tesla behauptete, diese Hardware würde bereits für vollautonomes Fahren ausreichen, weist NVIDIA inzwischen in einer Stellungnahme darauf hin, dass die Technik dafür nie geeignet gewesen sei und dass man dies auch kommuniziert hätte. Tesla hat NVIDIA inzwischen aus seinen Fahrzeugen verbannt und arbeitete schon länger mit dem koreanischen Elektronikkonzern Samsung zusammen. Samsung soll die neue Recheneinheit produzieren, entwickelt wurde der Chipsatz größtenteils vom ehemaligen Apple-Spezialisten Pete Bannon, der auf ein Abwerbeangebot Teslas einging. Ob Bannon bereits Erfahrung mit den spezifischen rechentechnischen Anforderungen des autonomen Fahrens hatte, ist unbekannt. Jedenfalls soll das neue System erheblich schneller sein als die NVIDIA-Technik. NIVIDIA sah sich umgehend zu einer Stellungnahme gezwungen und wies darauf hin, dass Elon Musk auf dem so genannten Tesla Autonomy Investor Day im April 2019 falsche Zahlen zur Rechengeschwindigkeit der NVIDIA-Systeme genannt hätte.

Bei aktiviertem Autopilot überwachen diverse Sensoren die Umgebung des Tesla - gegen schwere Unfälle half dies nicht. Tesla betont immer wieder die Verantwortung des Fahrers.

Musk will unbedingt Vorreiter sein

Auch wenn die Kette von schweren Unfällen mit aktiviertem Tesla-Autopilot nicht abreißt, wird Elon Musk nicht müde, den kalifornischen Elektroautobauer als Vorreiter in Sachen autonomes Fahren zu verkaufen. Auf dem von Tesla veranstalteten Autonomy Investor Day schwärmte er von der Geschwindigkeit des neuen Samsung-Fahrcomputers und von den seit Jahren von vielen Teslas auf Millionen Testkilometern gesammelten Daten. Ob dies tatsächlich einen Entwicklungsvorsprung bedeutet, bleibt abzuwarten – Experten wie der Ex-NHTSA-Chef David Friedmann haben daran erhebliche Zweifel. Bis heute konnte Tesla beim Thema Autonomes Fahren nicht überzeugen, dafür sind inzwischen zu viele Unfälle selbst mit dem teilautonomen Autopiloten passiert: Unwillkürliches Beschleunigen eines Tesla mit Auffahren auf den Vordermann ist zwar bei Youtube dokumentiert, aber den Medien kaum noch eine Nachricht wert. Fraglich ist natürlich, warum die Fahrer trotz aller Warnungen nicht eingreifen.

Tesla-Boss Elon Musk versucht Tesla als führend bei der Technik für autonomes Fahren darzustellen - die tödlichen Unfälle mit dem aktiviertem Assistenzpaket "Autopilot" sprechen aktuell deutlich dagegen.

Mensch verlässt sich anscheinend auf Technik

Dazu schrieb der New Yorker Psychiater Vatsal G. Thakkar kürzlich einen Artikel in der New York Times. Thakkar weist darauf hin, dass Assistenzsysteme das Autofahren nicht sicherer machen würden. Der Mensch verlasse sich zu einfach auf die technischen Helfer und büße damit Aufmerksamkeit ein – er plädiert für weniger Technik im Auto. So würde beispielsweise eine Handschaltung dafür sorgen, dass der Fahrer permanent aufmerksam sein müsste. Die US-Bundesbehörde NHTSA (National Highway Traffic Safety Administration) untersuchte nach dem ersten tödlichen Tesla-Autopilotenunfall in Florida, ob der Spurhalteassistent „Autosteer“ als Teil des Autopiloten für mehr oder weniger Unfälle sorgt. Die Behörde kam zu dem Ergebnis, dass Autosteer die Unfallzahlen senke. Später wertete das private Analyse-Unternehmen Quality Control Systems Corp. die Daten aus und deckte katastrophale Fehler der NHTSA auf. Unter anderem flossen elf Teslas in die Auswertung mit ein, die eine negative Fahrleistung aufwiesen, deren Meilenstand also unter null lag. Eine Erklärung der NHTSA, wie es zu den eigentümlichen Berechnungen kommen konnte, gibt es bis heute genauso wenig wie eine neue Auswertung – eine Antwort auf unsere Nachfrage diesbezüglich steht noch aus.

Tesla Semi Truck (2019)
Tesla
Bei den geplanten Tesla-Sattelschleppern sollen sich die Lkw im autonomen Modus zu Fahrgruppen zusammenschließen können. In der Realität scheitert die Tesla-Technik allerdings manchmal selbst am einfachen Erkennen großer Hindernisse.

Ex-NHTSA-Chef ging von Verbot des Autopiloten aus

Dass die Unfälle vom 1. März 2019 und vom 7. Mai 2016 sehr ähnlich abliefen, gibt Grund zur Sorge. Schließlich hatte Tesla inzwischen fast drei Jahre Zeit, die Systeme sowohl hardwareseitig als auch softwaretechnisch zu verbessern. David Friedman, bis 2014 Chef der NHTSA und inzwischen Vizepräsident des angesehenen US-Verbraucherportals Consumer Reports, war erstaunt, dass nach dem tödlichen 2016er Unfall kein Verbot des offensichtlich technisch mangelhaften Autopiloten durch die NHTSA folgte. Friedman äußerte sich besorgt darüber, dass der Tesla-Autopilot nicht in der Lage war, einen riesigen Lkw-Anhänger zu erkennen und dass er anscheinend ebenso wenig erkennt, ob ein Fahrer aufmerksam ist. Der Fachmann wirft dem Autohersteller jetzt vor, Teslafahrer schon viel zu lange als menschliche Versuchskaninchen einzusetzen. Und Friedmann legt nach, indem er betont, dass es viele Fahrassistenzsysteme draußen auf der Straße gäbe – aber nur von einem würde man etwas im Zusammenhang mit Crashs und tödlichen Unfällen hören.

Friedman weist darauf hin, dass andere Hersteller die Nutzung von teilautonomen Systemen nur auf Straßen ohne Querverkehr erlauben – das Super Cruise-Fahrerassistenzsystem von GM funktioniert beispielsweise nur auf solchen Straßen. Laut NTSB (National Transportation Saftey Board) empfahl Tesla seinen Kunden nach dem 2016er-Unfall, den Autopilot nur auf autobahnähnlichen Straßen zu nutzen – eine technische Einschränkung auf diese Art von Straßen durch Tesla erfolgte aber bis heute nicht.

Die NHTSA teilte inzwischen mit, dass die Untersuchungen zum Unfall vom 1. März 2019 weiter fortgeführt würden.

Umfrage
Würden Sie den sogenannten Tesla-Autopilot nutzen?
7249 Mal abgestimmt
Nein, dafür hat das System inzwischen zu oft versagt.Ja, ich kann ja schließlich immer noch selbst eingreifen.

Fazit

Elon Musk versucht den Eindruck zu erwecken, als sei autonomes Fahren eine Tesla-Domäne. Aber die Zahl der tödlichen Tesla-Unfälle mit aktiviertem Autopilot steigt und ist längst viel zu hoch, als dass die Technik noch Vertrauen generieren könnte – der „Autopilot“ verdient den irreführenden Namen nicht und versagt selbst als Assistenzsystem. Trotzdem nutzen immer wieder Tesla-Fahrer das System, als funktioniere es ohne Kontrolle des Fahrers. Teslas stoisch wiederholte Beteuerung, dass die teilautonomen Systeme meistens funktionieren und am Ende sei ohnehin der Fahrer verantwortlich, wirkt beinahe schon zynisch – schließlich scheiterte die Tesla-Autopilot-Technik bei den tödlichen Unfällen am Erkennen von vergleichsweise großen Hindernissen.

Ist Tesla in Sachen autonomes Fahren Vorreiter oder Pflegefall? Nach einer Vorreiterstellung sieht die traurige Bilanz des Autopiloten aktuell nicht aus. Das Tesla in ein bis zwei Jahren vollautonome Autos auf die Straße bringt, wie auf dem Autonomy Investor Day angekündigt, ist mit dem aktuellen Informationsstand nur schwer zu glauben.

Die aktuelle Ausgabe
AUTO MOTOR UND SPORT 15 / 2024

Erscheinungsdatum 03.07.2024

148 Seiten