Tesla-Robotaxi-Start in Texas: Kinder-Dummy bei Sicherheits-Test überfahren

Tesla-Robotaxi-Start in Austin, Texas
Kinder-Dummy bei Sicherheits-Test überfahren

Veröffentlicht am 06.06.2025

Tesla möchte ab Juni in der texanischen Hauptstadt Austin mit Model-Y-Modellen einen vollautonomen Bezahl-Fahrdienst anbieten. Die Fahrzeuge sind mit der FSD-Software ausgerüstet (FSD – Full Self-Driving). Die Sicherheits-Organisation "The Dawn Project" zeigt allerdings in Versuchen, dass die Technik zum vollautonomen Fahren wiederholt fatal versagt haben soll. So habe ein Test-Model-Y mehrfach einen hinter einem Schulbus "hervorlaufenden" Kinder-Dummy überfahren.

Das Verhalten bei einem stehenden Schulbus mit ausgeklapptem Stoppschild und rot blinkenden Warnlichtern gehört in den USA zu den wichtigsten Verkehrsregeln. In beiden Fahrtrichtungen ist Anhalten angesagt – erst wenn das Stopp-Schild wieder einklappt und die Blinklichter erlöschen, ist der Verkehr wieder freigegeben. Dies dient natürlich dem Schutz der ein- und aussteigenden Kinder. Wer sich nicht daran hält, riskiert, je nach Bundesstaat, hohe Strafen. In Delaware geht es beispielsweise bei 115 Dollar Geldstrafe los (aktuell umgerechnet zirka 102 Euro), Wiederholungstätern droht sogar eine Gefängnisstrafe. In den meisten Bundesstaaten geht es, wie in New York, bei 250 Dollar (220 Euro) los. In Texas, wo Tesla jetzt seine Robotaxis fahren lassen möchte, beginnen die Strafen sogar bei 500 Dollar (440 Euro). Und genau das macht nach den Untersuchungen von The Dawn Project ein vollautonomes Model Y permanent: stehende Schulbusse mit ausgeklapptem Stoppschild und aktiver Warnlicht-Anlage ignorieren.

Warnung von The Dawn Project vor Tesla-Robotaxis
The Dawn Project

Model Y fährt unvermindert weiter

Die Verantwortlichen von The Dawn Project haben für ihren Test ein Kinder-Dummy hinter einem stehenden Schulbus hervorgezogen. Das Testfahrzeug war ein Tesla Model Y mit der FSD-Testversion 13.2.9. Das während des Tests aufgezeichnete Video zeigt: Das Model Y behält seine Geschwindigkeit bei und überfährt den Dummy.

The Dawn Project warnt bereits seit 2023 vor den Unzulänglichkeiten von Teslas Technik zum autonomen Fahren. Damals gaben die Projekt-Mitglieder nach eigenen Angaben 600.000 Dollar (heute 527.345 Euro) aus, um beim in Nordamerika publikumswirksamen Super Bowl eine Art Anti-Werbung zu schalten, die auf Probleme der Tesla-Technik aufmerksam machte. In dem damals gezeigten Video überfuhr das Auto einen Kinder-Dummy beim Überqueren eines Zebrastreifens. Außerdem ist das Fahrzeug mit einem zusammenklappbaren Kinderwagen zusammengestoßen und schon damals an einem stehenden Schulbus mit ausgeklapptem Stoppschild vorbeigefahren.

Tester sehen keine Weiterentwicklung

Die Projekt-Mitarbeiter monierten seinerzeit weiterhin, dass der Tesla Verbotsschilder ignoriere und zeitweise auf der falschen Straßenseite fahre. Die X-Gruppe Tesla Owners Silicon Valley bezeichnete die Tests damals als Fälschung und bedankte sich für die kostenlose Werbung – Elon Musk kommentierte den Post seinerzeit mit einem Lach-Smiley. Beim neuerlichen Test konnte The Dawn Project keine Verbesserung des FSD feststellen – wieder hat das Model Y den Kinder-Dummy überfahren. Die Tester betonen, dass die Software die Testpuppe durchaus als Kind erkannt hätte, das Auto aber einfach weitergefahren sei.

Unter anderem ABC11 hat von einem realen Tesla-Unfall berichtet, bei dem ein Autofahrer einen aus einem Schulbus steigenden Schüler überfahren und lebensgefährlich verletzt hat. Die US-Verkehrsbehörde NHTSA untersucht den Fall – die Ermittler gehen anscheinend davon aus, dass der Fahrer den FSD aktiviert hatte. Allerdings gilt nach wie vor bei allen Tesla-Modellen, dass der Fahrer über die gesamte Fahrtzeit die Kontrolle und Verantwortung für die Fahrt trägt und in kritischen Situationen jederzeit eingreifen muss. Bei Unfällen kann er die Schuld nicht auf die versagende Assistenzsystem-Technik schieben. The-Dawn-Project-Gründer Dan O'Dowd geht davon aus, dass Teslas FSD alle acht Minuten eine Fehlfunktion hat.

US-Verkehrsbehörde ist alarmiert

Und auch die NHTSA scheint skeptisch zu sein. Schließlich muss sie sich seit Jahren mit Untersuchungen im Zusammenhang mit Unfällen beschäftigen, in denen Teslas Technik zum teilautonomen Fahren eine Rolle spielen könnte. Mitte Mai hat die Behörde Tesla aufgefordert, Fragen zum geplanten Robotaxi-Dienst zu beantworten – so berichtet es Reuters. Insbesondere geht es der NHTSA um das Verhalten der Fahrzeuge bei schlechtem Wetter und somit schlechten Sichtbedingungen. Tesla verwendet seit Jahren ausschließlich Kamerabilder für die Umgebungserkennung, während andere Autohersteller zusätzlich Lidar-Technik (Laser), Radare mit verschiedenen Reichweiten und Ultraschallsensoren einsetzen.

Kritiker befürchten bei Dan O'Dowd allerdings einen möglichen Interessenkonflikt – der Unternehmer arbeitet mit seiner Firma Green Hills Software selber an einer Software für vollautonomes Fahren. Auf seinem X-Kanal weist er häufig auf Probleme mit Teslas Autopilot-Systemen hin. Nach seiner eigenen Aussage möchte er "Computer für die Menschheit sicher machen."