NASA Engineer Tricks Tesla Autopilot Using Styrofoam Image

Tesla is leading the charge in autonomous driving, with CEO Elon Musk envisioning a future where vehicles operate independently. However, Tesla’s reliance on cameras and AI, as opposed to the radar and lidar used by competitors, raises concerns about safety. A recent experiment by former NASA engineer Mark Rober highlighted these issues, showing that while lidar-equipped vehicles can detect obstacles effectively, Tesla’s system may be easily deceived, potentially endangering lives in real-world conditions.

Tesla und die Herausforderungen des autonomen Fahrens

Der US-Automobilhersteller Tesla gilt als Vorreiter im Bereich des autonomen Fahrens. CEO Elon Musk sieht in dieser Technologie die Zukunft. Man denke nur an das angekündigte Robotaxi oder die Vision, dass private Tesla-Fahrer nachts während ihres Schlafs mit Transporten Geld verdienen können.

Kameras vs. Sensoren: Ein kontroverses Experiment

Trotz des frühen Markteintritts und zahlreicher Kritiken verfolgt Tesla ein anderes System für seinen Autopiloten als seine Wettbewerber. Musk ist überzeugt, dass Kameras und künstliche Intelligenz ausreichen, um jedes Fahrzeug sicher durch die Stadt zu navigieren. Ein Argument, das er anführt: Menschen nutzen schließlich auch nur ihre Augen und ihren Verstand, ohne ständig gegen Bäume zu fahren.

Diese Theorie ist jedoch umstritten. Fast alle Mitbewerber setzen zusätzlich zu Kameras auch Radar und/oder Lidar ein. Diese Technologien messen kontinuierlich die Abstände zwischen dem eigenen Fahrzeug und Objekten in der Umgebung. Lidar arbeitet mit Laserstrahlen, während Radar Radiowellen verwendet. Wenn die Sensoren ein Hindernis erkennen, bremsen die Assistenzsysteme das Fahrzeug.

Die Unterschiede zwischen Kameras und Sensoren wurden nun von YouTuber und ehemaligen NASA-Ingenieur Mark Rober getestet. Als Höhepunkt seines mehrstufigen Experiments inszeniert er einen alten Looney Tunes Sketch, in dem der Coyote einen Tunnel auf einen Felsen malt – mit vorhersehbaren Konsequenzen. In Rober’s Fall handelt es sich nicht um einen Felsen, sondern um eine Styroporwand, die mit einem Foto der Landschaft dahinter über die Straße geschoben wird.

Das Ergebnis ist genauso vorhersehbar wie erschreckend: Während das Vergleichsfahrzeug mit Lidar vor der Wand problemlos stoppt, rast der Tesla ungebremst dagegen. Für die Lidar-Technologie spielt der Betrug keine Rolle. Ein Hindernis bleibt ein Hindernis, unabhängig von seinem Design. Im Gegensatz dazu wurden die Kameras des Teslas leicht getäuscht, was im realen Straßenverkehr lebensgefährlich sein könnte.

Das Video löste sofort eine hitzige Diskussion aus: Rober wird vorgeworfen, dass das gesamte Video eine Werbeaktion für Luminar, den Hersteller des Lidar-Sensors des Vergleichsfahrzeugs, sei. Zudem wird kritisiert, dass der Tesla nicht im höchsten Autonomie-Modus ‘Full Self Driving’ (FSD) betrieben wurde. Rober zeigt in einem nachfolgenden, ungeschnittenen Video aus dem Innenraum, dass er den Autopiloten tatsächlich aktiviert hatte, indem er den Wählhebel zweimal betätigte. Das Auto sollte die Spur automatisch halten und den Abstand zum vorausfahrenden Fahrzeug überwachen, um beispielsweise bei einem Stau zu bremsen.

Weniger als eine Sekunde vor dem Kontakt mit der Wand schaltet der Autopilot jedoch ab (was durch das Verschwinden der blauen Fahrbahnbegrenzungen in der Visualisierung des Bordcomputers angezeigt wird). Vermutlich ist zu diesem Zeitpunkt der Perspektivfehler zwischen dem Bild und dem angenommenen tatsächlichen Straßenverlauf zu groß für den Autopilot-Computer. Das Problem ist: Die Abschaltung erfolgt viel zu spät, um sinnvoll reagieren zu können. Darüber hinaus sollte die vorhandene Notbremsfunktion des Teslas unabhängig vom gewählten Fahrmodus (FSD, Autopilot oder aus) eine Vollbremsung auslösen. Doch das geschieht nicht.

Es wäre durchaus legitim, zu sagen, dass hoffentlich niemand eine Wand mit einem Bild einer Straße auf der Autobahn aufstellt. Das Risiko eines Unfalls ist jedoch nicht völlig abstrakt, denn – wie Mark Rober auch in einem früheren Teil seines YouTube-Videos zeigt – besteht die Gefahr im Wesentlichen immer dann, wenn die Sichtverhältnisse schlecht sind. Die meisten Fahrer haben wahrscheinlich schon undurchdringlichen Nebel oder starken Regen erlebt und kennen das ‘Blindfliegen’. Ein autonom fahrendes Fahrzeug wie das angekündigte Cyber-Taxi von Tesla muss mit solchen Bedingungen zurechtkommen.

Im Stadtverkehr, besonders nachts, können reflektierende Schaufenster ähnliche Effekte wie die Wand im Test haben. Am Ende könnte Musk mit seinem Vergleich zu Menschen recht haben und dennoch falsch liegen. Dass ein autonomes System mit seinen Kameras genauso gut fahren kann wie ein Mensch, mag zutreffen. Aber das ist nicht genug. Um akzeptiert zu werden, muss autonomes Fahren deutlich besser sein als der Mensch.

Latest