Der erste gemeldete Tod bei einem Tesla Model S-Absturz, während der Autopilot aktiviert war, hat seit gestern die Tesla- und Selbstfahrer-Community erschüttert. Der tragische Unfall ereignete sich am 7. Mai in Florida, aber wir erfuhren erst gestern davon, als Tesla bekannt gab, dass die Nationale Behörde für Straßenverkehrssicherheit (NHTSA) eine vorläufige Evaluierung in Teslas Autopilot-System gestartet hat.
Wir geben nicht vor, alles über den Unfall zu wissen, aber basierend auf den Informationen der Florida Highway Patrol, Tesla und NHTSA versuchen wir, unser bestes Verständnis für die Ereignisse und die möglichen Auswirkungen der Reglersonde auf den Autopiloten zu vermitteln.
Am 7. Mai um 15:40 Uhr wurde der 45-jährige Joshua Brown in Williston, Florida, in den USA getötet, als sein Tesla Model S unter den Anhänger eines 18-Rad-Semis fuhr und das Dach seines Autos von der US abgerissen wurde Einschlag.
Die Florida Highway Patrol beschrieb die Ereignisse:
Als der Lastwagen vor dem Auto links auf den NE 140th Court abbog, stieß das Autodach gegen die Unterseite des Anhängers, als dieser unter dem Anhänger hindurchfuhr. Das Auto fuhr auf der US 27A weiter nach Osten, bis es die Fahrbahn an der Südschulter verließ und gegen einen Zaun stieß. Das Auto schlug durch zwei Zäune und traf einen Strommast. Das Auto drehte sich gegen den Uhrzeigersinn, während es zu seiner letzten Ruhestätte etwa 30 Meter südlich der Autobahn rutschte.
Hier ist unsere Vogelperspektive, die anhand der von der Polizei veröffentlichten Informationen zeigt, was passiert ist:

Tesla fügte sein eigenes Verständnis der Ereignisse in einem Blog-Beitrag hinzu:
„Wir wissen, dass sich das Fahrzeug auf einer Teilstraße befand und der Autopilot eingeschaltet war, als ein Sattelzug senkrecht zum Modell S über die Autobahn fuhr. Weder der Autopilot noch der Fahrer bemerkten die weiße Seite des Sattelzuges vor einem hell erleuchteten Himmel Die Bremse wurde nicht betätigt. Die hohe Fahrhöhe des Anhängers in Kombination mit seiner Positionierung über der Straße und die äußerst seltenen Umstände des Aufpralls führten dazu, dass das Modell S unter dem Anhänger hindurchfuhr und der Boden des Anhängers auf die Windschutzscheibe des Modells S prallte. “
Die Tatsache, dass das Autopilot-System den Anhänger nicht als Hindernis für Notbremsungen oder -lenkungen erkannt hat, bereitet vielen Menschen Sorgen. Die nach vorne gerichteten Sensoren des Autopiloten bestehen aus einer Kamera, einem Radar und einigen Ultraschallsensoren.
Es ist verständlich, dass die Kamera den Trailer nicht als Hindernis erkennen konnte, basierend auf Teslas Erklärung der „weißen Farbe des Trailers gegen einen hell erleuchteten Himmel“und der „hohen Fahrhöhe“nicht erkennen.
Elon Musk, CEO von Tesla, erklärte:
@artem_zin @theaweary Radar korrigiert das, was wie ein Verkehrsschild aussieht, um falsche Bremsvorgänge zu vermeiden
- Elon Musk (@elonmusk), 30. Juni 2016
Unser Verständnis hier ist, dass die hohe Fahrhöhe des Anhängers das Radar verwirrt hat, als ob es sich um ein Verkehrsschild handelt. Es ist offensichtlich nicht ideal und das System sollte überarbeitet werden, um eine größere Erkennungsschwelle für Überkopf-Verkehrszeichen zu haben, aber am Ende des Tages ist der Grund, warum der Autopilot das Modell S nicht gestoppt hat, hier nicht wirklich vorhanden.
Die vorläufige Bewertung von NHTSA in Teslas Autopilot besteht darin, festzustellen, ob das System den Erwartungen entspricht. Es wird jedoch nicht erwartet, dass der Autopilot solche Unfälle vermeidet. Es handelt sich um ein halbautonomes System, mit dem die Arbeitsbelastung des Fahrers verringert werden soll. Der Fahrer ist jedoch wie bei einer normalen Geschwindigkeitskontrolle verantwortlich:
Wenn der Fahrer den Autopiloten aktiviert, wird im Bestätigungsfeld unter anderem erklärt, dass der Autopilot „eine Assistenzfunktion ist, bei der Sie immer die Hände am Lenkrad haben müssen“und dass „Sie die Kontrolle und Verantwortung für Ihr Fahrzeug behalten müssen Während des Gebrauchs. Darüber hinaus erinnert das Auto den Fahrer jedes Mal, wenn der Autopilot eingeschaltet ist, daran, „immer die Hände am Lenkrad zu lassen. Seien Sie jederzeit bereit zu übernehmen. “
Eine Sache, mit der NHTSA Probleme haben könnte, ist die Feststellung, dass Tesla und der Autopilot zusammengearbeitet haben, um ein falsches Sicherheitsgefühl zu erzeugen, das die Eigentümer dazu veranlasste, die Systemkapazität zu überschätzen.
Tesla wurde in der Vergangenheit wegen dieses angeblichen „falschen Sicherheitsgefühls“kritisiert. Der Gründer von Google Deep Learning, Andrew NG, bezeichnete Teslas Autopiloten nach einem Unfall in der Schweiz als "unverantwortlich", bei dem ein Model S-Fahrer einen Van traf, nachdem er geglaubt hatte, der Autopilot würde anhalten.
War dieses potenzielle falsche Sicherheitsgefühl ein Faktor für den tödlichen Unfall? Es ist im Moment nicht klar und wir werden nicht spekulieren, aber hier sind die Fakten bis jetzt. Einen Monat vor seinem Unfall schrieb Joshua Brown dem Autopilot-System zu, dass es ihn in einem auf Video festgehaltenen Beinahe-Unfall gerettet hatte.
Der an dem Absturz beteiligte Lkw-Fahrer behauptet, dass Brown während des Unfalls einen Film gesehen habe, und die Polizei bestätigte, dass sie einen tragbaren DVD-Player im Auto gefunden hätten, sagte jedoch nicht, ob dieser während des Unfalls in Gebrauch war. Es ist auch zu bedenken, dass der Autopilot die Bremse nicht aktiviert hat, ebenso wenig wie Brown.
Unabhängig davon, ob Brown während des Unfalls abgelenkt war oder nicht, was wir erst erfahren werden, wenn alle Informationen veröffentlicht wurden, wissen wir mit Sicherheit, dass er sich der Grenzen des Systems und der Gefahr bewusst war, sich damit zu wohl zu fühlen. Er schrieb in einem YouTube-Kommentar nach der Veröffentlichung eines seiner Videos:
„Eine größere Gefahr in dieser Phase der Entwicklung besteht darin, dass sich jemand zu wohl fühlt. Sie müssen an dieser Stelle wirklich aufpassen. Dies ist früh in der Entwicklung und der Mensch sollte bereit sein, einzugreifen, wenn [der Autopilot] etwas nicht kann. Ich habe in einem der anderen Kommentare über die toten Winkel der aktuellen Hardware gesprochen. Es gibt Situationen, in denen es nicht gut läuft und die in Ordnung sind. Es ist kein autonomes Auto und sie lernen riesige Datenmengen über das Auto, das fährt. Ich helfe gerne dabei. Ich bin SEHR gespannt, wie Version 2 der Hardware aussehen wird und was [es] ermöglichen wird. “
Es sieht so aus, als wäre Brown nicht damit einverstanden, dass Ng Tesla auffordert, den Autopiloten nicht auszuliefern, da möglicherweise ein falsches Sicherheitsgefühl besteht. Es ist schwer zu entscheiden, ob Zehntausende von Tesla-Besitzern davon abgehalten werden sollen, ein System zu verwenden, das sowohl nützlich ist als auch die Sicherheit erhöht, wenn es richtig eingesetzt wird, nur weil einige Leute das System möglicherweise missbrauchen könnten.