Es gibt verschiedene Ansätze, um selbstfahrende Autos zu entwickeln. Einige Unternehmen veröffentlichen nach und nach fortschrittlichere autonome und semi-autonome Funktionen, die zu einem vollständig autonomen System wie Teslas Autopilot führen, und andere, wie Google, beabsichtigen, ein System erst dann freizugeben, wenn die Technologie vollständig bereit ist (Stufe 4)) selbstfahrendes Auto.
Nach einigen Unfällen in den letzten Wochen erhielt Tesla einige Kritik an seinem Ansatz, halbautonome Merkmale freizugeben. Eine der heftigsten Kritiken kam von dem renommierten Wissenschaftler Andrew NG, der sagte, es sei eindeutig "unverantwortlich" für Tesla, den Autopiloten auszuliefern.
Ng ist jetzt Baidus Chefwissenschaftler und arbeitet an Forschungen zu Deep Learning und skalierbaren Ansätzen für Big Data und AI. Er arbeitet in Baidus Forschungs- und Entwicklungszentrum im Silicon Valley, wo das Unternehmen auch seine eigene selbstfahrende Autotechnologie entwickelt.
Er ist bekannt als Mitbegründer des Google Deep Learning-Projekts und des Online-Lern-Startups Coursera. Er ist außerdem Professor an den Abteilungen Informatik und Elektrotechnik von Stanford.
Letzte Woche haben wir über einen Unfall in der Schweiz berichtet, bei dem ein Besitzer eines Tesla Model S mit der aktiven Geschwindigkeitsregelung seines Autos, die Teil des Autopilot-Systems von Tesla ist, in einen Van gekracht ist. Zum Glück wurde durch die Kollision niemand verletzt. Obwohl klar ist, dass der Autopilot in dieser speziellen Situation nicht wie von Tesla empfohlen verwendet wurde, ist es nicht so offensichtlich, warum die automatische Notbremse nicht aktiviert wurde.
Ng kommentierte den Unfall über seinen Twitter-Account:
Es ist unverantwortlich, ein 1000-mal funktionierendes Schiffsfahrsystem zu verwenden, das ein falsches Sicherheitsgefühl aufhebt. Dann … BAM!
- Andrew Ng (@AndrewYNg), 27. Mai 2016
Mit "falschem Sicherheitsgefühl" bezieht sich Ng auf die Erklärung des Fahrers, warum er die Bremse nicht selbst betätigt hat, obwohl er das abgestellte Fahrzeug vor sich gesehen hat:
„Ja, ich hätte früher reagieren können, aber wenn das Auto 1'000 Mal richtig langsamer wird, vertraust du darauf, dass es es das nächste Mal tut. Mein schlimmes..”- sagte der Fahrer, als er ein kurzes Video des Unfalls veröffentlichte.
Wie wir bereits bei der ersten Meldung über den Unfall besprochen haben, sagt Tesla, dass wir das Fahrzeug immer im Autopiloten überwachen und jederzeit bereit sein sollen, die Steuerung zu übernehmen. In seiner Bedienungsanleitung verweist der Autohersteller sogar auf eine Situation, die der Situation des Fahrers in der Schweiz sehr ähnlich ist, und bittet darum, sich darauf vorzubereiten, umgehend Korrekturmaßnahmen zu ergreifen.