Tesla-Fahrassistent macht laut Lobbygruppe alle acht Minuten Fehler
Immer wieder gibt es Kontroversen rund um das vom US-Autokonzern Tesla als „Full Self Driving“ bezeichnete Fahrassistenzsystem. Denn die Fahrzeuge des Unternehmens sind momentan nur halbautonom und lediglich auf Stufe 2 bis zum selbstfahrenden System einzuordnen. Außerdem gibt es häufig Meldungen von Fehlern und Unfällen in Verbindung mit dem System. Nun hat die Organisation The Dawn Project ein hartes Urteil über Tesla gefällt. Laut deren Analyse begeht Full Self Driving alle acht Minuten einen kritischen Fehler.
System fährt „wie betrunkener Teenager“
Bei The Dawn Project handelt es sich um eine Lobbygruppe, die der CEO von Green Hills Software, Dan O’Dowd, ins Leben gerufen hat. Das Unternehmen entwickelt Betriebssysteme und Programmiertools für eingebettete Sicherheitssysteme. Ziel der Organisation ist es, unsichere Software aus sicherheitskritischen Systemen zu verbannen. Nach eigenen Angaben hat The Dawn Project YouTube-Videos in Bezug auf den Tesla-Fahrassistenten analysiert, um festzustellen, wie gut er funktioniert. Das Fazit der Organisation ist dabei vernichtend.
„Full Self Driving fährt wie ein suizidaler betrunkener Teenager. Wahrscheinlich wird es Ihren Tesla in 36 Minuten Stadtfahrt zu Schrott fahren, wenn Sie nicht schnell genug reagieren, um es davon abzuhalten, verrückte Dinge zu tun. Die YouTube-Videos zeigen, wie Full Self Driving versucht, riesige Betonsäulen zu rammen, in einer Einbahnstraße in die falsche Richtung zu fahren, auf der Straße geparkte Autos zu rammen und wie es wie verrückt zwischen den Fahrspuren hin- und herwechselt und auf Fußgänger auf einem Zebrastreifen zusteuert“, heißt es von The Dawn Project.
Keine „Crash Test Dummys“ für Tesla
Selbst unter idealen Bedingungen, also unter Tags und bei gutem Wetter, mache der Fahrassistent in schöner Regelmäßigkeit schwere Fehler. Weil sich das System momentan noch auf Stufe 2 bis zum vollautonomen Fahren befindet, müssen Fahrer:innen immer bereit sein, einzugreifen. Grundsätzlich soll der Assistent vor allem die Spur halten und beim Überholen helfen können. Das Lenkrad muss also immer in Griffweite sein. The Dawn Project kritisiert die irreführende Bezeichnung als „Full Self Driving“.
In einer ganzseitigen Anzeige in der New York Times vom vergangenen Sonntag nahm The Dawn Project Tesla ins Visier. Die Werbung warnte Kund:innen davor, zu „Crash Test Dummys“ für den Konzern zu werden. Außerdem bot die Organisation 10.000 Dollar, den gleichen Preis wie die Software selbst, für die erste Person, die „ein anderes kommerzielles Produkt eines Fortune-500-Unternehmens nennen kann, das alle acht Minuten eine kritische Fehlfunktion aufweist“.
Tesla: Aktie knickt nach “Autopilot”-Untersuchung durch US-Behörde ein
Stichprobe von The Dawn Project relativ klein
Zwar ist die Stichprobe von The Dawn Project mit nur sieben Stunden Videomaterial zu klein, um ein definitives Urteil über den Fahrassistenten zu fällen. Auch kann man der Organisation Voreingenommenheit gegenüber Tesla vorwerfen. Jedoch häufen sich tatsächlich die Beschwerden über die vielen Fehler von Full Self Driving. Der Name ist auch wirklich eher irreführend. Tesla-CEO Elon Musk hat seitdem vage auf Twitter geantwortet und behauptet, dass das System seit seiner Einführung weder zu Unfällen noch zu Verletzungen geführt hat. Jedoch hat die US-Verkehrsbehörde erst vergangenes Jahr nach einigen Auffahrunfällen eine Untersuchung der Software eingeleitet.