US-Jury entscheidet über Testfall im Tesla-Autopilot-Crash

Die EU schlaegt einen 12 Milliarden Dollar Plan vor um den wachsenden Cybersicherheitsbedrohungen

Eine Jury eines kalifornischen Staatsgerichts begann mit der Beratung in dem scheinbar ersten Prozess im Zusammenhang mit einem Unfall mit Tesla Autopilot Teilautomatisierte Fahrsoftware. Das Urteil könnte ein wichtiges Zeichen für das Risiko sein, dem Tesla Inc ausgesetzt ist, wenn es seinen Autopiloten und das fortschrittlichere „Full Self-Driving (FSD)“-System testet und einführt, das Chief Executive Elon Musk als entscheidend für die Zukunft seines Unternehmens angepriesen hat, aber behördliche und rechtliche Prüfungen auf sich gezogen hat.

Justine Hsueine Einwohnerin von Los Angeles, verklagte den Hersteller von Elektrofahrzeugen im Jahr 2020 und sagte, ihr Tesla Model S sei im Autopiloten gegen einen Bordstein gefahren und dann ein Airbag ausgelöst worden, „so heftig, dass er den Kiefer der Klägerin brach, Zähne ausschlug und verursachte Nervenschaden in ihrem Gesicht.“ Sie behauptet, dass es Mängel im Design des Autopiloten und des Airbags gibt, und fordert mehr als 3 Millionen US-Dollar Schadensersatz für die angeblichen Mängel und andere Ansprüche. Tesla bestreitet die Haftung für den Unfall von 2019. In einem Gerichtsakt heißt es, Hsu habe den Autopiloten auf den Straßen der Stadt eingesetzt, obwohl Teslas Bedienungsanleitung davor gewarnt habe. Tesla nennt seine Fahrerassistenzsysteme Autopilot oder Full Self-Driving, sagt aber, dass die Funktionen die Autos nicht autonom machen und dass menschliche Fahrer „bereit sein sollten, jederzeit zu übernehmen“. Der EV-Hersteller führte 2015 seinen Autopiloten ein, und der erste tödliche Unfall in den Vereinigten Staaten wurde 2016 gemeldet, aber der Fall wurde nie vor Gericht gestellt. Der aktuelle Prozess, über den von anderen Medien nicht berichtet wurde, hat sich in den letzten drei Wochen vor dem Los Angeles Superior Court abgespielt und beinhaltete Aussagen von drei Tesla-Ingenieuren. Es kommt zu einem kritischen Zeitpunkt für das Unternehmen, da es sich auf eine Reihe weiterer Versuche vorbereitet, die in diesem Jahr beginnen und sich auf das halbautomatische Fahrsystem beziehen Moschus hat behauptet, ist sicherer als menschliche Fahrer. Während der Schlussplädoyers am Donnerstag sagte Anum Arshad, Anum Arshad, Anwältin von Hsu, eine von Teslas eigenen Sachverständigen habe zugegeben, dass Autopilot nicht so funktionieren könne, wie das Unternehmen beworben habe. „Tesla behauptet immer noch, dass es das sicherste Fahrzeug auf der Straße ist. Alles, was Sie brauchen, um diesen Fall zu entscheiden, ist gesunder Menschenverstand. Das Auto sah besser aus als.“ Justine tat“, sagte sie. Michael Careyein Anwalt des Autoherstellers, sagte, dass Hsu direkt in den Mittelstreifen fuhr, den sie einige Sekunden lang sehen konnte. „Die Beweise für Ablenkung sind ziemlich einfach“, sagte er. BELLWETHER-FALL Während das Ergebnis des Prozesses in anderen Fällen nicht rechtlich bindend sein wird, wird es als Testfall betrachtet, da es als Richtschnur dienen würde, um Tesla und den Anwälten anderer Kläger zu helfen, ihre Strategien zu verfeinern, sagen Experten. Cassandra Burke Robertson, Professorin an der Case Western Reserve University School of Law, die sich mit der Haftung für selbstfahrende Autos befasst hat, sagte, frühe Fälle „geben einen Hinweis darauf, wie spätere Fälle wahrscheinlich verlaufen werden“. Tesla wird auch vom US-Justizministerium und der National Highway Traffic Safety Administration wegen seiner Behauptungen über Selbstfahrfähigkeiten bzw. die Sicherheit der Technologie untersucht. Die Hauptfrage in Autopilot-Fällen ist, wer für einen Unfall verantwortlich ist, während sich ein Auto im Fahrerassistenz-Autopilot-Modus befand – ein menschlicher Fahrer, die Maschine oder beide? In Hsus Klage wird behauptet, dass das Tesla-Fahrzeug so plötzlich auf den Bordstein gefahren sei, dass sie keine Zeit hatte, ihm auszuweichen, obwohl sie ihre Hände am Lenkrad hatte und wachsam war. Reuters berichtete als erster, dass ein Video aus dem Jahr 2016, das von Tesla verwendet wurde, um für seine selbstfahrende Technologie zu werben, tatsächlich inszeniert wurde, um Fähigkeiten zu zeigen – wie das Anhalten an einer roten Ampel und das Beschleunigen an einer grünen Ampel – die das System laut Angaben nicht hatte Aussage eines leitenden Ingenieurs. Die Details zu dem Video stammen aus einer Aussage eines Tesla-Managers in einem anderen Fall. Dieser Manager, Ashok Elluswamy, Direktor der Autopilot-Software bei Tesla, sagte letzte Woche während des Hsu-Prozesses über das Videoband aus. Während ihrer abschließenden Argumentation sagte Hsus Anwalt Arshad, Elluswamy habe auch eingeräumt, dass Teslas Sensoren nicht immer erkennen, wenn die Hände eines Fahrers am Lenkrad sind. Im Hsu-Prozess geht es auch um den Airbag. Der Anwalt des Klägers sagte, dass der Airbag unter diesen Umständen nicht hätte ausgelöst werden dürfen und dass er mit viel größerer Kraft ausgelöst wurde, als er hätte sein sollen. Ein Urteil für den Kläger wäre wahrscheinlich wichtiger als ein Tesla-Sieg, insbesondere wenn die Jury zu dem Schluss kommt, dass Tesla Hsu betrogen hat, sagte er Bryant Walker-SmithAssistenzprofessor an der juristischen Fakultät der Universität von South Carolina. „Alle tatsächlichen oder angeblichen Probleme mit dem Autopiloten, von fehlerhafter Leistung über Ablenkung des Fahrers bis hin zu falschen Darstellungen, könnten mit FSD um eine Größenordnung größer werden“, sagte er. „Betrachten Sie den Autopilot-Rechtsstreit also als Vorschau auf das, was noch kommen könnte.“


gn-tech