tesla: Warum Tesla einen Mitarbeiter wegen YouTube-Überprüfung entlassen hat

Soul Hackers 2 Erscheinungsdatum Ankuendigungstrailer enthuellt

San Francisco: Elon Musk-Lauf Tesla hat einen Mitarbeiter entlassen, der das vollständige autonome Fahren des Elektroautoherstellers überprüft hat (FSD) Beta-Software auf seinem YouTube-Kanal.
John Bernal veröffentlichte das Video, das zeigte, wie sein Tesla einen Poller traf, auf seinem YouTube-Kanal AI Addict.
Wie CNBC berichtete, sagte Bernal, dass ihm vor seiner Entlassung mündlich von seinen Managern gesagt wurde, dass er „die Tesla-Richtlinie gebrochen“ habe und dass sein YouTube-Kanal ein „Interessenkonflikt“ sei.
Seine schriftliche Trennungsmitteilung enthielt jedoch keinen Grund für seine Entlassung, berichtet The Verge.
Das Video hatte mehr als 2.50.000 Aufrufe und wurde in sozialen Netzwerken wie Twitter weit verbreitet.
Bernal sagte, nachdem er das Video gepostet hatte: „Ein Manager meines Autopilot-Teams hat versucht, mich davon abzubringen, in Zukunft negative oder kritische Inhalte zu posten, die FSD Beta betreffen. Sie haben eine Videokonferenz mit mir abgehalten, aber nie etwas schriftlich festgehalten.“
Die Social-Media-Richtlinie von Tesla für Mitarbeiter verbietet nicht die Kritik an den Produkten des Unternehmens in der Öffentlichkeit, sagt aber, dass sich das Unternehmen „auf den gesunden Menschenverstand und das gute Urteilsvermögen seiner Mitarbeiter verlässt, um sich an verantwortungsvollen Social-Media-Aktivitäten zu beteiligen“.
Bernal sagt, dass ihm nach seiner Entlassung der Zugriff auf die FSD-Beta-Software entzogen wurde.
In der Zwischenzeit haben die US-Senatoren die Behauptung von Elon Musk zurückgewiesen, dass Teslas Autopilot- und FSD-Funktionen sicher zum Fahren seien, und sagten, dies sei nur „mehr Ausweichmanöver und Ablenkung von Tesla“.
Rohan Patel, Senior Director of Public Policy bei Tesla, schrieb in einem Brief an die US-Senatoren Richard Blumenthal (D-CT) und Ed Markey (D-MA), dass Teslas Autopilot- und FSD-Fähigkeitsfunktionen „die Fahrfähigkeit unserer Kunden verbessern sicherer als der durchschnittliche Autofahrer in den USA.
Patel antwortete den Senatoren, die „erhebliche Bedenken“ über Autopilot und FSD geäußert hatten. Sie forderten auch die Bundesbehörden auf, hart gegen Tesla vorzugehen, um einen weiteren Missbrauch der fortschrittlichen Fahrerassistenzfunktionen des Unternehmens zu verhindern.
Der FSD-Beta-Modus führte kürzlich zum Absturz eines Tesla Model Y in Los Angeles.
Bei dem Unfall wurde niemand verletzt, aber das Fahrzeug wurde Berichten zufolge „schwer beschädigt“.
Der Unfall wurde der National Highway Traffic Safety Administration (NHTSA) gemeldet, die mehrere und sich überschneidende Untersuchungen zum Autopilotsystem von Tesla durchführt.
Tesla FSD beta zielt darauf ab, es Tesla-Fahrzeugen zu ermöglichen, sowohl auf Autobahnen als auch auf Stadtstraßen virtuell selbst zu fahren, indem einfach ein Ort in das Navigationssystem eingegeben wird, aber es wird immer noch als Fahrerassistenz der Stufe 2 angesehen, da es jederzeit die Überwachung des Fahrers erfordert.
Der Fahrer bleibt für das Fahrzeug verantwortlich und muss die Hände am Lenkrad behalten und bereit sein, die Kontrolle zu übernehmen.
Es gab mehrere Abstürze im Zusammenhang mit Tesla Autopiloten, die derzeit von der US-amerikanischen NHTSA untersucht werden.

toi-tech