Foto: Justin Sullivan (Getty Images)

Tesla si sta preparando a lanciare un ampio aggiornamento per la sua modalità “Full Self-Driving” che estenderebbe il beta testing della funzione a più clienti e aree. Ma prima di farlo, la casa automobilistica ha bisogno di affrontare alcuni “problemi di sicurezza di base”, ha detto Jennifer Homendy, capo del National Transportation Safety Board degli Stati Uniti, in una recente intervista con il Wall Street Journal.

Full Self-Driving è una versione più avanzata del sistema di guida assistita di Tesla progettato per navigare in autostrada, Autopilot. Nonostante i loro nomi, nessuna delle due versioni del software di assistenza alla guida di Tesla è completamente autonoma, e Tesla avverte che un guidatore umano deve rimanere attento al volante e pronto a prendere il controllo in qualsiasi momento.

Homendy ha definito “fuorviante e irresponsabile” per Tesla pubblicizzare il suo software come “full self-driving”, aggiungendo che la società ha “chiaramente ingannato numerose persone ad abusare e abusare della tecnologia”.

Una versione beta della modalità Full Self-Driving è stata lanciata nell’ottobre 2020 per pochi guidatori selezionati di Tesla. Dopo aver annunciato i piani per un rilascio più ampio entro la fine di settembre, il CEO di Tesla Elon Musk ha detto venerdì che i conducenti che vogliono provare l’ultima versione della modalità Full Self-Driving avranno accesso a un “pulsante di richiesta beta” intorno al 1 ottobre.

“Il pulsante beta richiederà il permesso di valutare il comportamento di guida utilizzando il calcolatore dell’assicurazione Tesla”, ha scritto su Twitter. “Se il comportamento di guida è buono per 7 giorni, l’accesso alla beta sarà concesso”.

L’aggiornamento dovrebbe anche aggiungere nuovi strumenti per aiutare i conducenti a navigare nelle strade della città così come nelle autostrade. Ma Homendy ritiene che questa mossa sia pericolosamente prematura:

“I problemi di sicurezza di base devono essere affrontati prima di espandere il sistema ad altre strade della città e ad altre aree”, ha detto al Journal.

L’NTSB, che può condurre indagini e condividere raccomandazioni ma non ha autorità di regolamentazione, ha precedentemente indagato su tre incidenti mortali di Tesla che hanno coinvolto il sistema Autopilot della società. Ha lanciato una quarta inchiesta venerdì dopo che due persone sono state uccise in un incidente stradale che ha coinvolto una Tesla Model 3 a Coral Gables, in Florida. Nel febbraio 2020, il consiglio ha determinato Il software Autopilot di Tesla è stato una delle possibili cause dietro un incidente mortale del 2018 a Mountain View, California, dove il conducente stava giocando a un gioco mobile quando è avvenuto l’incidente.

Nel 2017, l’NTSB ha consigliato a Tesla e ad altre cinque case automobilistiche di migliorare la sicurezza dei loro veicoli semi-autonomi in modo che sia più difficile per i conducenti abusarne. Le altre cinque aziende hanno risposto e hanno accettato di adottare salvaguardie più rigorose. Tesla da sola ha ignorato le raccomandazioni del NTSB, anche se ha lavorato su alcune delle sue caratteristiche di sicurezza negli anni successivi, come l’aumento della frequenza degli avvisi se un conducente che usa Autopilot toglie le mani dal volante.

Tesla non ha risposto immediatamente alla richiesta di commento di Gizmodo. L’azienda ha in gran parte smesso di affrontare le richieste dei media da quando ha sciolto il suo dipartimento di PR in Ottobre 2020.

.

Source link