@TailosiveEV

È stato avvistato a Los Gatos, California, un nuovo gruppo di veicoli per la validazione ingegneristica di Tesla, che mostrano insolite modifiche hardware. A differenza dei muletti di validazione standard visti negli anni passati—solitamente dotati di impianti LiDAR montati sul tetto per il ground-truthing—questi esemplari, un Cybertruck e una Model 3, montano un sistema di telecamere personalizzato installato agli angoli del paraurti anteriore.

@TailosiveEV

Le staffe temporanee sembrano posizionare le camere grandangolari in basso, vicino al suolo, e inclinate verso l’esterno. Sebbene Tesla testualo frequentemente nuovi sensori, mettere camere in questi punti d’angolo — coprendo punti ciechi frontali difficili da catturare con l’attuale disposizione delle camere — indica che l’azienda sta raccogliendo dati mirati per risolvere due problemi principali: Summon e Banish.

Verità a terra

L’approccio di Tesla basato sulla visione dipende dalle occupancy network — software che predice gli oggetti nei punti ciechi ricordando ciò che l’auto ha osservato pochi secondi prima. Quella memoria è particolarmente importante per il Cybertruck perché le camere frontali non possono vedere certe aree intorno ai paraurti.

La sola memoria non è sufficiente per le manovre a bassa velocità e di precisione richieste da Summon e Banish. Combinando queste camere d’angolo montate in basso con LiDAR di tetto ad alta fedeltà, Tesla sembra costruire un nuovo dataset di verità a terra: una rappresentazione pixel-accurata dell’area immediatamente intorno al paraurti.

Quel dataset può addestrare le reti neurali di FSD a inferire meglio la distanza e il volume degli ostacoli all’interno della zona cieca. In breve, Tesla sta insegnando ai suoi sistemi a prevedere gli oggetti nel “vuoto” dove le camere di produzione non hanno una vista diretta, riducendo il rischio di urtare ostacoli durante manovre strette.

Il collo di bottiglia di Banish

La necessità di questi test è duplice. Banish è una capacità centrale per Robotaxi e FSD Unsupervised, e il Cybertruck rimane l’unico veicolo nella lineup di Tesla che non dispone di Actually Smart Summon.

Gran parte della flotta ora usa FSD v14, ma Actually Smart Summon funziona ancora su uno stack legacy più vecchio che non è stato migrato nella rete neurale unificata end-to-end. Quel codice legacy dipende pesantemente da routine Autopilot che non sono state portate sul Cybertruck.

Banish permette a un’auto di lasciarti davanti a una porta e poi vagare autonomamente in un parcheggio per trovare un posto. La funzione — promessa in versioni FSD precedenti — richiede che il veicolo gestisca traffico complesso e imprevedibile del parcheggio senza un umano al volante, senza margini di errore.

Per evitare incidenti, i modelli di visione frontale di Tesla devono raggiungere precisione a livello di millimetro nei punti ciechi frontali affinché Banish e Smart Summon possano operare in sicurezza.

Uno sguardo all’hardware futuro?

Anche se le staffe in queste foto sembrano temporanee, i test sollevano la domanda se Tesla aggiungerà camere d’angolo dedicate in future revisioni hardware o se risolverà il problema solo via software.

Rivali come Lucid e Rivian usano camere aggiuntive, radar o sensori ultrasuoni per coprire queste aree cieche. Tesla in passato ha rimosso i sensori ultrasuoni per ridurre costi e complessità e minimizzare conflitti tra sensori; fare affidamento solo su camere montate in alto si è dimostrato sfidante.

Le richieste di camere sul paraurti anteriore esistono da tempo perché tali camere eliminerebbero il punto cieco frontale e permetterebbero ai veicoli di vedere intorno agli ostacoli agli incroci prima. Attualmente, un veicolo spesso deve avanzare abbastanza perché le camere sul montante B ottengano una vista chiara.

Detto ciò, un retrofit o un improvviso aggiornamento mid-cycle che aggiunga camere d’angolo sembra improbabile. Questa attività è molto probabilmente uno sforzo di raccolta dati mirato a migliorare le prestazioni software sull’hardware esistente.