AI5 chip

In una serie di post su X, Elon Musk ha delineato una roadmap hardware molto più rapida per Tesla rispetto a quanto l'azienda abbia seguito storicamente. Invece di aggiornare l'hardware della guida autonoma completa (FSD) ogni quattro-cinque anni, Tesla prevede di passare a cicli hardware di circa nove mesi.

Questi aggiornamenti hardware non saranno limitati alle auto — il piano copre robot umanoidi, apparecchiature per data center e, in ultima analisi, piattaforme di calcolo in orbita.

Musk ha detto che il design finalizzato per il chip di prossima generazione, AI5, è quasi completo, e il lavoro su AI6 è già iniziato. L'ambizione si estende oltre: Tesla intende progredire attraverso AI7, AI8 e AI9 a un ritmo che potrebbe superare grandi produttori di chip come Intel, AMD e NVIDIA.

Rispondendo a domande sul perché sia necessario così tanto calcolo, Musk ha delineato uno scopo generazione per generazione per ogni chip. L'attuale generazione AI4 è focalizzata nel fornire prestazioni di guida autonoma ben oltre i conducenti umani.

AI5

Il chip di nuova generazione AI5 è pensato per portare l'autonomia veicolare molto vicino alla perfezione e per migliorare sostanzialmente il ragionamento e la comprensione ambientale di Optimus. Quel chip è ancora previsto per l'inizio del 2027, circa 12 mesi da ora.

AI6 Non Più Per Veicoli

Musk ora dice che AI6 sarà dedicato a Optimus e ai data center di Tesla piuttosto che essere un componente per veicoli. Questo rappresenta uno spostamento rispetto a dichiarazioni precedenti che suggerivano che AI6 e hardware successivi più potenti sarebbero stati impiegati nelle auto.

Con questo approccio, AI5 sembra essere l'ultimo grande salto di architettura e hardware previsto per i veicoli nel breve termine, con la capacità successiva focalizzata sul miglioramento delle reti neurali che alimentano la FSD e sul potenziamento di Optimus.

Sebbene ciò possa suonare come una riduzione per le auto, implica che Tesla crede che AI5 possa raggiungere l'autonomia di livello 5 in tutte le condizioni meteorologiche e stradali.

Forse l'annuncio più sorprendente è stato AI7: Musk aveva già discusso il calcolo AI basato in orbita terrestre bassa, e la proposta ora sembra avanzare dal concetto alla pianificazione pratica.

AI7 nello Spazio

Posizionare il calcolo AI7 in orbita suggerisce una coordinazione tecnica più stretta tra Tesla e SpaceX. Man mano che i satelliti Starlink aumentano le loro capacità e Starship consente carichi utili più grandi, ospitare calcolo di inferenza in orbita diventa più fattibile.

L'inferenza basata nello spazio permetterebbe l'elaborazione ai margini per immagini satellitari, dati astronomici e comunicazioni complesse senza la latenza del viaggio di andata e ritorno dell'invio di dati grezzi verso la Terra. Potrebbe anche ridurre il costo di compiti di training o inferenza su larga scala: l'energia è relativamente abbondante nello spazio, sebbene il raffreddamento e la gestione termica per calcolo denso rimangano vincoli ingegneristici reali da risolvere.

La Legge di Moore su Steroidi

Per contesto, i produttori automobilistici tradizionali seguono tipicamente un ciclo hardware di cinque-sette anni, mentre i produttori di chip come NVIDIA, Intel e AMD introducono generalmente grandi cambiamenti architetturali ogni 18–24 mesi. Una cadenza di nove mesi per il silicio fisico sarebbe senza precedenti.

Se Tesla raggiungerà questa velocità, l'hardware sarà meno propenso a limitare i progressi del software. Man mano che le reti neurali della FSD crescono in complessità, sia il calcolo dei veicoli sia quello di Optimus potrebbero essere aggiornati rapidamente per tenere il passo.

Il beneficio immediato degli sforzi sui chip di Tesla è AI5, che Musk afferma porterà un cambiamento nelle prestazioni di inferenza — nell'ordine di decine di volte la capacità di AI4.

Il Re del Volume dei Chip

Musk ha concluso prevedendo che il silicio di Tesla diventerà il chip AI con il maggior volume a livello globale. Piuttosto che competere solo negli armadi server ad alto margine, la strategia di Tesla è distribuire chip su larga scala attraverso milioni di auto e, in ultima analisi, miliardi di robot Optimus per costruire una vasta flotta distribuita di inferenza.

Se Tesla implementa l'addestramento di inferenza distribuito, i dispositivi inattivi e collegati alla corrente potrebbero contribuire all'addestramento del Model da remoto senza dover essere collocati insieme ai tradizionali data center.

Quella visione è in linea con l'idea precedentemente dichiarata da Musk di uno sforzo di produzione di chip verticalmente integrato per supportare volumi massicci.

Ultime Storie

Questa sezione non include attualmente alcun contenuto. Aggiungi contenuti a questa sezione utilizzando la barra laterale.