Nvidia ha approfittato del CES 2026 per presentare Alpamayo, una nuova piattaforma open source pensata per fare un salto di qualità nell’intelligenza artificiale applicata ai veicoli autonomi. L’obiettivo è ambizioso: permettere alle auto di non limitarsi a reagire ai dati dei sensori, ma di ragionare come farebbe un essere umano di fronte a situazioni di guida complesse e impreviste.
Al centro del progetto c’è Alpamayo 1, un modello di intelligenza artificiale da 10 miliardi di parametri che combina visione, linguaggio e azione. Secondo Nvidia, questo sistema consente ai veicoli autonomi di affrontare anche i cosiddetti casi limite, come un incrocio affollato senza semafori funzionanti, scomponendo il problema in più passaggi, valutando le possibili alternative e scegliendo la soluzione più sicura. Un approccio che Jensen Huang, Ceo dell’azienda, ha definito “il momento ChatGPT per l’AI fisica”.
Una delle caratteristiche chiave di Alpamayo è la trasparenza del processo decisionale: il sistema non solo decide cosa fare, ma è in grado di spiegare perché prende una certa decisione e quale traiettoria seguirà. Un aspetto cruciale per aumentare fiducia, sicurezza e verificabilità nei sistemi di guida autonoma.
Il modello è disponibile su Hugging Face e può essere adattato dagli sviluppatori in versioni più leggere o utilizzato come base per nuovi strumenti, dalla classificazione automatica dei dati video alla valutazione delle scelte di guida. A supporto, l’azienda rilascia anche un ampio dataset open con oltre 1.700 ore di guida reale, raccolte in diverse condizioni e aree geografiche, incluse situazioni rare e complesse.
Il progetto si completa con Cosmos, la piattaforma Nvidia per la generazione di mondi e dati sintetici, e con AlpaSim, un framework open source di simulazione che riproduce fedelmente scenari di guida reali. In questo modo, i sistemi di guida autonoma possono essere addestrati e testati su larga scala, in sicurezza, prima di arrivare sulle strade.