Nvidia, il produttore statunitense di chip con un valore di mercato di oltre 2 trilioni di dollari, ha ampliato il suo vantaggio nel settore dell’intelligenza artificiale con la presentazione di diverse tecnologie rivoluzionarie durante la sua conferenza annuale degli sviluppatori di lunedì.
La società ha annunciato la serie di chip AI “Blackwell”, progettata per alimentare i datacentre costosi che addestrano modelli di AI all’avanguardia come le ultime generazioni di GPT, Claude e Gemini.
Il chip Blackwell B200 rappresenta un notevole passo avanti rispetto al precedente chip H100 per intelligenza artificiale di Nvidia, riducendo del 75% il numero di chip e l’energia necessaria per addestrare un modello di IA di grandi dimensioni come GPT-4.
L’azienda ha inoltre presentato il “superchip” GB200, che unisce due chip B200 e la CPU Grace di Nvidia su un unico schedario, offrendo “30 volte le prestazioni” per fattorie di server che gestiscono chatbot come Claude o ChatGPT, mentre riduce il consumo energetico fino a 25 volte.
L’amministratore delegato di Nvidia, Jensen Huang, ha mostrato configurazioni ancora più grandi, come il GB200 NVL72, un unico rack di server con 72 chip B200 collegati da quasi due miglia di cavi, e il DGX Superpod, che combina otto di questi rack in un datacentre per intelligenza artificiale della dimensione di un container da spedizione.
Oltre ai nuovi chip per intelligenza artificiale, Nvidia ha annunciato il Project GR00T, un modello di base per controllare robot umanoidi.
Questo modello, abbinato al sistema su chip Jetson Thor, mira a creare macchine autonome che possono essere istruite utilizzando il linguaggio naturale per eseguire compiti generici, anche quelli per cui non sono state specificamente addestrate.
“Il Project GR00T aiuterà i robot a comprendere il linguaggio naturale e a emulare i movimenti osservando le azioni umane – imparando velocemente coordinazione, destrezza e altre abilità necessarie per navigare, adattarsi e interagire con il mondo reale”, ha spiegato Huang.