New York (Usa) – Nvidia ha presentato lunedì H200, un’unità di elaborazione grafica progettata per l’addestramento e la distribuzione dei modelli di intelligenza artificiale che stanno alimentando il boom dell’AI generativa.
La nuova GPU è un aggiornamento dell’H100, il chip utilizzato da OpenAI per addestrare il suo modello di linguaggio più avanzato, il GPT-4. I chip H100 costano tra i 25mila e i 40mila dollari, secondo una stima di Raymond James, e ne sono necessari migliaia che lavorino insieme per creare i modelli più grandi in un processo di addestramento.L’entusiasmo per le GPU AI di Nvidia ha fatto impennare le azioni dell’azienda, che finora sono salite di oltre il 230% nel 2023. Per il terzo trimestre fiscale Nvidia prevede un fatturato di circa 16 miliardi di dollari, con un aumento del 170% rispetto a un anno fa.
Il miglioramento principale dell’H200 è l’inclusione di 141 GB di memoria HBM3 di nuova generazione che aiuterà il chip a eseguire la cosiddetta inferenza, ovvero a utilizzare un modello di grandi dimensioni dopo averlo addestrato per generare testo, immagini o previsioni. Nvidia ha dichiarato che l’H200 genererà risultati quasi due volte più veloci dell’H100.