San Francisco (Usa) – Le Gpu sono chip utilizzati da aziende come OpenAI per costruire programmi di intelligenza artificiale all’avanguardia come ChatGpt. Se i chip per l’AI di Amd, che l’azienda chiama “acceleratori”, verranno accolti dagli sviluppatori e dai produttori di server come sostituti dei prodotti di Nvidia, potrebbero rappresentare un grande mercato non sfruttato per il produttore di chip, noto soprattutto per i suoi processori per computer tradizionali.

L’amministratore delegato di Amd, Lisa Su, ha dichiarato martedì agli investitori e agli analisti a San Francisco che l’AI è la “più grande e strategica opportunità di crescita a lungo termine” dell’azienda. “Pensiamo che il mercato degli acceleratori AI per i data center possa crescere da circa 30 miliardi di dollari quest’anno, con un tasso di crescita annuo composto superiore al 50%, a oltre 150 miliardi di dollari nel 2027″.

Anche se Amd non ha rivelato un prezzo, la mossa potrebbe mettere sotto pressione le Gpu di Nvidia, come la H100, che può costare 30mila dollari o più. L’abbassamento dei prezzi delle Gpu potrebbe contribuire a ridurre l’elevato costo delle applicazioni di IA generativa. I chip per l’intelligenza artificiale sono uno dei punti di forza dell’industria dei semiconduttori, mentre le vendite di Pc, un tradizionale motore delle vendite di processori per semiconduttori, crollano.

Il mese scorso l’amministratore delegato di Amd, Lisa Su, ha dichiarato nel corso di una conferenza stampa che il MI300X sarà disponibile per la campionatura in autunno, ma inizierà a essere distribuito in volumi maggiori l’anno prossimo. Su ha condiviso ulteriori dettagli sul chip durante la presentazione di martedì.

Amd ha dichiarato che il suo nuovo chip MI300X e la sua architettura Cdna sono stati progettati per modelli linguistici di grandi dimensioni e altri modelli di IA all’avanguardia. “Al centro di tutto questo ci sono le Gpu. Le Gpu stanno abilitando l’AI generativa”, ha dichiarato Su. Il MI300X può utilizzare fino a 192 Gb di memoria, il che significa che può ospitare modelli di IA ancora più grandi rispetto ad altri chip. Il rivale H100 di Nvidia, ad esempio, supporta solo 120 Gb di memoria. I modelli linguistici di grandi dimensioni per le applicazioni di IA generativa utilizzano molta memoria perché eseguono un numero crescente di calcoli. Amd ha mostrato il MI300x con un modello da 40 miliardi di parametri chiamato Falcon. Il modello GPT-3 di OpenAI ha 175 miliardi di parametri.

“Le dimensioni dei modelli stanno diventando molto più grandi e sono necessarie più Gpu per eseguire i più recenti modelli di linguaggio di grandi dimensioni”, ha dichiarato Su, sottolineando che con la memoria aggiuntiva dei chip Amd gli sviluppatori non avrebbero bisogno di tante Gpu. Amd ha anche dichiarato che offrirà un’architettura Infinity che combina otto dei suoi acceleratori M1300X in un unico sistema. Nvidia e Google hanno sviluppato sistemi simili che combinano otto o più Gpu in un unico sistema per applicazioni di IA.

Uno dei motivi per cui gli sviluppatori di IA hanno storicamente preferito i chip di Nvidia è che questi dispongono di un pacchetto software ben sviluppato, chiamato Cuda, che consente loro di accedere alle funzionalità hardware di base del chip. Amd ha dichiarato martedì di avere un proprio software per i chip AI che chiama ROCm. “Abbiamo fatto grandi progressi nella costruzione di un potente stack software che funziona con l’ecosistema aperto di modelli, librerie, framework e strumenti”, ha dichiarato Victor Peng, presidente di Amd.