Santa Clara (Usa)- Le schede grafiche più avanzate di Nvidia vengono vendute a più di 40mila dollari su eBay, mentre cresce la domanda di chip necessari per l’addestramento e l’implementazione di software di intelligenza artificiale.

I prezzi dei processori H100 di Nvidia sono stati rilevati da John Carmack, pioniere dei giochi 3D ed ex capo della tecnologia di Meta Consulting, che li ha pubblicati su Twitter. Venerdì scorso almeno otto H100 sono stati messi in vendita su eBay a prezzi che vanno da 39.995 dollari a poco meno di 46mila dollari. In passato alcuni rivenditori l’hanno offerto a circa 36mila dollari.

L’H100, annunciato l’anno scorso, è l’ultimo chip di punta di Nvidia per l’intelligenza artificiale e succede all’A100, un chip da circa 10mila dollari che è stato definito il “cavallo di battaglia” per le applicazioni di intelligenza artificiale. Gli sviluppatori utilizzano l’H100 per costruire i cosiddetti modelli linguistici di grandi dimensioni (LLM), che sono il cuore di applicazioni di AI come ChatGPT di OpenAI. L’esecuzione di questi sistemi è costosa e richiede computer potenti che elaborino terabyte di dati per giorni o settimane. Inoltre, si basa su un’elevata potenza di calcolo per consentire al modello di AI di generare testo, immagini o previsioni.

L’addestramento dei modelli di intelligenza artificiale, soprattutto quelli di grandi dimensioni come GPT, richiede centinaia di GPU Nvidia di fascia alta che lavorano insieme. Microsoft ha speso centinaia di milioni di dollari per decine di migliaia di chip Nvidia A100 per la realizzazione di ChatGPT. Nvidia controlla la stragrande maggioranza del mercato dei chip AI.

Nvidia offre anche un supercomputer con otto GPU che lavorano insieme, chiamato DGX. All’inizio di quest’anno, l’azienda ha annunciato nuovi servizi che consentono alle aziende di affittare l’accesso ai computer DGX per 37mila dollari al mese. A quel prezzo, il sistema utilizzerebbe i vecchi processori A100 di Nvidia. Nvidia afferma che l’H100 è il primo chip ottimizzato per la specifica architettura AI alla base di molti dei recenti progressi nell’AI, i cosiddetti transformers. Gli esperti del settore sostengono che i chip più potenti saranno necessari per costruire modelli ancora più grandi e affamati di dati rispetto a quelli attualmente disponibili.