Musk: “Sono più introvabili della droga”. Produrre un H100 costa 3 mila dollari, è in vendita a 30 mila, su eBay si trova a 100 mila
20 Giugno 2024 alle 01:00 2 minuti di lettura
ROMA – «Le GPU oggi sono più difficili da trovare della droga», dice uno che se ne intende, di tecnologia e sostanze, cioè
Elon Musk. Le GPU, acronimo di Graphics Processing Unit, sono gli stupefacenti processori H100 di
Nvidia, i più avanzati per addestrare i grandi modelli di Intelligenza artificiale. Tutti li vogliono, e l’interminabile coda alla porta di Nvidia, cresciuta in parallelo all’AI-mania, spiega perché nel giro di due anni una società semisconosciuta sia diventata la
regina delle Borse mondiali,
oltre i 3 mila miliardi di capitalizzazione. Visto da chi sta in fila però, questo monopolio dei calcolatori è un bel problema. Specie se a sgomitare per comprarli, in mezzo a colossi della Silicon Valley e governi, sono aziende solo normali.
Impresa quasi impossibile, confermano a registratore spento dal quartier generale di una media impresa hi-tech italiana, per cui quel circuito può fare la differenza tra restare alla frontiera ed essere scavalcati. I tempi di attesa si aggirano sui 18 mesi, un’eternità vista la velocità a cui evolve l’IA. Quanto ai prezzi, Nvidia
vende in media a 30 mila dollari un processore che produce a 3 mila, margini senza paragoni. Ma chi pensasse di saltare la fila rivolgendosi al mercato secondario, o “nero”, dovrebbe spendere molto di più: su piattaforme come eBay o CDW i prezzi oscillano tra 45 mila e
100 mila dollari.
Chi ce l’ha fatta, tra le aziende italiane, è
Fastweb, che lo scorso dicembre si è assicurata - ad un prezzo non pubblico ma certo non banale - 31 “nodi” DGX Nvidia, per un totale di 248 processori. Non sono il migliaio comprato dalla francese Iliad, né i 350 mila che Meta metterà al lavoro entro la fine dell’anno, ma sono un successo, dato il contesto. «Ci siamo mossi presto, a marzo del 2023, quando l’entusiasmo non era ancora così forte», spiega
Giovanni Germani, manager del centro di eccellenza sull’AI dell’azienda. «I tempi di attesa erano già di 12 mesi ma siamo riusciti ad accorciarli impostando con Nvidia una partnership e contribuendo al perfezionamento della loro piattaforma software». Le macchine sono state consegnate a dicembre e il supercomputer sarà acceso a luglio. «Mese dopo mese averle diventa sempre più difficile, specie per chi piazza piccoli ordini».
Questa sproporzione tra domanda e offerta ha spinto lo stesso
Jensen Huang, il visionario capo di Nvidia in giubbotto di pelle, ad assicurare che gli ordini sono gestiti in maniera «equa». Ed è vero che se l’azienda dovesse soddisfare per intero i desiderata di uno solo dei colossi Tech non ci sarebbe un solo processore per tutti gli altri. Ma è chiaro che il peso degli acquirenti conta. E altrettanto che Nvidia è l’emblema di come
l’industria dell’AI si stia concentrando nelle mani di poche potentissime aziende e come la disponibilità di potenza di calcolo stia diventando uno dei grandi ostacoli per chi prova a fare loro concorrenza, o semplicemente a buttarsi nella mischia.
Le alternative agli H100, al momento, sono poche. Affittare calcolo sul
cloud significa ribussare alla porta di quegli stessi giganti – Amazon, Microsoft, Google – con prezzi che si stanno alzando di riflesso. Le macchine di altre società - AMD, Intel - sono meno care ma anche meno performanti, e utilizzandole si rinuncia all’architettura su cui tutto il mondo che conta sta sperimentando l’AI. Nel medio periodo l’aumento esponenziale della domanda di calcolo sarà forse bilanciato da una maggiore efficienza degli algoritmi.
Accanto ai grandi modelli ne stanno nascendo di piccoli e specifici, meno esigenti, i cui costi di addestramento e inferenza sono alla portata di startup e Pmi. Ma il futuro dell’AI passa da Nvidia: e non è per tutti.
Pazzi di Nvidia, prezzi folli per i chip e si aspetta 18 mesi