Il CEO di Nvidia Jensen Huang tiene un discorso programmatico durante la conferenza Nvidia GTC AI presso il SAP Center il 18 marzo 2024 a San Jose, California.
Justin Sullivan | Immagini Getty
La nuova generazione di processori grafici basati sull'intelligenza artificiale si chiama Blackwell. Il primo chip di Blackwell si chiama GB200 e sarà disponibile entro la fine dell'anno. Nvidia ha attirato i suoi clienti con chip più potenti per stimolare nuovi ordini. Ad esempio, aziende e produttori di software stanno ancora lottando per ottenere l'attuale generazione di chip “Hopper” H100 e chip simili.
“Hopper è fantastico, ma abbiamo bisogno di GPU più grandi”, ha detto lunedì il CEO di Nvidia Jensen Huang alla conferenza degli sviluppatori dell'azienda in California.
Lunedì le azioni Nvidia sono scese di oltre l'1% nell'extended trading.
L’azienda ha inoltre introdotto un programma di generazione di entrate chiamato NIM che faciliterà l’implementazione dell’intelligenza artificiale, offrendo ai clienti un altro motivo per continuare a utilizzare i chip Nvidia in un campo di concorrenti in crescita.
I dirigenti di Nvidia affermano che la società è diventata meno un fornitore di chip mercenario e più un fornitore di piattaforme, come Microsoft o Apple, su cui altre società possono creare software.
“Blackwell non è un chip, è il nome di una piattaforma”, ha detto Huang.
“Il prodotto commercialmente vendibile era la GPU e il software aveva lo scopo di aiutare le persone a utilizzare la GPU in modi diversi”, ha dichiarato in un'intervista Manuvir Das, vicepresidente della Nvidia Foundation. “Certo, lo facciamo ancora. Ma ciò che è veramente cambiato è che ora abbiamo una società di software aziendale.”
Das ha affermato che il nuovo software di Nvidia renderà più semplice l'esecuzione del software su qualsiasi GPU di Nvidia, anche su quelle più vecchie che potrebbero essere più adatte per l'implementazione ma non per la creazione di intelligenza artificiale.
“Se sei uno sviluppatore e hai un modello interessante che vuoi che le persone adottino, se lo inserisci in NIM, ci assicureremo che sia riproducibile su tutte le nostre GPU, così potrai raggiungere molte persone,” Ha detto Das.
Il superchip GB200 Grace Blackwell di Nvidia, con due GPU B200 e una CPU basata su Arm.
Ogni due anni Nvidia aggiorna la sua architettura GPU, sbloccando un enorme salto di prestazioni. Molti dei modelli di intelligenza artificiale rilasciati nell'ultimo anno sono stati addestrati sull'architettura Hopper dell'azienda, utilizzata da chip come l'H100, che sarà annunciata nel 2022.
Nvidia afferma che i processori basati su Blackwell, come il GB200, offrono un enorme aggiornamento delle prestazioni per le aziende di intelligenza artificiale, con 20 petaflop di prestazioni AI contro 4 petaflop dell'H100. Nvidia ha affermato che la potenza di elaborazione aggiuntiva consentirà alle aziende di intelligenza artificiale di addestrare modelli più grandi e complessi.
Il chip include quello che Nvidia chiama un “motore di trasformazione specificamente progettato per alimentare l'intelligenza artificiale basata su trasformatore, una delle tecnologie principali alla base di ChatGPT”.
La GPU Blackwell è grande e combina due die prodotti separatamente in un unico chip realizzato da TSMC. Sarà disponibile anche come server completo chiamato GB200 NVLink 2, che combina 72 GPU Blackwell e altre parti Nvidia progettate per addestrare i modelli AI.
Il CEO di Nvidia Jensen Huang confronta le dimensioni del nuovo chip “Blackwell” con l'attuale chip “Hopper” H100 alla conferenza degli sviluppatori dell'azienda, a San Jose, California.
Nvidia
Amazon, Google, Microsoft e Oracle venderanno l'accesso al GB200 tramite servizi cloud. Il GB200 combina due GPU B200 Blackwell con una singola CPU Grace basata su Arm. Nvidia ha affermato che Amazon Web Services costruirà una server farm contenente 20.000 chip GB200.
Nvidia ha affermato che il sistema può implementare un modello contenente 27 trilioni di parametri. Questo è molto più grande anche dei modelli più grandi, come GPT-4, che si dice contenga 1,7 trilioni di parametri. Molti ricercatori sull’intelligenza artificiale ritengono che i modelli più grandi contengano più parametri e dati Può sbloccare nuove abilità.
Nvidia non ha fornito un costo per il nuovo GB200 o per i sistemi utilizzati in esso. L'H100 basato su Hopper di Nvidia costa tra $ 25.000 e $ 40.000 per chip, con sistemi completi che costano fino a $ 200.000, secondo le stime degli analisti.
Nvidia venderà anche le GPU B200 come parte di un sistema completo che occupa un intero rack di server.
Nvidia ha inoltre annunciato che aggiungerà un nuovo prodotto chiamato NIM, che sta per Nvidia Inference Microservice, al suo abbonamento al programma Nvidia Enterprise.
NIM semplifica l'utilizzo delle GPU Nvidia legacy per l'inferenza o il processo di esecuzione di programmi di intelligenza artificiale e consentirà alle aziende di continuare a utilizzare le centinaia di milioni di GPU Nvidia che già possiedono. L'inferenza richiede meno potenza di calcolo rispetto all'addestramento iniziale di un nuovo modello di intelligenza artificiale. NIM consente alle aziende che desiderano eseguire i propri modelli di intelligenza artificiale, anziché acquistare l'accesso ai risultati dell'intelligenza artificiale come servizio da aziende come OpenAI.
La strategia è quella di convincere i clienti che acquistano server basati su Nvidia ad abbonarsi a Nvidia Enterprise, che costa $ 4.500 per GPU all'anno per la licenza.
Nvidia lavorerà con aziende di intelligenza artificiale come Microsoft o Hugging Face per garantire che i suoi modelli di intelligenza artificiale siano ottimizzati per funzionare su tutti i chip Nvidia compatibili. Quindi, utilizzando NIM, gli sviluppatori possono eseguire in modo efficiente il modello sui propri server o sui server basati su cloud di Nvidia senza un lungo processo di configurazione.
“Nel mio codice, dove chiamavo OpenAI, sostituirei una riga di codice per indirizzarla al NIM che ho ricevuto da Nvidia”, ha detto Das.
Nvidia afferma che il software aiuterà anche l'intelligenza artificiale a funzionare su laptop dotati di GPU, anziché su server nel cloud.