Nel corso di una conferenza all’SC23 di Denver, NVIDIA ha presentato in anteprima le prestazioni della futura GPU Blackwell B100, programmata per il 2024 e destinata a succedere alla generazione Hopper (H100 e H200).
Durante la presentazione, attraverso una breve anteprima sotto forma di slide, NVIDIA ha mostrato come la Blackwell B100 supererà le attuali soluzioni di punta, come la H200.
Sebbene la scala sull’asse verticale non sia specificata, si può dedurre che le prestazioni di inferenza, specialmente con modelli GPT-3 come il GPT-3 175B (noto anche come da Vinci, con 175 miliardi di parametri), saranno notevolmente migliorate con la nuova architettura. È essenziale notare che questa proiezione rappresenta un singolo scenario e non un valore generale.
Secondo voci di corridoio, la Blackwell B100 sarà realizzata utilizzando il processo produttivo a 3 nanometri di TSMC, e potrebbe essere il primo progetto MCM (Multi-Chip Module, con più chip sul package che lavorano sinergicamente) di NVIDIA. Una successiva slide sembra suggerire che la B100 sarà abbinata alla memoria HBM3E, potenzialmente più veloce rispetto a quella impiegata nella H200.
Recentemente, la società ha annunciato il passaggio da un ciclo di sviluppo biennale a uno annuale per le nuove architetture dei datacenter.
Prima dell’arrivo della Blackwell B100, NVIDIA ha presentato l’H200 con 141 GB di memoria HBM3E. Questa versione aggiornata dell’acceleratore basato su GPU H100 ha visto un aumento della capacità di memoria da 80 a 141 GB, con una bandwidth di 4,8 TB al secondo grazie a un bus a 6144 bit. Anche se NVIDIA non ha fornito dettagli sulle modifiche alla GPU, sembra che gli incrementi prestazionali siano legati esclusivamente alla memoria. L’H200 dovrebbe essere disponibile nel secondo trimestre del 2024.
NVIDIA ha anche introdotto l’HGX H200, un sistema con 8 soluzioni H200 in formato SMX, un upgrade del precedente HGX H100. Un’altra novità è il Quad GH200, un sistema che combina 4 soluzioni GH200 Grace Hopper Superchip in parallelo, con un totale di 288 core ARM, 1920 GB di memoria LPDDR5X e 384 GB di memoria HBM3 (in questo caso, non si tratta della versione aggiornata con HBM3E), per un totale di 2,3 TB di memoria. Tra le prime aziende a offrire questa soluzione vi è HPE (HP Enterprise) con Cray EX2500.