NVIDIA Blackwell B100 fa già paura: prestazioni che battono H200 Hopper

In una conferenza all’SC23 a Denver, NVIDIA ha rivelato per la prima volta la performance di Blackwell B100GPU in arrivo nel 2024 che succederà alla generazione Hopper (H100 e H200).

In una breve anteprima sotto forma di diapositiva, NVIDIA lo ha mostrato Blackwell B100 sarà in grado di masterizzare la sua attuale soluzione di punta H200. Non esiste una scala per l’asse verticale, ma puoi facilmente intuirlo prestazioni di inferenza con modelli GPT-3 come GPT-3 175B (ribattezzato da vinci, 175 miliardi di parametri) sarà più che raddoppiato dalla nuova architettura. Ovviamente il dato va preso come un’unica proiezione e non un valore generale.

clicca per ingrandire

Secondo alcune indiscrezioni, NVIDIA utilizzerà il processo produttivo a 3 nanometri di TSMC per creare il Blackwell B100: è anche possibile che si tratti del primo progetto MCM (modulo multi-chip, più chip sul pacchetto che lavorano insieme) dell’azienda. Una seconda diapositiva sembra suggerire che il B100 sarà accompagnato dalla memoria HBM3Eforse più veloce di quello implementato su H200.

clicca per ingrandire

Recentemente l’azienda statunitense ha annunciato il passaggio da una cadenza biennale a quella annuale nello sviluppo di nuove architetture per il mondo dei data center.

NVIDIA: prima del B100, ecco l’H200 con 141 GB di memoria HBM3E

Ad agosto NVIDIA ha annunciato il GH200 Grace Hopper Superchip, una versione del Grace Hopper Superchip (CPU ARM + GPU Hopper) dotata di memoria HBM3E. In queste ore l’azienda guidata da Jensen Huang ha rilanciato con H200, versione aggiornata con memoria HBM3E dell’acceleratore basato su GPU H100. Non solo, la capacità di memoria va da 80 a 141GBcon una larghezza di banda di 4,8 TB al secondo grazie ad un bus a 6144 bit.

clicca per ingrandire

Il numero 141 è particolare, infatti sulla scheda ci sono fisicamente 144 GB grazie a sei stack da 24 GB, ma NVIDIA ha deciso di mantenere il margine per qualche motivo, forse una questione di resa produttiva.

Sebbene NVIDIA non sia entrata nei dettagli, Non sembra che la GPU abbia subito modifiche rispetto all’H200quindi i miglioramenti prestazionali indicati dall’azienda devono essere legati alla sola memoria. Il nuovo acceleratore sarà disponibile nel secondo trimestre del 2024.

clicca per ingrandire

Lo ha rivelato anche NVIDIA HGX H200, ovvero un sistema con 8 soluzioni H200 in formato SMX, aggiornamento del preesistente HGX H100. Infine, si chiama un’altra novità Quad GH200: come suggerisce il nome, si tratta di una soluzione che riunisce in parallelo 4 soluzioni GH200 Grace Hopper Superchip, per un totale di 288 core ARM, memoria LPDDR5X da 1920 GB e memoria HBM3 da 384 GB (in questo caso non parliamo della versione aggiornata con HBM3E), per un totale di 2,3 TB di memoria. Tra le prime aziende ad offrire questa soluzione troviamo, come riportato quiHPE (HP Enterprise) con Cray EX2500.

We will be happy to hear your thoughts

Leave a reply

Galileus Web