NVIDIA parla della tecnologia NVSwitch alla base del sistema per l'AI DGX-2

24 Agosto 2018 11

Durante la conferenza tenuta all'Hot Chips 2018, NVIDIA ha fornito nuovi dettagli sulla tecnologia NVSwitch utilizzata su DGX-2, il sistema più potente realizzato dal produttore per ambiti come l'AI e il deep learning. DGX-2, presentato da NVIDIA alla GTC di marzo, venne definito da NVIDIA come "la più grande GPU al mondo", questo proprio grazie alla tecnologia NVSwitch che, insieme a NVLink, permette di gestire 16 schede Tesla V100 come fossero una singola GPU.


DGX-2 ha specifiche da capogiro: 16 Tesla V100, equipaggiate a loro volta con 5120 Cuda Core e 32GB di memoria HBM2, il tutto per un totale di 81920 Cuda Core, 12240 Tensor Core e 512GB di memoria HBM2. Il sistema NVIDIA offre una potenza di calcolo vicino ai 2 PetaFlops, ma questo implica consumi energetici e costi non indifferenti, ben 10 kW a fronte di un prezzo di listino di 399.999$ di base.

All'interno di DGX-2, le 16 schede Tesla V100 si interfacciano con la scheda madre attraverso due connettori, uno per il traffico PCIe, l'altro per quello NVLink; entrambi puntano a due diverse schede di collegamento passive che facilitano la comunicazione tra la parte superiore e inferiore dello chassis, ognuna delle quali ospita 8 schede Tesla V100.


Per gestire la notevole quantità di traffico NVLink delle 16 GPU, NVIDIA ha messo a punto la tecnologia NVSwitch, in pratica uno switch ad alte prestazioni ottimizzato per non limitare la larghezza di banda delle schede Tesla. Nel dettaglio, NVSwitch è un chip costruito con processo produttivo a 12nm FFN di TSMC, integra 18 NVLink e una PCIe; considerando che ogni NVLink è capace di una banda di oltre 25 GB/s, in totale avremo una banda passante di 450 GB/s.


L'implementazione di NVSwitch ha portato diversi benefici su DGX-2, cosi come dimostrano i benchmark interni forniti dal produttore; la tecnologia è senza dubbio molto valida, ma i compromessi sembrano non mancare. Come anticipato in apertura infatti, il sistema NVIDIA richiede ben 10.000 Watt e non è chiaro quanto consumino questi nuovi switch. NVIDIA da parte sua dichiara che il consumo è inferiore a un comune switch di rete, tuttavia dalle immagini si nota che il produttore utilizza dei generosi dissipatori, segno che il TDP dei chip non dovrebbe essere poi cosi contenuto.


11

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Ex.

Non è così facile
1 Avresti comunque bisogno di controller ad alte prestazioni che occuperebbero un sacco di spazio, al punto che finiresti comunque per aver bisogno di più PCB. Considera che ad esempio le GPU multi-die hanno dei PLX, dovresti usarne anche in questo caso
2 Il die sarebbe enorme. Tradotto: un disastro termico. Dissipatori grossi abbastanza non esisterebbero e non sarebbe possibile farne di abbastanza efficienti da funzionare
3 Un danno minimo su un die e devi buttare tutto
4 Il grado di riparazione sarebbe sottozero

EnricoG
EnricoG
josefor

con quella si spera che tomb raider non lagghi in ray tracing... :D

EnricoG

Perche' presenterebbe tutta una serie di problemi tali da rendere la soluzione peggiore di quella attuale. E probabilmente avrebbe un costo folle perche' basterebbe un singolo difetto produttivo ad una delle sedici GPU per costringere a buttarle via tutte.

Eugenio Volcov

evita il sarcasmo , la mia era una domanda lecita buttata lì a spanne senza entrare nel dettaglio , poi se tu sei ingegnere elettronico e sai argomentarmi tutti i motivi di non fattibilità assoluta sei il benvenuto !

realist

Pensavo ci fosse un Nintendo switch a gestire le schede.

Lino Torvaldi

EuGENIO. Sei assunto. Elimina il commento per non far leggere a AMD.

Eugenio Volcov

Ma invece di tutte queste magagne mettere le 16gpu su un unico die e collegarle con bus interni e mettere il tutto su uma pcb unica con le memorie e unmegadissipatore a puu settori ? Giusto per risparmiare spazio eh.

Leonardo Massai

But can it run Crysis?

B!G Ph4Rm4

Che spettacolo ragazzi, altro che PC Master Race

Recensione NVIDIA GeForce RTX 3080, il 4K non sarà più un sogno! Video

NVIDIA GeForce RTX 3090, 3080 e 3070 ufficiali, caratteristiche e prezzi ITA

Recensione MateBook 14: è il migliore tra i notebook Huawei

Apple annuncia i processori proprietari per Mac basati su architettura ARM