Nvidia pensa a GPU Multi-Chip-Module per il futuro

05 Luglio 2017 20

Nvidia ha presentato a maggio GV100, il primo acceleratore GPU basato su architettura Volta che si è subito imposto come il più potente chip della sua categoria. Con i suoi 84 SM e 5376 CUDA Core, GV100 ha dimensioni pari a 815mm2: un vero mostro di potenza, che, stando a quanto ha dichiarato l'azienda, probabilmente ha portato al limite l'attuale processo produttivo FinFET a 12nm.

Nvidia ha un'elevata richiesta per questa tipologia di chip da diversi settori di mercato; ambiti come l'AI o il deep learning , ad esempio, richiedono risorse sempre maggiori e una potenza di calcolo superiore. Come si può cercare di aggirare questo limite nel breve periodo, senza aspettare anni per lo sviluppo e l'ottimizzazione di un nuovo processo produttivo?

Stando all'ultimo documento apparso research.nvidia.com, la risposta potrebbe essere un approccio Multi-Chip-Module (MCM), ossia integrare sullo stesso package diverse GPU, chip di memoria e controller, collegati ovviamente con interconnessioni ad alta velocità.


Gli approcci e le soluzioni per un chip MCM sono diversi; nel caso di Nvidia le prime simulazioni parlano di 4 GPM (GPU Module), ciascuno con 64 SM, quindi un totale di 256 SM. Se pensiamo che ogni SM può integrare 64 CUDA Core, con una semplice moltiplicazione si arriva a 16384 CUDA Core. Considerando che Volta GV100 ha 5376 CUDA, non facciamo fatica a immaginare la potenza di calcolo che potrebbe avere una soluzione del genere.

Ovviamente siamo ancora sul piano teorico, la strada è lunga e non sappiamo se l'attuale processo produttivo FinFET 12nm sarà il primo a sperimentare l'approccio MCM. Nvidia però sembra ottimista, soprattutto se si pensa che questa soluzione, applicata a processi produttivi a 10 e 7 nanometri, permetterebbe di produrre GPM che sarebbero il 40-60% più piccole delle più potenti GPU attualmente in commercio. Assemblare 4 GPM più compatti inoltre, risulterà nettamente più efficiente rispetto a una GPU con approccio monolitico, a parità di specifiche (SM e CUDA).

Probabilmente avremo un assaggio di questa tecnologia al prossimo GTC che si terrà nel 2018.


Meglio Moto G4 ma Plus nel 2016? Motorola Moto G4 Plus, compralo al miglior prezzo da Amazon a 217 euro.

20

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
hammyboy

3dfx like!

talme94

L'elio è ancora meglio. Teniamo la scheda video a 1,5 K come i magneti del LHC del CERN :D

Gattino

Beh sicuramente qualche problema l'hanno incontrato visti i ritardi

Maurizio Mugelli

vega ha qualcosa che non va, c'e' poco da dire, non e' possibile che a pari clock sia piu' lento di fiji.
resta da vedere se e' un problema che possono risolvere via drivers/firmware o qualcosa di non solvibile.

Maurizio Mugelli

dual gpu sulla stessa scheda, non dual gpu sullo stesso socket

Meliodas

come aveva fatto già in passato o mi sono perso qualcosa? aveva già prodotto schede video dual gpu no?

Maurizio Mugelli

come bus interno - tecnicamente infinity fabric e' un protocollo di instradamento dati piu' che un bus fisico che poi puo' venire applicato a svariati tipi di bus fisici, per questo si tende a fare confusione.
in ryzen/threadripper/epic viene usato come bus interno per interconnettere i vari moduli (blocchi ccx di core, controller ram, controller io ecc.), come bus per interconnettere i vari die sul mcm (via GMI) e come bus esterno per interconnettere socket multipli - sempre infinity fabric ma applicata in modo diverso.
su vega dovrebbe connettere i gruppi di CU fra loro, ai controller HBM e al pci-e

Gattino

Si purtroppo hanno avuto ritardi su ritardi con Vega per qualche motivo a noi sconosciuto. Speriamo che Navi non arrivi nel duemilamai.

DerFlacco

Già lo fa in campo Cpu con Ryzen. Lessi anche io qualcosa della presunta implementazione su vega. Ma ormai, con tutta la shitstorm che si sta beccando quell' architettura, non trovo più notizie del genere su reddit.

Gattino

Amd dovrebbe portare una cosa del genere con Navi, poi Infinity Fabric mi pare di aver capito che sia utilizzato anche con Vega ma non so come

DerFlacco

Non dovrebbe già farlo Amd con infinity fabric?

Maurizio Mugelli

piu' che altro e' la nuova generazione di mcm e bus di interconnessione che permette di farlo a prezzi umani, vedi quel che sta facendo amd con threadripper/epyc.
per la cronaca, anche navi e' gia' previsto da tempo che sara' un sistema modulare con moduli multipli su mcm per i modelli di livello alto e per il supercomputing si parla di mostri a 32 die (mi sa che ce ne vorra' ancora di tempo)

Stavus

È tutto tranne che hardcoded

Maurizio Mugelli

non proprio visto che cosi' il bus di interconnessione e' decine di volte piu' veloce di quello che puoi ottenere fuori dal mcm.
in pratica l'incremento di latenza e' minimo

xan

ma non è semplicemente lo SLI hardcoded?

IlRompiscatole

Midnight

Azoto liquido di stock is the way

IlRompiscatole

Lo é sempre ^_^
Basta smaltirlo con un sistema adeguato :-)

Midnight

Il calore non sarebbe un problema?

NaXter24R

L'han capito anche loro finalmente. I prezzi sono assurd1 e le rese sono bassissime, è l'unica alternativa

Recensione Acer Aspire VX 15: gaming economico e competitivo

Surface Laptop, Studio e tutta la gamma Surface alla MS House | Video

Recensione HP Spectre x360 13: il convertibile migliore

NAS Drobo 5N2: recensione by HDBlog.it