Nvidia svela la GPU Volta GV100: 5120 CUDA Core e 16GB HBM2

11 Maggio 2017 46

Nvidia chiude in grande stile il GTC 2017 svelando al pubblico la prima GPU basata su architettura Volta. Senza viaggiare subito con la fantasia, vi diciamo subito che non si tratta di un chip che vedremo sulle schede grafiche consumer (GeForce) ma di GV100, la soluzione top di gamma pensata per l'HPC.

La GPU, utilizzata nell'ultima Tesla V100 (single e dual-slot) è stata presentata insieme alla Nvidia DGX Station, supercomputer per il Deep Learnig e l'AI, basato su 4 Tesla V100 e uno Xeon E5-2698 v4 al modico prezzo di 149000 dollari.

Tornando a GV100, siamo di fronte a una GPU a dir poco potentissima, che offre 5120 Cuda Core FP32 e 2560 Cuda Core FP64. Allo stesso tempo, Volta introduce i Tensor Core, ideati ed ottimizzati per velocizzare appunto il Deep Learnig e la creazione di reti neurali.


Volta GV100 è realizzata con processo FinFET a 12nm, ha un dimensione di 812 mm2 e contiene ben 21,1 miliardi di transistor; la GPU ha una frequenza boost a 1455 MHz ed è affiancata a 16GB di memoria HBM2 con bus a 4096 bit, il tutto per una banda passante di 900 GB/s. Quanto a prestazioni, Nvidia dichiara 15 TFLOPS in FP32 e 7,5 TFLOPS in FP64; i Tensor Core invece sarabbero in grado di offrire un picco di 120 TFLOPS.

Volta quindi permette un notevole boost prestazionale se paragonata a Pascal, rispetto alla quale risulta molto più efficiente in termini energetici. Le prime schede dovrebbero essere disponibili nei prossimi mesi, mentre come ben saprete dovremo aspettare il 2018 per le GeForce Volta-based.


Fotocamera al top e video 4K a 60fps con tutta la qualità Apple? Apple iPhone 8 Plus, in offerta oggi da Tiger Shop a 765 euro oppure da Amazon a 839 euro.

46

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
smn_lrt

No, sono proprio core a parte.
...Quello che ha tirato fuori questo discorso è il signor "L" (che è un chimico, di informatica al massimo ha fatto macro su Excel...
Di circuiti non sa niente e credo che se gli chiedi cos'è un flip flop si mette a cercarlo su Wikipedia...
tradotto qualsiasi discorso che fa al di fuori di PP è per sentito dire...o sue speculazioni su speculazioni che lo portano a convincersi di cose che non esistono tipo "fp512")...

https://devblogs.nvidia .com/parallelforall/inside-volta/

Qui spiegano di più:
- aggiunti program counter e stack per ogni thread (lavora più similmente ad una cpu)
- cache L1 configurabile che satura meglio le alu (dal 70% medio al 90%)
- blocchi int32 e float32 separati anche come alimentazione dei dati: possono lavorare contemporaneamente (15TFlops + 15TOps) spiegato nell' articolo

Sandro

3584 3072 2560 (2080ti 4096), dopo quasi due anni ;)

FlyingJohnnyFishAldrex

E allora?

Gianluca Olla

Patatoso però non offende. Fa solo mitici commenti con mitiche trollate :)

Gaspare

Vedremo

Skynet J4F

ma se già la 1080ti ne ha 3584

Gaspare

Secondo me saranno così: inuti fa
GV104 -> GTX 2080 3200 core, GTX 2070 2688 core, GV106 -> GTX 2060 1920 cor

Tony_the_only

Dai almeno patatoso ha un suo perché...è un troll simpatico a modo suo :D

Darkat

Esattamente :/

franky29

Con una di quelle io potrei morire felice

Raw

Quindi ipotesi:

GTX 2080 GV104
64ROPs,
256bit
16GB GDDR6 @ 16GHz = 512GB di banda passante
3584 Cuda core
Boost max @ quasi 2000MHz = 14TFlops di potenza

GTX 2070 GV104
64ROPs
256bit
16GB GDDR5X @ 12GHz o 14GHz = 384GB o 448GB di banda passante
3008 Cuda core
Boost max @ quasi 1900MHz = 11.249Tflops di potenza

dopo

GTX TITAN XV ( 4 Gen) GV102
96ROPs
384bit
24GB GDDR6 @ 16GHz = 768GB di banda passante
5120 Cuda core
Boost Max @ quasi 1900MHz = 19.1Tflops di potenza

dopo

GTX 2080Ti GV102

(una via di mezzo tra la prima e la seconda Titan Volta, con Clock del core come la 2080, e uno sputo in meno di Vram se gli tagliano leggermente il Bus)

GTX TITAN XV Full chip GV102
96ROPs
384bit
24GB GDDR6 @ 16GHz = 768GB di banda passante
5376 Cuda core
Boost Max @ quasi 1900MHz = 20.1Tflops di potenza

Underteo

probabilmente, avesse avuto uno smartphone quella volta, sarebbe stata su FB a chattare con le amiche e non a concepire...

poi tra patatoso e altri la lista di gente veramente triste su questo blog è abbastanza folta

riccardik

chissà

Boronius

E tra 20 anni tutta questa potenza sarà dentro ad un banale portachiavi con lucetta LED

Minestra Riscaldapple

bello che sono bloccati l'altissimo, l'archigourmet, il nome salvat0re, ma si può allegramente dare del ..glione

Tony_the_only

Complimenti alla mamma! O_o

Darkat

Cosi va bene o ne vuoi altri?

https://uploads.disquscdn.c...

talme94

E Minecraft?

Minestra Riscaldapple

esempi?

NaXter24R

Vero, ma storicamente si è sempre visto come la specializzazione in un campo diventi poi la regola. Certamente una GPU è un ottimo strumento, fa di tutto, però se soluzioni del genere, specializzate, consumano così poco e rendono così tanto..

NaXter24R

Esattamente. Di solito si parte sempre da qualcosa di generico per poi andare a specializzare, e penso succederà questo in futuro. Un esempio banalissimo, Maxwell. Nvidia andò a tagliare le parti "inutili" dato che il fine ultimo era la grafica.
Stessa cosa credo accadrà in questo settore

Maurizio Mugelli

sono molto specialistici, i tensor core li ottengono raggruppando otto unita' fp32, non sono aggiuntivi agli altri e sembrano richiedere comunque un bel po' di risorse hardware extra.

B!G Ph4Rm4

No no ma infatti è ovvio che sarà molto diversa come tecnologie implementate, il discorso mio valeva prettamente in ambito consumer/giochi, e per il discorso cuda core.

Maurizio Mugelli

bisogna prima di tutto vedere una comparazione sul campo, l'approccio e' interessante, le dimensioni mostruose del die preoccupano un po' (specie con un pp ancora da affinare) ma il potenziale c'e'.
l'unica cosa e' che sembra estremamente specializzata, non molto adatta all'uso generalistico.

NaXter24R

Appunto, è un mix. E proprio per questo dico, non avrebbe più senso concentrarsi su un ambito specifico? Ad ogni generazione tirano la coperta da un lato e la scoprono dall'altro

Daniele Cosentino

I tensor core dovrebbero servire a questo. Diciamo che questa non è "solo" Deep learning.

Enrico Giordani

"Non hai capito."

ah beh!

NaXter24R

https://www. tomshw. it/tpu-google-straccia-cpu-gpu-machine-learning-84698

Non hai capito. Per quelli che sono i costi, in futuro ha senso sviluppare GPU del genere con il fine ultimo del deep learning quando ci sono schede più efficienti sotto ogni aspetto? Mi pare un po quando si minavano bitcoin con le GPU salvo poi scoprire di ASIC che andavano meglio consumando una fischiata in confronto

Enrico Giordani

La risposta è: si, serve.

Darkat

OT per la redazione:
Come posso segnalarvi un utente, Insider, che continua ad offendere in tutti i suoi commenti, io non trovo possibile che davvero voi non facciate nulla per un utente così offensivo e io non so come segnalarvelo oltre alla normale segnalazione di disqus, come è possibile farlo in modo da ottenere almeno un richiamo?
O permettete davvero agli utenti di offendere nei commenti?

NaXter24R

La domanda però è: serve?
Nvidia si sta lanciando tantissimo nel deep learning, automotive e settore professionale. Sicuramente l'ultimo, in ambito grafico e di progettazione ha un senso, così come ha senso il mercato consumer PC (anche se ha perso parecchi partner nonostante le buone vendite), ma quando uno pensa alla TPU di Google che consuma molto ma molto meno e va decisamente meglio nel deep learning..

Patatoso_Morbidoso!!

Mitici amici la potenza è nulla senza il mitico controllo!! Non compratela se pensate che poi vincere a Fifa!!

SONICCO

ma ci girerà crysis?

Maurizio Mugelli

amazon fa sapere che le usera' nelle loro macchine cloud per il gioco remoto quindi probabilmente ci girera' in parallelo N volte.

Dexios9

nessuno che fa la fatidica domanda " ma ci girerà crysis"? che delusione!

Maurizio Mugelli

se poi chiamano volta uno shrink a 12nm di pascal con piu' cu, ok, liberissimi, ma quello che hanno lanciato ieri e' basato quasi totalmente sui nuovi Tensor Core, che in campo consumer non hanno molti usi.
i tensor core in pratica sono una ripresa delle vecchie pipeline MMA, matrix-multiply-accumulate - una vecchia tecnica usata qualche decennio fa dalle workstation grafiche SGI (ed altri) per velocizzare il ray tracing e che oggi e' utile anche in campo AI - e' una soluzione molto potente ma venne abbandonata perche' ha un "costo" in termini di risorse hardware molto maggiore delle piu' semplici pipeline simd vettoriali.

evidentemente nvidia ritiene che con piu' di venti milardi di transistors a disposizione puo' permettersi di "sprecarne" una parte per implementarla ma A) non e' usabile nei giochi realtime e B) in un chip meno estremo il "costo" non vale la candela, meglio avere 100 pipeline simd che soltanto una mma.

riccardik

parlando di tecnologia 10 anni sono un'era geologica

B!G Ph4Rm4

Probabilmente si

d4N

Be vedendo come sono evolute le cose, considerando la Xp attuale, teoricamente dovrebbe essere così per la Xv.
Anche se penso arriverà fra un anno come minimo

Bioexml

tra 10 anni rideremo di queste schede... o almeno lo spero.

B!G Ph4Rm4

in teoria Volta dovrebbe arrivare nel corso del 2018 anche in ambito consumer, se così fosse dovrebbe esserci una TitanV con un numero simile di Cuda core e una frequenza maggiore, probabilmente con le GDDR6 e non con le HBM2.

Maurizio Mugelli

beh prima del 2018 i 12nm non sono pronti.

Ezio

looooooooooooool

Maurizio Mugelli

dubito vedremo volta in versione consumer, nvidia ha creato un prodotto molto specializzato in questo caso per usi di tipo professionale, per le applicazioni consumer e' poco applicabile.

D3stroyah

2018 :(

B!G Ph4Rm4

Che razza di mostro.
Speriamo che la prossima Titan abbia lo stesso numero di CUDA core, o simile.

Recensione TerraMaster NAS F4-220: adatto a casa e in ufficio

Asus VivoBook Flip 14: eccolo nella nostra anteprima video da IFA

Asus ZenBook Flip 14 e 15: la nostra video anteprima da IFA 2017

Recensione Surface Pro Core i5 e Core i7: fanless è meglio