Tutti i prezzi sono validi al momento della pubblicazione. Se fai click o acquisti qualcosa, potremmo ricevere un compenso.

Nvidia conferma: le GPU Pascal avranno 16GB di memoria HBM2

20 Novembre 2015 70

Durante la versione Giapponese del GTC (GPU Technology Conference), Nvidia ha confermato che la scheda video di punta basata sulla prossima GPU Pascal (GP100) monterà effettivamente 16 GigaByte di Memoria HBM2 (High Bandwidth Memory di seconda generazione).

Al momento vengono smentite le voci che volevano un modello da 32 Gigabyte, al momento non realizzabile con l'attuale tencologia, o comunque non efficiente per produrre una scheda grafica.

Ricordiamo che le HBM2 permettono di avere una larghezza di banda di ben 1 TeraByte/s, mentre sul versante GPU, le prossime GeForce potranno contare sul processo produttivo FinFET a 16 nanometri, per un chip DirectX 12 "nativo" con ben 17 Miliardi di Transistor.

Nvidia non è andata oltre, a parte dichiarare che la scheda top di gamma potrebbe anche superare praticamente i 2 TB/s. Rimaniamo attesa di ulteriori info, aspettiamo in particolare qualche test preliminare di Pascal e allo stesso tempo della controparte AMD.


70

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Underteo

non penso ci siano offerte del genere, però su ebay spesso si trovano buone offerte su schede delle passate generazioni

tom93csc

Ciao underteo , è possibile prendere schede video in abbonamento?
Se si , come si fa?

Glorfindel

vanno solo a salti generali di questo tipo: 4-8-16. I 12 della Titan sono eccezioni, come anche i 6, ma i movimenti base sono quelli. I 16 sarà però la top di gamma, poi 8 e 4 a seguire per le fasce basse.

Dario Pisapia

vabbè cosa centra? se stiamo a vedere quello allora la potenza non basterebbe mai...

Manuel Bianchi

Infatti per qullo chiedevo inzialmente quando sarebbeero uscite le nuove 10xx (o come si chiameeranno) :D
Se esce qualcosa posso aspettare senza troppi problemi anche fino al q3 2016.

Sir.TEO

Non ha senso acquistare una GTX970 in questo momento (tanto meno a Marzo quando saranno già state presentate le nuove GPU) in quanto il prezzo è rimasto invariato da Settembre 2014 ad oggi (da 300 a 350 euro in base al modello) e tra pochi mesi allo stesso prezzo porterai a casa una GTX1070 che, stando alle dichiarazioni di nVidia e a tutta una serie di considerazioni tecniche direttamente legate all'aumento di IPC e al nuovo PP a 16nm, offriranno il doppio delle prestazioni a parità di consumi. Allora si che potrai pensare al 4K e il tuo investimento avrà un senso.

Considera anche che esiste la possibilità che la fascia bassa (GTX 1050) venga presentata prima (Febbraio?) alla stregua di quanto fatto l'anno scorso con la GTX750Ti per testare la risposta del mercato e anche in questo caso avremo una scheda con prestazioni doppie rispetto a quella attuale e quindi paragonabili ad una GTX980.

Nicola Baccillieri

scusate..io non ho ancora capito una cosa...come prezzo come siamo messi?...
voglio dire, saranno solo fascia alta(sopra le 250/300€) oppure faranno una fascia "entry level" o almeno "media" sulle 200€?
Per quanto riguarda le amd invece(greenland) anche li...coi prezzi come saremo messi?

Topax

No infatti, tira avanti se puoi!

nexusprime

tanto su pc ottimizzano da cani quindi a breve il nuovo batman o il nuovo assassin creed lo avranno tra i requisiti consigliati

Giuseppe030

Io spero il più presto possibile perché inizio a lavorare fra qualche mese e avevo intenzione di assemblarmi un pc con una 970/ R9 390, ma ho letto che le presenteranno ad aprile da qualche parte..spero che dopo l'annuncio siano subito in commercio e che non costino troppo perché da come dicono gli altri nVidia lascia sempre parecchio indietro la serie precedente e prendere una 970 a marzo/aprile forse non è una mossa saggia

Manuel Bianchi

Bhe diciamo che ci penserò a marzo/aprile e li pondererò. E' che la 970 costa ancora un botto

gino loreto

Test sullo sfruttamento della memoria hanno dimostrato 4gb HBM equivalgono 6gb DDR5.

gino loreto

Le attuali Maxwell hanno prestazioni in DX12 inferiori alle Radeon, perchè supportano il calcolo asincrono in modo meno efficiente. Nella demo di AoS una r9 290x va come una gtx 980ti (anche nel Futuremark 3dMarkDX12). Quindi probabilmente Nvidia è riuscita a implementare efficacemente il supporto alle DX12, anche se io aspetterei di vedere i benchmark. Va da sè che le Maxwell, una volta uscite le Pascal, saranno da "buttare", primo perchè vanno di meno in DX12 delle Amd, secondo perchè Nvidia non ottimizzerà bene i driver come è già successo per le Kepler.

Topax

Già 1000€ per una scheda video sono tantissimi, di più dubito riescano a pompare nel settore enthusiast! Poi dipende sempre da AMD: se ci saranno due schede che in Crossfire arriveranno alle stesse prestazioni a metà prezzo dubito nVidia si spingerà troppo in là! Staremo a vedere!

Il nabbo di turno

Guarda, io ho la gtx 770, non ci vado a spataccare molto perchè le impostazioni dei dettagli nei giochi le metto nel menù di gioco, ma alcuni filtri non gli ho mai visti impattare positivamente come qualità grafica, a parte il physx.

marco

GeForce experience non lo installo mai perché lo trovo una purga, il pannello di controllo nvidia è abbastanza scarno. Tra l'altro alcune voci rimangono avvolte nel mistero.un esempio "antialias correzione gamma". Che significa? Quali vantaggi e impatto ha sulle prestazioni?

Il nabbo di turno

Con le amd lo si può fare via driver, i catalyst permettono di impostare nel loro menù di impostare la tassellazione a piacere.
Mentre il gefforce experience e il pannello di controllo nvidia non hanno questa caratteristica.

marco

Non c'è un modo per ovviare al problema?

Stephen

non mi capacito tutta quella potenza e poi usa solo 4gb mah

Stephen

mille? sei ottimista per una succhia soldi come nvidia che presenterà una tecnologia "nuova"

Stephen

"...32 Gigabyte, al momento non realizzabile con l'attuale tencologia..." poi vedrai che dopo poco tempo faranno una titan dual gpu o una quadro con 32gb lol

Stephen

il problema non è il gioco preso in esame ma dal fatto che nvidia non fa nulla per adattare via driver il lavoro richiesto per giochi e programmi sulle vecchie serie.
di proposito penalizzano le prestazioni delle precedenti serie per esaltare la nuova.

Stephen

da 16gb sarà solamente la prossima titan, presumibilmente l'erede della 980 ti ne avrà invece 8

Pippo Gi

cioè passano da 4GB a 16GB in una botta sola?

Il nabbo di turno

La tua 970 è ottima per giocare in full hd dettagli ultra e la tassellazione x64, anche se per potenza bruta una 780 ti sta mediamente poco sopra nei giochi senza la tassellazione x64, con questo trucchetto la 970 gli starà sempre sopra.

Poi sulla qualità di certi effetti se ne può parlare per ore, ma la realtà è che forzare una tassellazione troppo alta non è mai un bene per il frame rate, nemmeno sulle gpu più recenti.

marco

non sapevo, ora mi informo. io con una gtx 970 su the witcher non riesco a giocare a 60 stabili con tutto max tranne hairworks che a parte la pesantezza non mi piace proprio sul quel gioco (tra l'altro a parte icapelli orribili di geralt non mi sembra faccia tutta questa differenza). Con i nuovi drivers usciti per assassin's creed ho notato un peggioramento su the withcer 3 , cali di frame rate di circa 5 fps in media e maggiori dove c'è molta vegetazione. Parlano così bene dei drivers nvidia ma secondo me alla fine sono uguali agli altri e cag@te ne fanno spesso.

Il nabbo di turno

Fosse solo bo3 ad avere questa variazione, ma anche su tw3 e project cars si hanno gli stessi risultati.
Questo perchè nvidia ha forzato la tassellazione x64 anche sulle kepler, che non reggono bene questo livello di tassellazione come maxwell, solo che a differenza di amd che riporta la tassellazione a x16 via driver, nvidia non lo fa, questo modo fanno sembrare kepler più vecchia di quanto non sia.

marco

Hai scelto come Benchmark un solo gioco tra l'altro quello programmato peggio. Per una visione più ampia direi di cintrollare una suite di test e non fermarti ad uno solo

Topax

SI dice Q2, però non si sa ancora... Speriamo non ci siano problemi a livello di processo produttivo, ormai i 14/16nm dovrebbero essere rodati!

Il nabbo di turno

Assolutamente no, basta vedere i benchmark di black ops 3 su guru3d, una 770 sta sotto anche alla 950, ben più scarsa per potenza bruta, e una 780 ti è ben al di sotto di una 970.

marco

Io la prenderei ora pensando al presente. In tutto questo tempo che fai? Aspetti?

marco

Non direi che vadano male. La 780 va più o meno come una 970 e la versione ti gli è sempre sopra. Di che ti lamenti?

Giuseppe030

Ma si sa già quando usciranno? In modo teorico dico non in senso preciso, tipo Q2, Q3 o Q4?

Manuel Bianchi

Sisi, la mia questione è se prendere la 970 ora per giocare più che bene in fullhd sapendo che nel giro di poco (un anno, 18 mesi al massimo) dovrò upgradere per passare al 4k

Giorgio

Io ho la 970 g1 gaming ma per il 4k è sconsigliatissima se non vuoi rinunciare alla qualità dei giochi

SoUlSnAkE

parlando di nvidia è risaputo che all'uscita della nuova serie la vecchia viene praticamente abbandonata, basta vedere le prestazioni odierne della 780/780ti

Enrico Grigolini

Anche, diciamo ke nn è una scheda da 1000€ in su

Matteo Cazzoli

Si... Infatti è risaputo che quando esce la generazione nuova quella vecchia smette di funzionare.... Per questo è meglio prenderle in abbonamento dato che con un canone fisso te la cambiano ad ogni generazione

Gaspare Monte

Quindi le 970-980 si possono già buttare ?

Il nabbo di turno

Gemini x2 per quest'anno ha vinto, spetta alla dual gpu che la sostituirà vincere la futura battaglia.

NaXter24R

E' lei, lo si capisce dalla quantità di memoria

NaXter24R

No. All'atto pratico, pure una 8800GT supporta le DX12, ma chiaramente per ovvi motivi non possono farlo (e perderesti tutto quello che hanno portato le DX11). Semplicemente le DX12 come tutte le DX hanno vari livelli, DX12, DX12_1, ecc ecc, dovrebbero riferisti a quello.
Ma in ogni caso, da Kepler in poi sono completamente compatibili tutte (Fermi ad essere sinceri, ma su queste non ci metterei la mano sul fuoco per il futuro per il discorso di prima).

Le DX12 sono API a basso livello, e sarebbe un controsenso se non andassero su ogni scheda, ma loro rilasciando i driver, possono controllare la cosa e "costringerti" ad aggiornare la tua scheda video

Manuel Bianchi

Ma quando arriverranno sul mercato? Q3 2016? Vorrei prendermi una 970 (comunque non prima dell'anno prossimo) e sono indeciso se aspettare e prendere pure un monitor 4k

mat

Penso si intenda che l'architettura è stata progettata con le DX12 in mente, altrimenti non ha senso.

Giovanni Vaccaro

Che significa supporto "nativo" alle DX12? Chi ha preso una 980ti non ha il supporto alle dx12 o solo a metà????

Alessandro La Selva

dici? secondo me si tratta della nuova titan, ne sono quasi convinto al 100%

Discuiss

Ottimo le hbm1 erano troppo limitate per via dei 4 gb massimi che sono pochi per le alte risoluzioni. Con queste il Gaming 4k é una realtà

Enrico Grigolini

Ovviamente è una mia idea, nn prenderla come oro colato... ma dato il probabile costo delle nuove memorie... una scheda da 5-600€ nn ne avrà molte :)

NaXter24R

Sarà sicuramente una Titan "scegli una lettera" e conseguente xx80ti con 8gb, è la soluzione più logica. Anche volendo, 16gb non li muovi nemmeno con le cannonate in real time

NaXter24R

Concordo, sarà una qualche Titan

Recensione Asus ROG Swift OLED PG49WCD: che immersività!

Abbiamo rifatto la nostra workstation, ora è tutta ASUS ProArt!

Recensione AMD Radeon RX 7600 XT: mainstream ma con 16 GB di memoria

Acer Predator, nuovi laptop in arrivo. C'è anche un monopattino! |VIDEO