15 Dicembre 2015
Durante la versione Giapponese del GTC (GPU Technology Conference), Nvidia ha confermato che la scheda video di punta basata sulla prossima GPU Pascal (GP100) monterà effettivamente 16 GigaByte di Memoria HBM2 (High Bandwidth Memory di seconda generazione).
Al momento vengono smentite le voci che volevano un modello da 32 Gigabyte, al momento non realizzabile con l'attuale tencologia, o comunque non efficiente per produrre una scheda grafica.
Ricordiamo che le HBM2 permettono di avere una larghezza di banda di ben 1 TeraByte/s, mentre sul versante GPU, le prossime GeForce potranno contare sul processo produttivo FinFET a 16 nanometri, per un chip DirectX 12 "nativo" con ben 17 Miliardi di Transistor.
Nvidia non è andata oltre, a parte dichiarare che la scheda top di gamma potrebbe anche superare praticamente i 2 TB/s. Rimaniamo attesa di ulteriori info, aspettiamo in particolare qualche test preliminare di Pascal e allo stesso tempo della controparte AMD.
Commenti
non penso ci siano offerte del genere, però su ebay spesso si trovano buone offerte su schede delle passate generazioni
Ciao underteo , è possibile prendere schede video in abbonamento?
Se si , come si fa?
vanno solo a salti generali di questo tipo: 4-8-16. I 12 della Titan sono eccezioni, come anche i 6, ma i movimenti base sono quelli. I 16 sarà però la top di gamma, poi 8 e 4 a seguire per le fasce basse.
vabbè cosa centra? se stiamo a vedere quello allora la potenza non basterebbe mai...
Infatti per qullo chiedevo inzialmente quando sarebbeero uscite le nuove 10xx (o come si chiameeranno) :D
Se esce qualcosa posso aspettare senza troppi problemi anche fino al q3 2016.
Non ha senso acquistare una GTX970 in questo momento (tanto meno a Marzo quando saranno già state presentate le nuove GPU) in quanto il prezzo è rimasto invariato da Settembre 2014 ad oggi (da 300 a 350 euro in base al modello) e tra pochi mesi allo stesso prezzo porterai a casa una GTX1070 che, stando alle dichiarazioni di nVidia e a tutta una serie di considerazioni tecniche direttamente legate all'aumento di IPC e al nuovo PP a 16nm, offriranno il doppio delle prestazioni a parità di consumi. Allora si che potrai pensare al 4K e il tuo investimento avrà un senso.
Considera anche che esiste la possibilità che la fascia bassa (GTX 1050) venga presentata prima (Febbraio?) alla stregua di quanto fatto l'anno scorso con la GTX750Ti per testare la risposta del mercato e anche in questo caso avremo una scheda con prestazioni doppie rispetto a quella attuale e quindi paragonabili ad una GTX980.
scusate..io non ho ancora capito una cosa...come prezzo come siamo messi?...
voglio dire, saranno solo fascia alta(sopra le 250/300€) oppure faranno una fascia "entry level" o almeno "media" sulle 200€?
Per quanto riguarda le amd invece(greenland) anche li...coi prezzi come saremo messi?
No infatti, tira avanti se puoi!
tanto su pc ottimizzano da cani quindi a breve il nuovo batman o il nuovo assassin creed lo avranno tra i requisiti consigliati
Io spero il più presto possibile perché inizio a lavorare fra qualche mese e avevo intenzione di assemblarmi un pc con una 970/ R9 390, ma ho letto che le presenteranno ad aprile da qualche parte..spero che dopo l'annuncio siano subito in commercio e che non costino troppo perché da come dicono gli altri nVidia lascia sempre parecchio indietro la serie precedente e prendere una 970 a marzo/aprile forse non è una mossa saggia
Bhe diciamo che ci penserò a marzo/aprile e li pondererò. E' che la 970 costa ancora un botto
Test sullo sfruttamento della memoria hanno dimostrato 4gb HBM equivalgono 6gb DDR5.
Le attuali Maxwell hanno prestazioni in DX12 inferiori alle Radeon, perchè supportano il calcolo asincrono in modo meno efficiente. Nella demo di AoS una r9 290x va come una gtx 980ti (anche nel Futuremark 3dMarkDX12). Quindi probabilmente Nvidia è riuscita a implementare efficacemente il supporto alle DX12, anche se io aspetterei di vedere i benchmark. Va da sè che le Maxwell, una volta uscite le Pascal, saranno da "buttare", primo perchè vanno di meno in DX12 delle Amd, secondo perchè Nvidia non ottimizzerà bene i driver come è già successo per le Kepler.
Già 1000€ per una scheda video sono tantissimi, di più dubito riescano a pompare nel settore enthusiast! Poi dipende sempre da AMD: se ci saranno due schede che in Crossfire arriveranno alle stesse prestazioni a metà prezzo dubito nVidia si spingerà troppo in là! Staremo a vedere!
Guarda, io ho la gtx 770, non ci vado a spataccare molto perchè le impostazioni dei dettagli nei giochi le metto nel menù di gioco, ma alcuni filtri non gli ho mai visti impattare positivamente come qualità grafica, a parte il physx.
GeForce experience non lo installo mai perché lo trovo una purga, il pannello di controllo nvidia è abbastanza scarno. Tra l'altro alcune voci rimangono avvolte nel mistero.un esempio "antialias correzione gamma". Che significa? Quali vantaggi e impatto ha sulle prestazioni?
Con le amd lo si può fare via driver, i catalyst permettono di impostare nel loro menù di impostare la tassellazione a piacere.
Mentre il gefforce experience e il pannello di controllo nvidia non hanno questa caratteristica.
Non c'è un modo per ovviare al problema?
non mi capacito tutta quella potenza e poi usa solo 4gb mah
mille? sei ottimista per una succhia soldi come nvidia che presenterà una tecnologia "nuova"
"...32 Gigabyte, al momento non realizzabile con l'attuale tencologia..." poi vedrai che dopo poco tempo faranno una titan dual gpu o una quadro con 32gb lol
il problema non è il gioco preso in esame ma dal fatto che nvidia non fa nulla per adattare via driver il lavoro richiesto per giochi e programmi sulle vecchie serie.
di proposito penalizzano le prestazioni delle precedenti serie per esaltare la nuova.
da 16gb sarà solamente la prossima titan, presumibilmente l'erede della 980 ti ne avrà invece 8
cioè passano da 4GB a 16GB in una botta sola?
La tua 970 è ottima per giocare in full hd dettagli ultra e la tassellazione x64, anche se per potenza bruta una 780 ti sta mediamente poco sopra nei giochi senza la tassellazione x64, con questo trucchetto la 970 gli starà sempre sopra.
Poi sulla qualità di certi effetti se ne può parlare per ore, ma la realtà è che forzare una tassellazione troppo alta non è mai un bene per il frame rate, nemmeno sulle gpu più recenti.
non sapevo, ora mi informo. io con una gtx 970 su the witcher non riesco a giocare a 60 stabili con tutto max tranne hairworks che a parte la pesantezza non mi piace proprio sul quel gioco (tra l'altro a parte icapelli orribili di geralt non mi sembra faccia tutta questa differenza). Con i nuovi drivers usciti per assassin's creed ho notato un peggioramento su the withcer 3 , cali di frame rate di circa 5 fps in media e maggiori dove c'è molta vegetazione. Parlano così bene dei drivers nvidia ma secondo me alla fine sono uguali agli altri e cag@te ne fanno spesso.
Fosse solo bo3 ad avere questa variazione, ma anche su tw3 e project cars si hanno gli stessi risultati.
Questo perchè nvidia ha forzato la tassellazione x64 anche sulle kepler, che non reggono bene questo livello di tassellazione come maxwell, solo che a differenza di amd che riporta la tassellazione a x16 via driver, nvidia non lo fa, questo modo fanno sembrare kepler più vecchia di quanto non sia.
Hai scelto come Benchmark un solo gioco tra l'altro quello programmato peggio. Per una visione più ampia direi di cintrollare una suite di test e non fermarti ad uno solo
SI dice Q2, però non si sa ancora... Speriamo non ci siano problemi a livello di processo produttivo, ormai i 14/16nm dovrebbero essere rodati!
Assolutamente no, basta vedere i benchmark di black ops 3 su guru3d, una 770 sta sotto anche alla 950, ben più scarsa per potenza bruta, e una 780 ti è ben al di sotto di una 970.
Io la prenderei ora pensando al presente. In tutto questo tempo che fai? Aspetti?
Non direi che vadano male. La 780 va più o meno come una 970 e la versione ti gli è sempre sopra. Di che ti lamenti?
Ma si sa già quando usciranno? In modo teorico dico non in senso preciso, tipo Q2, Q3 o Q4?
Sisi, la mia questione è se prendere la 970 ora per giocare più che bene in fullhd sapendo che nel giro di poco (un anno, 18 mesi al massimo) dovrò upgradere per passare al 4k
Io ho la 970 g1 gaming ma per il 4k è sconsigliatissima se non vuoi rinunciare alla qualità dei giochi
parlando di nvidia è risaputo che all'uscita della nuova serie la vecchia viene praticamente abbandonata, basta vedere le prestazioni odierne della 780/780ti
Anche, diciamo ke nn è una scheda da 1000€ in su
Si... Infatti è risaputo che quando esce la generazione nuova quella vecchia smette di funzionare.... Per questo è meglio prenderle in abbonamento dato che con un canone fisso te la cambiano ad ogni generazione
Quindi le 970-980 si possono già buttare ?
Gemini x2 per quest'anno ha vinto, spetta alla dual gpu che la sostituirà vincere la futura battaglia.
E' lei, lo si capisce dalla quantità di memoria
No. All'atto pratico, pure una 8800GT supporta le DX12, ma chiaramente per ovvi motivi non possono farlo (e perderesti tutto quello che hanno portato le DX11). Semplicemente le DX12 come tutte le DX hanno vari livelli, DX12, DX12_1, ecc ecc, dovrebbero riferisti a quello.
Ma in ogni caso, da Kepler in poi sono completamente compatibili tutte (Fermi ad essere sinceri, ma su queste non ci metterei la mano sul fuoco per il futuro per il discorso di prima).
Le DX12 sono API a basso livello, e sarebbe un controsenso se non andassero su ogni scheda, ma loro rilasciando i driver, possono controllare la cosa e "costringerti" ad aggiornare la tua scheda video
Ma quando arriverranno sul mercato? Q3 2016? Vorrei prendermi una 970 (comunque non prima dell'anno prossimo) e sono indeciso se aspettare e prendere pure un monitor 4k
Penso si intenda che l'architettura è stata progettata con le DX12 in mente, altrimenti non ha senso.
Che significa supporto "nativo" alle DX12? Chi ha preso una 980ti non ha il supporto alle dx12 o solo a metà????
dici? secondo me si tratta della nuova titan, ne sono quasi convinto al 100%
Ottimo le hbm1 erano troppo limitate per via dei 4 gb massimi che sono pochi per le alte risoluzioni. Con queste il Gaming 4k é una realtà
Ovviamente è una mia idea, nn prenderla come oro colato... ma dato il probabile costo delle nuove memorie... una scheda da 5-600€ nn ne avrà molte :)
Sarà sicuramente una Titan "scegli una lettera" e conseguente xx80ti con 8gb, è la soluzione più logica. Anche volendo, 16gb non li muovi nemmeno con le cannonate in real time
Concordo, sarà una qualche Titan