Nvidia: niente schede GeForce con GPU Volta per il 2017

16 Agosto 2017 102

Il recente lancio delle Radeon RX Vega ha confermato le aspettative dei fan AMD e in generale degli addetti ai lavori, riportando ulteriore concorrenza nel segmento delle schede grafiche consumer.

Secondo molti analisti di settore, l'arrivo delle schede Vega è stato troppo posticipato da AMD (per diversi motivi), permettendo a Nvidia di conquistare molte quote di mercato con proposte che comunque rimangono ancora top di gamma nella fascia alta ed enthusiast (vedi GeForce GTX 1080 e GTX 1080 Ti).

Per questo motivo Nvidia non avrebbe nessuna intenzione di presentare schede grafiche GeForce con architettura Volta per questo 2017. A confermare le intenzioni dell'azienda è proprio il CEO Jensen Huang durante una recente call-conference, il tutto con affermazioni che non lasciano spazio a interpretazioni:

“For the foreseeable future, I think Pascal is just unbeatable

Nvidia aveva annunciato la prima soluzione professionale con GPU Volta già a Maggio, una mossa che aveva fatto ben sperare per l'arrivo delle varianti consumer.

Ora invece, gli ultimi risultati finanziari fatti registrare da Nvidia, i numeri legati alle vendite delle GeForce serie 10, nonchè le prestazioni delle stesse rapportate alle ultime Radeon RX Vega, mettono un punto definitivo sulla questione e rimandano tutto al 2018.

AMD ovviamente non starà a guardare e si prepara già con la prossima architettura Navi che sarà prodotta a 7nm, la sfida sarà molto interessante e si giocherà molto sulle prestazioni ma soprattutto sull'efficienza energetica.

Il vero top gamma Nokia? Nokia 8 è in offerta oggi su a 284 euro oppure da Media World a 399 euro.

102

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Vittorio Bizzarro

Nvidia tutta la vita

Ale

Perché prendere la 980ti come riferimento se si stava facendo un paragone tra pascal reference e pascal custom e varie ipotesi su Vega reference Vs Vega custom? Non ha alcun senso in questo contesto, si parla di Pascal e Vega e tiri fuori maxwell.. per dire cosa? Che pascal si overclocka meno di maxwell? Lo sanno anche i muri.. Pascal si ferma a 2100/2200mhz al massimo, dipende dalla scheda. bene una volta assodato questo cosa ne guadagna l'argomento della discussione? Che ribadisco, era il 15% di guadagno tra pascal reference e custom overclockata e ipotesi su quanto le custom Vega potranno andare in più rispetto alle reference e a tal proposito secondo mè non credo che vadano tanto più su di frequenza dato che son già belle tirate (e i consumi lo dimostrano) lo sweetspot ossia il giusto equilibrio tra consumi, frequenze e prestazioni sarebbe il BIOS "Power saver" quella sarebbe la vera frequenza con cui sarebbe dovuta uscire Vega. Infatti ti lima via 100w e forse più dal consumo e a seconda degli scenari come prestazioni perdi il 5% o poco più. dunque se già sono col collo tirato di fabbrica dubito che le custom Salgano oltre.. che poi si, il blower come dissipatore fa schifo e si sa, anche il blower figo (figo perché costoso e esteticamente bello, non perché sia magico eh) di nvidia fa comunque schifo, su questo sfondi una porta spalancata sono il primo a odiare i blower anche più di quanto odio gli aio

Il nabbo di turno

"Infatti non so perché hai tirato in ballo le 980ti." semplice, si prende sempre quella in ballo per verificare quanto guadagnano le gtx da reference a custom, in verità quel guadagno lo ha soltanto perchè il blower delle gtx è decente soltanto per gpu sotto i 200w di tdp, quindi per un chip del genere, serve qualcosa in più per tenere frequenze sotto i 90 °c.

Ale

Infatti non so perché hai tirato in ballo le 980ti.. il discorso era quanto effettivamente guadagnano le custom rispetto alle Fouders.. per vedere se le Vega custom potranno pareggiare le pascal custom, tra frequenze leggermente più alte e quella percentuale di performance in più che guadagneranno in 1 anno

Il nabbo di turno

Puoi anche partire da 2000 mhz, ma se ti mura a 2100 è un guadagno del 5%, non è lo stesso guadagno che avevano le 980 ti passando da reference a custom spinte(1200->1500 +25%, da 1820 che di media lavora la fe a 2100 è un +15%).
https ://www .techpowerup .com/reviews/MSI/GTX_1070_Gaming_X/24.html
Una buona 1070 custom non guadagna più di 4-5% rispetto alla 1070 fe, la 980 ti era ben altra roba come guadagno di performance da reference a custom.

Ale

Esattamente, ma le custom con oc di fabbrica hanno anche 2000mhz (la mia amp extreme ad esempio) quindi tra la mia 1070 e una reference c'è una bella differenza, non il 50% ma un 10% tutto, forse anche qualcosa in più.. stiamo parlando comunque di 200mhz di OC circa..

Il nabbo di turno

https ://www .techpowerup .com/reviews/NVIDIA/GeForce_GTX_1080/31.html
Di media è a 1797, e di picco è a quasi 1900 mhz, mica poco, visto che il boost varia anche in base alle temperature.
https :// www .techpowerup .com/reviews/NVIDIA/GeForce_GTX_1070/28.html
Qua di media è oltre il 1800 mhz, direi che sta scheda è abbastanza spinta già da reference.

Ale

In realtà le frequenze delle FE son molto più basse di molte custom, esempio pratico le 1070 Fe stanno sui 1750mhz, alcune sfiorano i 1800, ovviamente senza overclock.. la 1070 amp extreme esce di fabbrica con 2ghz di frequenza (e poi la puoi spingere un po oltre con afterburner) o la g1 gaming esce di fabbrica con 1950mhz (anche questa overclockabile ulteriormente) e si, tra le FE e le custom il 10% ci balla, a seconda del modello di custom il guadagno con OC di fabbrica sta poco sotto il 10% o poco sopra.

Ale

I consumi si traducono in calore, il calore in dimensione dei dissipatori, la vedo molto dura l'uscita di una Vega 64 mini ad esempio è chi usa case piccoli compra nvidia dunque, o i portatili.. la i consumi si traducono in durata della batteria. Nvidia usa lo stesso chip per le gpu desktop e per quelle dei portatili con frequenze differenti (un risparmio notevole.rispetto al produrre 2 chip diversi) il chip della Vega 64 potrà mai essere usato su un portatile con consumi paragonabili? Credo proprio di no, a meno che non taglino le.frequenze talmente tanto da far perdere la metà delle prestazioni.

Ale

C'è anche la g1 gaming a 580€

Riguardo alle review dipende da quale Vega, la 64 a liquido si, quella ad aria in alcuni giochi e inferiore, in alcuni litri superiore come sempre.. e hanno detto anche che le schede costeranno 100$ in più, tutte, sia le 56 che le 64, questi erano prezzi promozionali per il primo stock.

Quindi preparati a sganciare 700 euro almeno (se ora si trova a 650) per avere le stesse prestazioni (dipende dal gioco, a volte superiore di poco a volte inferiore di poco) di una scheda video che costa 580-610€ che scalda di più e che con questo aumento di 100$ sul listino ha ufficialmente annullato l'unico vantaggio che avrebbe potuto avere, il prezzo.

Ale

Ad ogni modo vedendo i magazzini svuotati sempre e comunque hanno venduto e continuano a vendere ogni scheda che esce di fabbrica, che il prezzo di listino sia lo stesso o no non lo si può sapere, i produttori di memorie ad esempio alzano e abbassano il listino a ca**o loro quindi la possibilità esiste, così come non sapiano quanto sia effettivamente il guadagno di AMD sulle schede dunque potrebbe non essere risicato. Attenendosi solo a ciò che sappiamo per certo sappiamo che hanno venduto tutto essere stanno continuando a vendere tutto, e continueranno a vendere tutto. Dunque il loro introito (qualunque sia il guadagno per scheda) è aumentato non poco, dunque mi aspetto un navi competitivo ora che i soldi li hanno fatti e li stanno continuando a fare

The Jackal™

Però sai com'è, quest anno AMD ha recuperato in ambito cpu, magari l'anno prossimo recupera in campo gpu.
Sempre meglio tutelarsi, presentare nuove gpu abbastanza più potenti di pascal adesso vorrebbe dire avere il 100% del mercato di fascia alta, visto che vega compete solo con pascal senza superarla

The Jackal™

Per me potrebbero presentare novità ogni 5 anni, non sono il tipo che vuole l'ultima stregoneria uscita in commercio. Però visto che le schede video costano molto care, se devo spendere fior di quattrini preferisco farlo per roba di ultima generazione, 400€ adesso per una 1070 non ce li butterei mai e poi mai, però dovesse uscire una ipotetica 1170 con prestazioni simili a una 1080ti (come fu per 1070 e 980ti) a 500€ e magari dopo un mese la si trova a 450€ o meno il discorso cambia.

Poi la svalutazione dell'usato per me, che acquisto roba usata e tendo a sfruttarla fino alla morte, è una manna dal cielo. Non appena escono le nuove schede le vecchie si svalutano un sacco, specialmente quelle di fascia alta (tipo fury x o 980ti scese fino a 250€ nel mercato dell'usato, e ti portavi a casa una scheda pari o superiore a una 1070).

EnricoG

Mi riferivo al video che ho linkato non all'articolo di hdblog ;)

Comunque per ritornare in tema, per come la vedo io, siamo alla follia con il desiderio di avere nuove generazioni di CPU e GPU ogni anno.

The Jackal™

Ryzen non sembrava merd@, aveva problemi di bios dovuti alle case produttrici di MB.
Per vega rimane la speranza dei driver anche se non sono fiduciosissimo.
Ho atteso tanto queste vega molto speranzoso, spero che amd si dia una bella mossa

The Jackal™

Notizia direi triste per tutti. Con le nuove nvidia sarebbero dovuti calare i prezzi delle pascal e di conseguenza anche quelli delle vega e delle 470/480 e via dicendo, per restare in concorrenza.
Chi vuole la roba all'ultimo grido sborsa i soldoni e chi vuole giocare senza avercelo più duro degli altri si prende qualcosa di passata generazione senza spendere lo stipendio intero.

In questa notizia ci vedo solo contro.
Amd attualmente con vega non ha tirato fuori quello che ci si attendeva, anche se si spera in driver in grado di ottimizzare le prestazioni. Nvidia ha colto la palla al balzo per smerciare ancora gpu pascal che vendono molto bene

The Jackal™

"la sfida sarà molto interessante e si giocherà molto sulle prestazioni ma soprattutto sull'efficienza energetica." l'efficienza energetica conta soprattutto nella fascia bassa e medio-bassa, dove magari l'utenza ha alimentatori da 350w o meno (oppure alimentatori cinesi da 5-600w fasulli) e i consumi giocano un ruolo fondamentale.
Già dalla fascia media in su l'utenza è attenta alle prestazioni più che ai consumi.

Alessandro Lamesta

La 1080 custom parte ora come ora da 604€ a salire in versione 8 GB (ZOTAC GeForce GTX 1080 8GB AMP! Extreme Edition ) , per le recensioni li ho viste in larga parte, e tranne in due o tre giochi la vega 64 è di poco superiore e stiamo parlando di vega versione stock. Dobbiamo ricordare che ancora le vega stanno operando con alcune opzioni disabilitate per questione driver non idoneo... comunque ho letto sia tecpowerup, guru3d, anandtech e tante altre e tutti hanno il medesimo verdetto mediamente tranne in poche eccezzioni la vega 64 è superiore o pareggia con la 1080.

Marco Meletti

Io capisco che amd voglia unificare l'offerta per avere meno differenziazione di produzione. Ryzen ne è l'esempio perfettamente riuscito, tutti i ryzen sono effettivamente lo stesso chip con qualcosa di disabilitato, e threadripper ricicla due ryzen non funzionanti e due ryzen perfettamente sbloccati.

Qui semplicemente non funziona, perché a differenza di Intel, Nvidia è un concorrente decisamente più serio.
Le geforce di pari fascia hanno più o meno sempre prestazioni simili (non sono 5 fps in più o in meno a cambiare l'esperienza di gioco) e consumano nettamente meno. Il tutto al netto delle nuove, veloci ed efficienti HBM2, figurati se usassero ancora le gddr5/5x

Il nabbo di turno

" sopratutto in 1080p" Dai ma chi si comprava la 980 ti per giocare in full hd xD.
"ad una Msi 1070, che non scalda e consuma una mazza" ma se su guru3d consuma 186w in gaming, ma seriamente prendete per vero il tdp che vi dice nvidia?XD

Il nabbo di turno

Come se le 1070/1080 custom vadano il 10% in più della fe, guarda che la fe di per se è bella pompata su gp106 e gp104, meno su gp102 perchè il dissipatore non ne ha per tenerla ad alte frequenze con temp sotto gli 85 °c.
Non è perchè la 980 ti guadagnava il 10% delle performance da reference a custom allora tutte le gtx guadagnano la stessa percentuale xD.

Volte è un'arch computazionale, a differenza di questa, non ti aspettare lo stesso rapporto performance/consumi di pascal in dx 11.

Il nabbo di turno

Si ma il prezzo di listino di amd non è cambiato, il guadagno(veramente risicato) su ogni scheda è rimasto sempre quello, cambia magari che se prima ne vendevano tot al mese ora ne vendono il triplo, ma di certo non è che amd se prima di listino la vendeva ai parthner a 199 dollari ora la vende a 299 dollari.

DerFlacco

Che sia oc out of the box o no, la 980ti era un mostro, e la fury la distruggeva (per giunta allo stesso prezzo) sopratutto in 1080p, dove la fury dava performance ridicole
. La 56 va più di una 1070 founders, non di una 1070 custom. Se vuole vendere amd deve calare il prezzo (stile Ryzen) , altrimenti non vedo perchè preferire una scheda che consuma un fottio e va poco più di una founders, ad una Msi 1070, che non scalda e consuma una mazza. Lasciamo perdere il profilo powersave, ti castra la scheda perdendo un 5% di performance.
Vega è un fail. Come il 90% della linea Amd dopo Hawaii.

DerFlacco

Se addirittura... una 1080ti non la vede ancora manco col binocolo. Il 10% che prende è quello che gli manca per pareggiare le 1070\1080 custom, consumando sempre di più. Non siamo di parte pls. Inoltre, probabilmente lo prenderà in un annetto, quando staremo parlando di Volta e Navi, e molto probabilmente le performance delle 1070 si avranno con scheducce da 100-130w (se Nvidia mantiene il trend).

Ale

I rivenditori ne comprano di più, AMD ne vende di più, AMD guadagna di più. Non specula aumentando il prezzo di vendita (quelli sono appunto i venditori) ma comunque se prima vendeva 10 gpu e ora ne vende 30 direi che la scusa dei soldi può andare a quel paese ormai..

Il nabbo di turno

Eh volevi, con il mining ci guadagnano i rivenditori mica amd che le produce.

Il nabbo di turno

Mica poco 10% di miglioramento, significa che la vega 56 da contro la 1070 passa alla 1080, e la 64 si avvicina di molto alla 1080 ti.

Il nabbo di turno

Che la 980 ti guadagni molto da custom è vero, ma è anche merito di un gpu boost molto aggressivo, che si mangia molte delle potenzialità in oc(la scheda qui lavora a quasi 1400 mhz, contro i 1200 mhz da reference), è un overclock out of the box bello e buono.

350 euro è da folle solo pretenderlo, la 56 è una scheda che già a stock ne ha di più della 1070 già ad oggi, pensa tra qualche mese, quella è una scheda che vale almeno 450 euro, visto che sotto i 400 euro di 1070 buone non ce ne sono, quindi i 350 euro è praticamente regalata.

Ale

Purtroppo penso tu abbia ragione.. eccetto per il mining, non so se mai arriverà questo aggiornamento per far volare Vega e le hbm2

Ale

Beh la Vega 64 se vuoi comprarla è a 650€ su eprice, quanto costa una 1080?(e non guardare i modelli ultra costosi apposta, ti conosco) E comunque non sono per niente superiori, le hai viste le review? Se si quali? Quelle dove mostrano solo il picco degli fps nei giochi ma si "dimenticano" di dire i minimi e/o la media? Facile definirle superiori

EnricoG

Notizia tristissima per tutti i fanb0y e bimb1mink1a:
youtube. com/watch?v=GBkGu4Wd7vg

LOL!

DerFlacco

Io giudico le schede che hanno presentato, sulla base delle review che ho visto, e del prezzo di lancio. Sebbene probabilmente con i 7nm Vega potrà esprimersi al meglio, ora come ora è una tappa buchi.
Magari verrò smentito da futuri aggiornamenti, features abilitate o cose del genere. Mi aspetto non più di un 10% di miglioramento sinceramente.

DerFlacco

Riguardo alle Fury/x di solito i test li fanno con le Nvidia Founders. Sai benissimo quanto può salire una 980ti, è come sono cloccate di solito le custom. La Fury normale sta ben sotto ad una 980ti stock, si avvicina solo con giochi ottimizzati in vulkan/dx12.
Il problema stesso lo hanno le Vega. Chi è il folle e acquista ancora una Founders, quando ci sono 1080 custom che non vanno in thermal trottlong e raggiungono clock molto più elevati (staccando la 56)?
Non c è storia, lo dico con rammarico. Vega doveva essere molto più di questo.
Se posizionano la 56 ad un prezzo MOLTO competitivo, allora venderanno bene (performances di una 1070 a 350€ max).
Sinceramente dovessi spendere la stessa somma, prenderei una 1070 custom.
Poi ognuno fa quello che vuole.
Ho avuto molte Ati/Amd ,e non me ne sono mai pentito (la prima è stata una Radeon VE DDR). Vorrei tornasse ai tempi della radeon 9800 Atlantis Pro.

Alessandro Lamesta

Ma insomma il ragionamento di nvidia non è che sia tanto giusto, perchè se vuoi prestazioni pure assolute sei costretto a spendere 800 e più euro per la 1080ti, vega 56 e 64 sono superiori alle 1070 e 1080 e per concludere la 480/580 sono meglio della 1060. Quindi chi sarebbe il folle che comprerebbe la 1080 ti "800€"? Non tutti hanno da buttare 800 euro, per tutto il resto non mi spiace ma amd vince a mani basse.

CyberJabba

Rendici partecipi!

EnricoG

Quindi siamo d'accordo che Vega non rappresenta una "minaccia" per nVidia che quindi non ha motivo di abbassare i prezzi o affrettarsi a presentare nuovi modelli.
Aggiungi poi che gia' oggi le Vega costano $100 di piu' di ieri e per altro non sono disponibili, quindi per quando saranno disponibili il software di crypto-mining verra' aggiornato e considerando che in modalita' power safe le Vega consumano molto di meno perdendo molto poco in prestazioni, diventeranno appetibili per i miners e quindi inarrivabili per i gamers.
Insomma meglio di cosi' non poteva andare per nVidia.

Ale

Nulla, infatti mi riferivo alle Vega, l'unico punto a favore è che il monitor freesync costa meno (ma devo essermi espresso male) per il resto i prezzi sembrerebbero essere allineati e le performance quando i driver AMD saranno migliorati saranno altrettanto allineate. Dunque prezzo uguale, prestazione arriVerano a pari ma consumi (e temperature) infernali, chi ha un full tower ok, non so per quale motivo dovrebbe prendersi un prodotto che scalda inutilmente di più ma volendo può farlo, chi invece ha ha un case dove dissipatori tripla ventola non ci stanno di certo non prende una vega

Ale

Beh tanto pascal sembra bastare e avanzare, e navi chissà quando arriva visto che ancora ad oggi non esistono Vega sul mercato.

Il nabbo di turno

Mah insomma, anche chi si è preso una fury rispetto alla 980 ha fatto un buon affare, la fury ad oggi di media è molto più vicina ad una 980 ti che ad una 980 liscia, e la x è appaiata con le 980 ti/titan x oltre il full hd, dove dovrebbero essere testate queste schede.
Nvidia consuma si meno dai tempi di kepler, ma neanche lo scandalo che leggo ad oggi, visto che una vega 64 al d1 power saving(230w), è poco sotto una scheda che ne consuma 180w(1080 fe boost massimo), e la 56 fa ancora meglio della 64.
Che poi sia una scheda costosa da realizzare e da vendere lo è(è 480 mm^2 di die, come la 1080 ti), però tra qualche mese potrebbe dire la sua la 64, mentre la 56 se sotto i 500 euro è un bb per giocare a 1440p maxato.

EnricoG

Cosa c'entra freesync con le GTX?

Ale

Ok però questo è l'ultimo anno che AMD può usare la scusa del budget, con tutte le rx vendute grazie al mining navi deve surclassare volta in tutto, e non deve avere 1 altro anno e mezzo di ritardo.. altrimenti forse non erano solo i soldi il problema di AMD.

Ale

Per dare un motivo ai gamer di comprarle.. perché ad oggi io non me vedo mezzo se non il fatto che il monitor freesync costa meno (dunque il motivo è il monitor e non la scheda)

Gabriel #JeSuisPatatoso

20 euro in più al mese in bolletta? Una lampadina lasciata accesa consuma praticamente uguali e non ti fa aumentare la bolletta di 20 euro. Magari in un anno si.

Lucagildo

Cosa

Lucagildo

Chi gle lo farebbe fare? È 2 gen avanti, può dormire sonni tranquilli

comatrix

Ripeto, vieni a casa mia a guardare le bollette, la matematica non è un'opinione

deepdark

Ecco, appunto, tutto il pc, non solo la vga. Qui in ogni caso si parlava di differenza tra una vga con la vega e una 1080. Nessuno nega che ci sia un consumo con entrambe, ma parlare di 20 euro di differenza tra le due è totalmente sbagliato.

Enrico Grigolini

l ipc è praticamente simile a furi x per 2 motivi:
1) sono stati usati molti transistor per allungare le pipline per far girare il chip ad elevate frequenze, e probabilmeente, a giudicare dall andamento lineare tra frequenza e consumi, hanno pensato anche ai 7nm di navi
2) hanno implementato feature (in particolare i fp16) che i giochi attuali non sfruttano. ( girano voci oltre tutto che alcune parti di chip siano disabilitate via drivers, ma non so quanto siano vere)
Oltre tuttto nvidia si puo permettere di creare chip di fascia alta dedicati al gaming (gp102), amd purtroppo no, e i consumi maggiori sono dovuti anche a questo, ovvero alla presenza delle fp64.
come dicevo vega 64 ha sicuramente uno svantaggio nei confronti di 1080ti, e forse anche 1080, ma sull architettura aspetterei a giudicare.

Enrico Grigolini

s techpowerup perde dal 5 al 7 % a seconda della risoluzione..come "scusante" vega dovrfebbe avere il pieno supporto ai fp64, mentre il gp102-104di nvidia no. Purtroppo amd non ha la forza di produrre chip per ogni destinazione e deve scendere a compromessi.
Per quanto riguarda l architettura anche qua sono state investiti gran parte dei transistor per aumentare la lunghezza delle pipline, e a giudicare da come scalano consumi e frequenza direi che l hanno fatto in ottica 7 nm, quindi con l obbiettivo di raggiungere circa i 2 Ghz.
Per il resto sono state implementate feature (fp16) che al momemento non sono sfruttate, in futuro vedremo.
di sicuro l implementazione d i vega in vega 64 non è riuscita al meglio, ma sull architettura io ci andrei cauto.

DerFlacco

Ne ho bloccato uno un paio d ore fa. I paraocchi rossi (o verdi\blu) con questo caldo fanno male.

Vaio S11 e S13 sono leggerissimi, potenti e ricchi di porte | Anteprima Computex

ASUS Project Precog: il notebook a doppio schermo del futuro | Anteprima

HDblog @ Computex 2018: live blog continuo dalla fiera

Recensione Logitech G560, speaker 2.1 con LED RGB