Quale GPU comprare? NVIDIA GeForce RTX 2060 vs 2070 vs 2080 vs 2080ti

13 Marzo 2019 336

Rimani aggiornato quotidianamente sui video, approfondimenti e recensioni di HDblog. Iscriviti ora al canale Youtube, basta un Click!

Chi ora si approccia ad acquistare una nuova scheda video Nvidia GeForce RTX per il proprio PC desktop si trova davanti a una vasta scelta di proposte. La decisione deve essere ben ponderata per non rischiare di comprare qualcosa che vada oltre le necessità o, al contrario, un prodotto che non sia sufficiente a soddisfare le nostre esigenze. Le domande che possiamo porci per indirizzare la decisione sono fondamentalmente due: a che giochi voglio giocare e qual è la risoluzione del monitor che ho a disposizione.

Per cercare di aiutarvi nella scelta abbiamo analizzato le prestazioni di una selezione di schede GeForce RTX, in particolare una per modello, e le abbiamo provate con alcuni giochi particolarmente in voga in questo periodo e altri magari meno diffusi ma più dispendiosi dal punto di vista delle risorse hardware. Ecco quindi come si sono comportate le nuove RTX 2080 Ti, RTX 2080, RTX 2070 (annunciate la scorsa estate) e RTX 2060.

IL PC E LE DIFFERENZE TRA GPU

Per evitare limitazioni dovute ad altri componenti del PC abbiamo utilizzato alcune delle migliori periferiche attualmente disponibili sul mercato. Non vogliamo spoilerare troppo perché più avanti vi mostreremo in un video quello che abbiamo messo all'interno del PC che useremo nei prossimi mesi per il montaggio video (e anche per giocare, rigorosamente in pausa :D). Per il momento ci limitiamo a dirvi che i 32GB di RAM della nostra configurazione bastano e avanzano per giocare in 4k e che il processore Intel Core utilizzato è uno dei più potenti sul mercato (leggasi il più potente).

Ovviamente per giocare in 4K avevamo anche bisogno di un monitor gaming che si spingesse a questa risoluzione e che supportasse un refresh rate molto elevato. Abbiamo quindi scelto per la nostra prova l'Asus PG27UQ. Una sigla che presa singolarmente potrebbe non dirvi molto, ma che fa riferimento a quello che potremmo considerare come il miglior monitor gaming sul mercato. Qui trovate quelle che sono le sue caratteristiche principali:

  • Pannello IPS da 27” con risoluzione 4k (3840x2160 pixel)
  • Refresh rate 144hz
  • NVIDIA G-Sync
  • HDR1000
  • Local Dimming a 384 zone

Tutto ciò che si può desiderare accompagnato anche da una buona dose di luci RGB, tamarre quanto basta e compatibili con Aura Sync. La tastiera, ovviamente meccanica, è una G-Skills e il mouse un Asus della serie TUF Gaming. Si tratta in particolare del modello M5, dotato di sensore ottico a 6200DPI e switch Omron, anch’esso dotato di luci RGB compatibili con Aura Sync. Non mancano tasti laterali programmabili e un interruttore centrale con indicatore DPI per regolare la sensibilità.

La scheda video è l’unica componente che è stata cambiata di prova in prova. Le schede testate sono le quattro che trovate qui sotto con un piccolo riassunto delle caratteristiche di ciascuna:

NVIDIA GEFORCE RTX 2080Ti (FOUNDERS EDITION)
  • Architettura GPU: Turing 4352 Cuda Core
  • Base Clock: 1350 MHz
  • Boost clock: 1635 MHz (OC)
  • Frame buffer: 11GB GDDR6
  • Velocità della memoria: 14 Gbps
NVIDIA GEFORCE RTX 2080 (ASUS ROG STRIX)
  • Architettura GPU: Turing 2944 Cuda Core
  • Base Clock: 1515 MHz
  • Boost clock: 1710 MHz (OC)
  • Frame buffer: 8GB GDDR6
  • Velocità della memoria: 14 Gbps
NVIDIA GEFORCE RTX 2070 (MSI ARMOR OG)
  • Architettura GPU: Turing 2304 Cuda Core
  • Base Clock: 1410 MHz
  • Boost clock: 1710 MHz (OC)
  • Frame buffer: 8GB GDDR6
  • Velocità della memoria: 14 Gbps
NVIDIA GEFORCE RTX 2060 (ASUS ROG STRIX)
  • Architettura GPU: Turing 1920 Cuda Core
  • Base Clock: 1365 MHz
  • Boost clock: 1680 MHz (OC)
  • Frame buffer: 6GB GDDR6
  • Velocità della memoria: 14 Gbps
I GIOCHI IN PROVA

Questo è invece l'elenco dei giochi che abbiamo utilizzato per la prova, come anticipato si tratta di un mix di titoli tra i più utilizzati e quelli che richiedono maggiori risorse:

  • Fortnite
  • Shadow Of Mordor
  • F1 2019
  • The Witcher 3
  • Battlefield V
  • Metro Exodus
  • Apex Legends

Giocare in 4K è visivamente più appagante, e su questo non ci piove, ci sono però alcune situazioni per cui giocare in Full HD con frame rate più elevato permette di avere un vantaggio competitivo da non trascurare. Per questo motivo abbiamo testato gli stessi giochi in 3 risoluzioni differenti: 1080p, 4K e una via di mezzo più utilizzata di quanto si possa immaginare, ovvero il 1440p. Tutti i test a tutte le risoluzioni sono stati effettuati con le impostazioni dei dettagli al massimo livello disponibile.

RISULTATI TEST 4K

Giocare in 4K è davvero bello, specialmente su questo monitor, ma purtroppo rimane ancora un’esperienza che per essere totalmente appagante richiede un hardware di fascia altissima. Se si vuole giocare in 4K con un frame rate costantemente superiore ai 60fps potete prendere in considerazione soltanto due alternative: 2080 e 2080Ti. Con alcuni dei titoli testati riusciamo ad avvicinarci alla soglia dei 60 fps anche con le schede meno potenti, ma soltanto con le due appena citate si riesce ad andare oltre questo margine in tutte le situazioni e avere quindi un'esperienza davvero appagante in ogni situazione.

Il 4K nativo a 144hz con dettagli ultra è un traguardo ancora molto lontano, almeno per quanto riguarda le schede testate in questo articolo. La 2080ti si conferma la scheda con le prestazioni migliori in ogni frangente e con uno dei titoli meno recenti - Shadow of Mordor - siamo riusciti anche ad ottenere una media di 100 fps con picchi a 120. Su The Witcher 3, non più recentissimo ma sempre molto dispendioso, la stessa scheda è l’unica ad averci permesso di ottenere una media superiore ai 60 fps.

RISULTATI 1080p

C’è chi preferisce il dettaglio grafico estremamente curato e pulito del 4K e chi ha più a cuore il frame rate altissimo. In FullHD tutte le schede permettono di giocare oltre i 120fps su quasi tutti i giochi provati. 2060 e 2070 sono ovviamente le schede meno performanti e anche quelle che non riescono a raggiungere i 120 fps in ogni titolo. In particolare con Metro Exodus è la 2060 a "cadere in fallo" mentre con Battlefield V e The Witcher 3 anche la 2070 resta sotto la soglia.

Da un paio di anni troviamo in commercio monitor che si spingono oltre i 120 e 140Hz, raggiungendo anche i 240Hz. C’è ancora molto dibattito sull’utilità o meno di una frequenza di aggiornamento così alta, ma sicuramente possiamo affermare che passare da 144 a 240Hz non palesa differenze così significative come passare da 60 a 120Hz.

Per i giocatori che cercano questa esperienza visiva ancor più fluida, le GPU consigliate rimangono la 2080 e 2080Ti. Nessuna delle schede testate è comunque riuscita a toccare i 240fps con dettagli ultra nei titoli utilizzati. Nonostante questo siamo riusciti in alcune occasioni ad andare significativamente oltre i “canonici” 144Hz di media.

RISULTATI 1440p

Questa risoluzione è una via di mezzo; un buon equilibrio tra chi ricerca una risoluzione elevata, e quindi una maggiore definizione, e fps mediamente alti. Con tutte le GPU ho superato i 60fps a 1440p con dettagli ultra, ma solo la 2080Ti si spinge oltre i 120fps su tutti i giochi, compreso The Witcher 3.

Con il gioco F1 ho ottenuto i risultati meno attendibili. Dai grafici e dai dati raccolti, la 2080 sembra essere meno potente di una 2070. Nonostante abbia ripetuto i test più volte i risultati non sono cambiati. Possiamo quindi presupporre che ci sia qualche bug di ottimizzazione nei driver o nel gioco in sé. Appare infatti altamente improbabile che una 2060 permetta di raggiungere gli stessi fps di una 2080.

The Witcher 3 anche qui risulta essere il gioco perfetto per comprendere le reali potenzialità di ogni scheda video. L'incremento degli fps medi è infatti costante e regolare di scheda in scheda dalla RTX 2060 alla 2080Ti.

CONCLUSIONI

Come prevedibile la GeForce RTX 2080Ti è la scheda video da scegliere se si vuole godere al massimo dell’esperienza in 4K a un buon frame-rate. La RTX 2080 resta comunque una valida alternativa se si vuole risparmiare qualcosa senza scendere a troppi compromessi. Il 4K è comunque raggiungibile anche con la 2060 e la 2070 ma dobbiamo ovviamente rinunciare a qualcosa in termini di qualità dei dettagli per mantenere un frame rate accettabile.

Se invece preferiamo giocare in Full HD per raggiungere fps più alti, anche le schede di fascia più bassa possono garantire una discreta esperienza di gioco. Solo con le due più potenti, e costose, non avrete problemi e sarete "al sicuro" anche tra un paio di anni quando i titoli si faranno più impegnativi.

VIDEO

Il top gamma con il miglior rapporto qualità/prezzo? Asus ZenFone 6, in offerta oggi da ASUS eShop a 499 euro oppure da Unieuro a 559 euro.

336

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Enrico Perini
pilistation

non vedo mai queste comparative fatte con un visore VR, se cambio scheda video é solo per quello!

Herbrecht Von Jeromen

Non vedo l'ora che Google Stadia e il Cloud Gaming spazzino via Nvidia e i suoi delusissimi fanboy.
Che goduria che sarà...

Herbrecht Von Jeromen

Blah blah blah...
Just buy it? Già sentita.
Ray Tracing? Non vale la spesa, oltretutto sempre applicato per spariti effetti cosmetici e mai integralmente.
DLSS? Upscaling, no grazie.
Sì affrettassero invece a mettere a punto schede multi-GPU con approccio Asynchronous Computing TOTALE.
IA su GPU consumer... Ma chi se ne strasbatte! Tutte scusette per propinare gli avanzi delle professionali agli allocchi, a prezzi mostruosi? Ma se li infilassero...
E AMDiota suona malissimo: senti invece come Nvidiota scivola bene bene. E a te si attagliate benissimo! Apri gli occhi, invece che la bocca per inghiottire tutto ciò che Huang to versa nella gola.

iamagro

Si sapeva già che si sarebbe trattata di una tecnica ibrida rasterizzazione+RT, nessun fallimento, gli sviluppatori possono usare il Ray Tracing a loro piacimento, per i riflessi, per l'illuminazione globale o quant'altro. La differenza c'è, e se te ne intendessi un minimo di tecniche di rendering, non avresti scritto ciò che hai scritto, probabilmente sei uno di quelli che commenta le demo Nvidia riguardo il RT con "lol ma è solo tutto più scuro xdxd". La serie 2000 non è un fallimento perché a differenza di tutte le altre schede grafiche (per ora) ha gli RT Cores, cores ottimizzati SOLO per il ray tracing, che devono svolgere un solo lavoro, e lo fanno molto meglio rispetto ai Cuda Core (che ci sono comunque, sia chiaro, perché per appunto, si tratta di un rendering basato sulla rasterizzazione+ray tracing) inoltre hanno i Tensor Core (ottimi per il deep learning, nel caso qualcuno ne abbia bisogno) che fino a qualche mese fa erano disponibili solo sulla GeForce GTX Titan V, insomma ora li ritroviamo anche sulle gpu di fascia media.
Detto questo, non sono un fanboy Nvidia, (ho un MacBook Air per dire) solo che odio le persone che parlano senza conoscere le tecnologie in questione, studiati un pò come funziona il ray tracing, e capirai che queste gpu sono comunque un passo in avanti rispetto al passato, possono agevolare non di poco il rendering nelle anteprime dei programmi di modeling 3d, e poi oh, non vuoi il RT? Lo disattivi, tanto la serie 2000 è comunque più potente della precedente. Nvidia è riuscita ad ottenere ottimi risultati grafici con addirittura 1 solo bounce per pixel (parlando di ray tracing) grazie ad un denoiser ben fatto, aggiungici gli RT Cores, i Tensor Cores, DLSS (che si presume migliorerà nel tempo, si vedrà, recenti patch su Exodus confermano quanto ho detto) maggior potenza di elaborazione, processo produttivo migliore rispetto alla serie precedente con conseguenti consumi ridotti, e arrivi tu, mago merlino a dire che è stato tutto un flop. "AMDiota"

hammyboy

CMQ se fai oc sui 5ghz arrivi spesso a usare la gpu al 100% ma a questo punto cambia tuttto :)

hammyboy

Hai visto un ryzen con dissipatore montato male. Ho visto la stessa cosa su un 8700k, rimontato il dissipatore è tornato a posto, 100 in idle in stresstest cosa va a 150°? considera che maxtemp dei ryzen è 95° poi va in throttle

makeka94

strano con Wraith 2700 in idle 40-45°, e 75-85° a pieno carico, mai provato di persona il 2600x, ma presumo che le temperature debbano essere analoghe ( o meglio inferiori visto TDP ridotto) risposetto al 2700. Io avrei chiesto il DOA al fornitore.

TheFluxter

AMD Ryzen 5 2600 x 6-Core 19 MB Cache 95 W Wraith spire Cooler, 96°c/100°c in idle..il dissipatore funziona. Avevo consigliato un dissipatore, ma il cliente non l'ha voluto.

makeka94

Che cpu hai provato? possibile che il dissipatore fosse fallato?

makeka94

Dubito fortemente che Nvidia presenti una nuova architettura dopo meno di un anno dall'effettivo rilascio di quella vecchia (tra l'altro non hanno ancora nemmeno finito di presentare tutta la gamma). Potrebbe essere un re-fresh a 7nm, mi sembra più plausibile, mi sembra anche più plausibile che cambiare il nome sia solo questione di marketing.

Alessandro

Parli di migliorie prestazionali date da cambi di architettura ad un fanboy AMD abituato a GCN da un sacco di anni.. Ovvio che non ti capisce xD fermo restando che ampere sostituirà volta, e dovrebbe quindi avere hbm2.. Di conseguenza non la Vedremo nel settore consumer fino a che la concorrenza non sarà tale da costringere Nvidia a far scendere queste memorie costose sul mercato consumer.

NaXter24R

Rileggi, "quella meno insensata".

Herbrecht Von Jeromen
Giovanni Alfano

La vita è adesso. Se ne uscirà ancora migliore, venderò questa, come ho sempre fatto, e con una manciata di euro comprerò quella nuova.

Io ho preso una 2080 Ti FE e devo dire che è la migliore scheda mai prodotta, un livello superiore di qualita rispetto a tutte le altre...

X70 ovvero una medio gamma venduta a 600€ e più... Spero tu stia scherzando!

SteveMcQueer

2x4?? allora avresti gli 8gb che ti servivano e il 4430 tutto in 60 euro spediti, è un buon affare, prendila subito :)
l'h97 plus è più recente e un po' più completa come audio e porte usb3.0 (ne ha di più), per il resto sovrapponibili, specie per il tuo uso. MA non ha l'interfaccia m2 per gli ssd, quindi non potresti usare il tuo. quindi ti direi preleva processore e ram e piazzale sul tuo.
prendila! :)

Riccardo33

Si si 2x4gb!
Ma la scheda madre sarebbe superiore alla mia Asus h97-plus?

Steve

Ampere semmai sostituisce Volta non turing, studiamo un pò di più .

Steve

lol

Steve

che le vedrai o meno (si parla cmq di tempo..) il tutto è riferito alla tia ultima frase ironica :)

SteveMcQueer

è un buon acquisto, specie se sono 2x4 =8gb? :D altrimenti puoi vedere che memoria monta e acquistarne altri 2 banchi da 2gb uguali con meno di 20 euro e arrivare a 8gb!!
potresti proprio prenderla :)
su ebay si fanno affari con l'usato, specie quando non sono più di primissimo pelo :)

Riccardo33
Emiliano Frangella

Un 27 è perfetto per il 1440p. provati
Per un 4k è preferibile un 32

Emiliano Frangella

È abitudine.
L'ho poi provato sul TV 55 al salone.... Da sturbo ;) Sony Bravia ;). Altro che monitor

No troppo grande, devi considerare la distanza che hai dal monitor. Il top è 27"

dbomab
Emiliano Frangella

Lol
Dai almeno un 32....meglio

Emiliano Frangella

L'input lag non mi interessa più di tanto, visto che in multiplayer ne faccio poco....
E poi ho preso appunto un Samsung che è quello che ne ha meno.

Prima avevo un 32 a 1440p.... Sempre con un dotPitch molto meglio di un fullHd ....e lo sai...

Un 40 4k pagato 350 euro con HDR+ ecc .....
Molto meglio dei 32 va provati da 450.
Per pari qualità bisogna spenderne almeno 550-600....

Fifa ...Pes ecc ci gioco 4k 60 da più di un paio di anni....questi girano perfetti.

Non tornerei indietro ad un TN veloce assolutamete

dbomab

Scusami ma ho letto in un altro tuo commento che giochi in 2K su una TV 4K a 40 pollici su una scrivania ad un metro e mezzo di distanza e poi chiedi a me come faccio? Preferisco qualcosa di quanto meno decente che una televisione di una grandezza tale che il 4k sembra un HD base, per non parlare del 2k poi... Sarai pure contento di due lucine ma goditi anche la densità di pixel penosa e i 26ms di input lag...

TheFluxter

Ti dico quello che ho visto, in idle stava a 98°c con il dissipatore boxato. Poi se ti devo dire una bugia ti dico che era a 29°c in idle, ma non è così

Piereligio

E che vuoi che siano 2 anni :P

Alessandro

Ampere non sarà consumer.

Alessandro

Ancora con questa storia? Ti ho già dimostrato che volta non é uscita perché sarebbe stato uno spreco, guarda la titan V.. Nessuna Pascal raggiunge la titan V nonostante il dissipatore blower che ne limita le Frequenze. E se volta batte Pascal e Pascal batte Vega, in quale universo Vega batte volta? Nvidia ha separato pro e consumer con architetture differenti come farà anche AMD dopo navi. Smetti di disinfornare.

Herbrecht Von Jeromen

Tu dici che derivazioni consumer di Ampere non le vedremo nelle GeForce? Ho i miei fortissimi dubbi. Solo Volta non ha subito questo trattamento, ma semplicemente perché avrebbe preso schiaffi fa Vega. In quel caso Nvidia preferì lanciare Pascal (che non era nemmeno prevista sulla roadmap), c'ha alla fine sappiamo tutti essere un refresh potenziato di Maxwell.

hammyboy

hahahahhahahahhahahaha non arrivano a 70° in torture ora stanno a 100gradi in idle hahahahha il mio 8core sta in idle sui 29...

smn_lrt

Dalle fonti ne hanno vendute a quintali agli oem e ad aziende piene di server (Google, amazon eccetera)... Perche come rapporto performance/consumi sono le migliori...

smn_lrt

Un 3770k usato? Tanto per tamponare fino ai 7nm che escono tra 4-5 mesi...quello che hai intenzione di prendere sicuro di svaluta di 100 euro a breve...

smn_lrt

Penso che tra un paio di mesi la prendo anche io...

No, mi lamentavo anche prima, ma qui entriamo in una spirale mortale. Lasciamo perdere che sennò mi arrabbio (come diceva il mio prof. di fisica all'università)

irondevil

Avevo aperti diversi articoli ,ma tanto è disqus il commento ot fa tendenza.

Alessandro

Da nessuna parte dato che Nvidia usa architetture diverse per mercato gaming e professionale

furlo

Ma se la PS4 la pareggiavi ai tempi con un i3 4130, 8gb RAM e una GTX 750 ti....

Steve

Ampere sostituisce Volta :D non c entra nulla la fascia consumer .........

Steve
SteveMcQueer

su ebay difficilmente trovi buoni prezzi sul nuovo, lì devi cercare l'usato e puntare gli i5 (4430 4440 4460 4570...) tra i 40 e i 50, soprattutto i 4430 mi pare che ce ne siano un po'.
prenderei anche la ram su ebay, ddr3 8gb kit, guarda che sia la dimm 240 pin, 1600 o 1333, non sodimm e non 204. punterei a spendere 30 euro spedita max, in asta.
ebay solo asta, a meno di botte di fortuna :) ci va tempo, chiaro, ma puoi fare affari.

Riccardo33

Stavo giusto guardando sulla baia..ma con scarsissimo successo!
Prezzi bassi ma che arrivano tipo dal Giappone altrimenti prezzi che salgono parecchio!
Poi purtroppo zero esperienza di acquisto sulla baia

Ciccio

Sono anni che lo fai(politici) e solo adesso ti lamenti?

SteveMcQueer

di nulla! se hai bisogno scrivi, e ricordati la questione degli hdd :)
e facci un pensierino all'i5 usato!!

Huawei MateBook: X Pro 2019 e 14 ufficiali, prezzi Italia del 13 | VIDEO

Recensione Lenovo Yoga Book C930: il ritorno del convertibile 4 in 1

Devolo Magic 2: Powerline a 2400 Mbps e Wi-Fi Mesh | Video

Xiaomi Notebook Pro e MacOS: binomio possibile? Video