Nvidia GeForce RTX: prestazioni deludenti per Morgan Stanley

21 Settembre 2018 178

Nvidia GeForce RTX, ovvero la nuova generazione di schede video della casa di Santa Clara, sono state oggetto delle prime recensioni internazionali nelle scorse ore e con esse sono arrivati anche i primi inequivocabili riscontri sulle prestazioni velocistiche. Al netto della tecnologia per il ray tracing, che si spera maturerà nei prossimi mesi, ma che al momento è ancora una promessa da mantenere, con i titoli attuali, secondo alcuni, è mancato quel marcato passo avanti.

La banca d'affari Morgan Stanley rientra nel gruppo di chi si aspettava un incremento delle prestazioni introdotto dalle GeForce RTX 2080 e 2080 Ti rispetto ai modelli di precedente generazione. E il prezzo elevato richiesto per entrare in possesso delle nuove schede - 879 euro per la 2080 e 1279 euro per la 2080 Ti - non aiuta a far

Terminato l'embargo per le recensioni dei nuovi prodotti gaming, i miglioramenti delle prestazioni nei vecchi giochi non sono il salto che avevamo inizialmente sperato. L'incremento di prestazioni nei titoli precedenti che non incorporano le funzionalità avanzate è qualcosa al di sotto delle nostre aspettative iniziali e i giudizi sono contrastanti a causa dei prezzi più elevati

Morgan Stanley effettua nello specifico un paragone tra la GeForce GTX 1080 Ti e la nuova GeForce RTX 2080 - corretto dal punto di vista degli attuali prezzi, un po' meno tenuto conto del posizionamento, visto che la RTX 2080 prende il posto della GTX 1080 e non della 1080 Ti.

Siamo sorpresi che la 2080 sia solo marginalmente migliore rispetto alla 1080 Ti, che è disponibile da più di un anno ed è un po' meno costosa. Con frequenze di clock più elevate, un maggior numero di core e il 40% in più di banda di memoria, ci saremmo aspettati un incremento più grande.

Le valutazioni di Morgan Stanley non hanno giovato al valore del titolo azionario di Nvidia che ha perso il 2,1% nella giornata di ieri. Le dichiarazioni della banca d'affari faranno sicuramente discutere, ma toccano un punto nevralgico: quanto meno al momento, le nuove proposte di Nvidia non possono essere considerate un acquisto consigliato incondizionatamente, almeno sino a quando gli sviluppatori non dimostreranno di saper valorizzare le novità introdotte dalla nuova architettura: dal ray tracing - sperando che non vada incontro allo stesso destino di PhysX - per arrivare al DSSL.


178

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
fra47

Concordo. Si parla sempre di consumi tdp ecc. Ma a chi interessano realmente questi dati?
La faccenda dei consumi ha senso solo nel mining, nel gaming è marginale. Se uno ha un'alimentatore abbastanza potente da far girare una di quelle schede perché stressarsi sui consumi? La scheda la si compra in base alle proprie esigenze (risoluzione del display, freesync o gsync ecc.) non sono di certo i watt a fare da discriminante, a meno che non si abbia un pc di fascia bassa con alimentatore sottodimensionato, oppure non si faccia mining

makeka94

XD

Gark121

Sinceramente prego, cosciente che non succederà, che amd faccia qualcosa al livello di ryzen. Perché se continua a far rebrand e die shrink ci troveremo a pagare un 3080 2000€...

makeka94

Si, ma lascia fare e aspettiamo le uscite delle re-rebrand AMD =)

Gark121

Ti sei accorto che siamo a settembre? Giusto per capire...
Da qui a dicembre queste magari scenderanno un po'. E poi quella data dipende in realtà dalle scorte di Nvidia. Fintanto che non finisce le riserve di Pascal, saranno in vendita. E si parla di riserve ancora piuttosto consistenti da smaltire.

makeka94

Si a dicembre dovrebbe cessare la distribuzione ufficiale dell'evento 1070 e 1080

josefor

la 2080Ti è veramente un mostro in tutti i sensi, stacca di parecchio pure la 2080 e le precedenti serie 1000, anche come costo, diciamo che non è più una questione di giocare bene senza compromessi anche in 4K, s.. è feticismo informatico, avere la bestia dentro al case

Ale

Metro redux e e BF escono a breve e lo avranno, tomb Raider riceverà una patch, così come molti altri giochi esistenti, il bello del raytracing è che lo puoi applicare anche a posteriori, e quindi anche a progetti in corso

sbiki85

Un videogame tripla a (i primi che per budget e risorse possono implementare le nuove tecnologie) non nascono dall'oggi al domani, hanno tempi di sviluppo di svariati mesi quindi per un paio di annetti non credo che queste tecnologie decolleranno.

Ale

Sì ok l'ho capito, vai a cercare gli unici titoli dx12 e gli unici dx11 dove Vega va meglio, ma a che pro? Lo sanno anche i sassi che in qualche titolo AMD eccelle così come nvidia fa in qualche altro, sono giochi ottimizzati meglio per un marchio o per l'altro, quindi cosa dimostri?
anzi i risultati di dirt 4 dx11 dimostrano che la tua prima supposizione, ossia che nvidia ha problemi driver con giochi dx12 nativi è errata, appunto perché dirt 4 è dx11, quindi di fatto stai portando bench di giochi ottimizzati x AMD, la domanda è come mai?

gino loreto

Guarda qui ce ne è un'altro, però in DX11.
https://uploads.disquscdn.c...

pcboy2008

Beh certo,parlo solo del 4k

josefor

se giochi a 4K hanno senso soprattutto se uno vuole il massimo dell'hardware, non lo nego, poi se uno solo si accontenta un filo, magari basta anche una serie 10xx, io non gioco 4K e per ora mi defilo dalla 20xx

Mikel

Discorso sicuramente da approfondire, cioè come dedurre il vero tdp di targa..

Ale

Infatti l'idea di base di mettere unità dedicate per compiti specifici è ottima, solo che sarebbe dovuta venir fuori accoppiata ad un ulteriore Step del processo produttivo in modo da poter spingere di più sulle frequenze e/o mettere più RT core, da quel che si vede nei consumi in gioco per me è evidente che sono limitate da questo attuale PP. In condizioni di mercato normale, ossia con un competitor che da filo da torcere in fascia alta, non avrebbero fatto uscire queste unità dedicate oggi, perché di fatto diminuiscono la resa dei wafer (costo di produzione più alto) e hanno un consumo, quindi le frequenze della parte General purpose del chip ne risentono se si vuol mantenere un certo limite nei consumi e non creare una sorta di "nvidia vega"

Luke

guarda le fasce di prezzo non i nomi inventati dalla casa madre

Remindre

Ovviamente

Remindre

Nel senso che passa alla concor-
...

Remindre

Mmh.. non direi, le prestazioni sono ovviamente maggiori, sarebbe il colmo se non lo fossero. La vera domanda che ci dobbiamo porre di generazione in generazione quando andiamo a riflette su un possibile upgrade è "questa nuova generazione, di quanto è più prestante rispetto alla precedente? Ne vale davvero la pena in base al prezzo?" Beh, direi che in questo caso, la risposta è oggettiva. No, non ne vale assolutamente la pena. Vuoi il prezzo molto più alto, vuoi che siano passati ben 2 anni dall'ultima generazione, quindi le aspettative erano molto alte, dire che queste schede video non siano particolarmente prestanti non è proprio una cavolata, è ragionare

pcboy2008

Si prezzi alti vero,ma la rtx 2080 spazziavia la gtx 1080 e la rtx 2080 ti spazza via la gtx 1080 ti. Non diciamo cavolate,le prestazioni ci sono eccome.

scopp

Lascia perdere i consumi. 35W in più o in meno non fanno la differenza. Ciò che conta è questo: https://uploads.disquscdn.c...

Gark121

sisi, volevo solo dire che dai test, quel guadagno di efficienza non c'è. tanto va di più, tanto consuma di più. indipendentemente dal suo discorso e dal fatto che parlare di una gpu da 1000€ preoccupandosi di 1€ di corrente al mese mi fa solo ridere

Lorenzo Poli

Si ma lui ha parlato di TDP dicendo che erano ''non indifferenti'' e io gli ho risposto che i TDP sono uguali se non inferiori. Poi a livello pratico di consumi è tutto da vedere

Lorenzo Poli

Senti sotto stress le cose sono abbastanza differenti. Se bisogna parlare di TDP questa serie 20 non ha per niente un ''TDP non indifferente'' come hai detto tu, pittosto scrivevi quello che hai detto qui e cioè che ''sotto stress hanno dei consumi non indifferenti''. Se mi parli di TDP io mi sento in dovere di correggerti perché i TDP a livello di successore sono uguali, anzi a livello di performance sono addirittura inferiori.

Mikel

Vai a leggerti i consumi della gtx 1080 anche sotto stress test e confrontali con questa, scoprirai che il tdp che Nvidia dichiara per queste schede è abbastanza fasullo, ti ricordo che il tdp è il thermal design power valutato su carico di lavoro medio, pertanto dati i picchi non mi sembra che siano migliorati i consumi. Ma perché non analizzate sul serio i dati?

Gark121

c'è da dire una cosa: il tdp e il consumo reale sono una cosa diversa. all'atto pratico la 2080 va leggermente più di una 1080ti e consuma leggermente di più, e la 2080ti consuma ancora di più

Lorenzo Poli

Mi diverte come la stessa notizia è stata affrontata anche su Tom's Hardware con la differenza che lì si sono accertati della fonte e siano andati a controllare la veridicità delle parole di Morgan Stanley che ha detto una boiata riguardo i vari bandwith e le percentuali di aumento delle prestazioni. Mentre qui su HDblog l'importante è riportare paro paro le notizie senza il benché minimo controllo

Lorenzo Poli

1080: 180 W
1080 Ti: 250 W

2080: 215 W
2080 Ti: 250 W

Questo lo chiami "non indifferente"? Vorrei ricordarti che la 2080 ha prestazioni poco superiori alla 1080 Ti ma consumando 35 W in meno, mentre la 2080 Ti è nettamente sopra a tutte ma il TDP è rimasto lo stesso. Si chiama ottimizzazione del processo produttivo, infatti le Pascal erano a 16 nm mentre le Turing a 12 nm. Ma perché parlate sempre a vanvera?

Ale

La 2080 è presto per valutarlo secondo me, attualmente concordo con te, ma per me la 2080 (così come tutte le Turing) andrebbero valutate verso gennaio-febbraio intanto per vedere il raytracing in azione lasciando il tempo di patchare i giochi mal riusciti, poi per vedere una volta superata la foga iniziale e svuotati i magazzini di Pascal quanto sarà il prezzo reale, per adesso sono ottimi addobbi per gli scaffali

Ale

In che modo?

Ale

Prendi sempre i soliti 2 giochi ogni volta, perché non guardarne altri sempre in dx12?

ascis

normale per un'azienda che produce solo HW dare più importanza al SW

Ansem The Seeker Of Darkness

io non prenderei mai in considerazione schede video al di sopra dei 400€.
Comunque sì, il crossfire, come lo sli, sono pessime idee in generale :D

xfoprofeta

Forza gira a c4zzo su Nvidia, un po' tutti i giochi Xbox lo fanno.
Infatti fanno poco testo per i paragoni tra pc/console e AMD/Nvidia.

Squaquero Squaque

Con un crossfire di vega64 apri una voragine fino all'inferno, da cui esce il diavolo che ti fa un inchino. Non è proprio un ipotesi che vaglierei quella del crossfire, anche per questioni di ottimizzazione dei giochi. Che poi a quel punto tanto vale prendere la 2080.

HIkkI78909

"chi gioca seriamente non usa le tv". Suvvia finiamola con queste sparate.

gino loreto

https://uploads.disquscdn.c...

Squaquero Squaque

Ah beh, se lo hai letto nei commenti siamo tutti più tranquilli.

xfoprofeta

Appunto...

gino loreto

https://uploads.disquscdn.c...

xfoprofeta

Il fatto e che e comprovato che non e cosi... Forse negli anni 90 le sh si sbattevano ad ottimizzare, ma non c erano i test per verificarlo.
Oggi solo MS lo fa ma ha a catalogo 3/4 giochi.

Squaquero Squaque

"Ciao ciao" in che senso?

GianTT

Relativamente, un sistema minimale costruito ad-hoc per garantire le prestazioni grafiche migliori dovrebbe ovviamente essere migliore nel gaming di un pari caratteristiche PC. E' altrettanto vero che le nuove console hanno architettura e sistema sempre più simile a quello di un PC classico, e si perde un po' di questo vantaggio.
Però negli anni 90 era verissimo, se prendo l'HW di una PS1 e lo paragoni con un PC di pari tipologia e un Windows 98, non c'è paragone nella riproduzione dei giochi

Ale

in teoria verso il 2020 dovrebbe uscire una display Port cherenderà inutili i vari freesync e gsync, e lo spero.. perché non mi va di legrami ad un marchio specifico, se un domani AMD diventasse migliore di nvidia replicando il colpaccio fatto ad Intel voglio poter essere libero di usare il sync anche cambiando marchio di gpu.

Ale

Il raytracing è indubbiamente il futuro. Permette di risparmiare moltissimo tempo per creare luci e ombre quindi le case ci si butteranno a pesce appena ci sarà un minimo di diffusione delle schede in grado di supportarlo, la domanda è quando AMD lo supporterà? Questo aiuterebbe la diffusione

Ale

Quel 4k è in realtà 1080p. L'immagine è elaborata in 1080p e ogni pixel viene ingrandito x4. Quindi di fatto la console sta elaborando 1920x1080 pixel e non 3840x2060. E per di più lo fa a 30fps e con texture ed effetti vari qualitativamente inferiori rispetto alle impostazioni ultra su PC, ergo: quella console sta facendo girare un fullhd a dettagli medi, forse alti, a 30 fps e sta ingrandendo l'immagine x4. Il 2020 dunque mi sembra una data troppo vicina per il 4k 60fps su console e con dettagli grafici che siano vagamente paragonabili ai settaggio ultra del PC.

Davide Napoletano

A dire la verità Nvidia pubblicizzava i propri prodotti come il primo passo verso il 4k.. poi se la 1080ti ci arriva e non ci arriva, beh.. che dire.
Monitor ok, ma ho la sensazione che non scenderanno mai i gsync

josefor

io ho un monitor 34" 21:9 ed è uno spettacolo giocare con un campo visivo del genere

Ale

A primo impatto sono d'accordo, da vedere nei lrossimi mesi intanto se è quanto calano di prezzo, e poi il raytracing come verrà gestito dalle 2080 e 2070 quando avremo in mano giochi finiti e non Tech demo o beta malfunzionanti

xfoprofeta

https://gamegpu com/images/stories/Test_GPU/Simulator/Forza_Horizon_3_/hi/f3_3840_h.png

70 fps avg con una 1080 (non ti) in 4k tutti settaggi ultra.

RECENSIONE Teclast F5, convertibile economico ma convincente

Microsoft Surface Go: piccolo e compatto | Anteprima video

Lenovo Yoga C930 ufficiale: 2-in-1 premium con altoparlante rotante | Video

Vaio S11 e S13 sono leggerissimi, potenti e ricchi di porte | Anteprima Computex