AMD Radeon VII è la prima GPU gaming a 7 nm e sfida RTX 2080: costerà $699

09 Gennaio 2019 316

AMD Radeon VII è la prima GPU per videogiochi realizzata con processo produttivo a 7 nanometri. Ne ha parlato Lisa Su, amministratrice delegata della società, nel corso della sua presentazione durante il CES 2019 di Las Vegas. Le informazioni salienti sono queste:

  • Basata sul core grafico AMD Vega di seconda generazione
  • Ha 60 Compute Unit e 3840 stream processor con frequenza massima di 1,8 GHz
  • Supporta fino a 16 GB di memoria HBM2 ​a 2 Gbps con un bus a 4096 e ha una banda per la memoria di 1TB al secondo​
  • Garantisce il 25 per cento in più di performance rispetto alla precedente generazione consumando la stessa energia.

Radeon VII sarà di grande impatto per i creatori di contenuti: +27 per cento in Blender e DaVinci Resolve 15, +29 per cento in Adobe Premiere e ben +62 per cento in OpenCL. E ancora di più per i videogiochi: + 35 per cento in Battlefield V, +25 per cento in Fortnite, +42 per cento in Strange Brigade (Vulkan). I dati citati fanno riferimento a impostazioni grafiche al massimo e risoluzione 4K.


AMD ha mostrato dal vivo le capacità della GPU sfruttando un demo del nuovo titolo della saga Devil May Cry, ovvero DMC5. AMD dice di aver lavorato a stretto contatto con il team di sviluppo di Capcom per ottimizzare il titolo, che a impostazioni massime e in 4K aveva framerate tra gli 80 e i 100 FPS.


AMD Radeon VII sarà una scheda perfetta per il gaming 4K a 60 FPS, e sarà in grado di rivaleggiare con la NVIDIA RTX 2080: AMD ha mostrato che possiamo aspettarci framerate uguali o superiori - per esempio: in Battlefield V e Far Cry 5 62 FPS contro 61, e addirittura 87 contro 73 in Strange Brigade. Ovviamente anche la Radeon VII supporterà FreeSync 2, Async Compute, Rapid Packed Math e Shader Intrinsics, come per le attuali GPU Vega.

AMD Radeon VII sarà disponibile negli USA a partire dal 7 febbraio e costerà 699 dollari. Al momento non abbiamo dettagli per l'Italia.

Fotocamera al top e video 4K a 60fps con tutta la qualità Apple? Apple iPhone XS è in offerta oggi su a 850 euro oppure da Amazon a 999 euro.

316

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
pollopopo

se costa il giusto (street price) mi vendo la 1080 in favore di questa, così smetto di rompermi e in qhd maxo tutto a palla :P ....

Jhon Thali

Ti darei ragione se non fosse che il divario di prezzo è di soli 100$

Pussydestroyervodka

ottimizzato per le nvidia???
ma dove nei tuoi sogni

Gark121

techpowerup, che certo non è la bibbia, segna 295W di tdp....

NaXter24R

La speranza è l'ultima a morire, prima o poi vorrei capire cosa fanno con i soldi che gli do ogni mese dato che vanno sempre peggio

NaXter24R

300 non credo, in OC probabilmente si, anche qualcosa in più se non è limitata via driver ma a stock secondo me starà sui 250 non di più

Sacha89

Si ma avrai notato quanta poca differenza c'è tra le 2 schede (anzi come dicevi te il vantaggio di vega sulla 2060 è dato soprattutto dagli 8gb) però considera una 2060 custom e una 64 custom, alla fine tra le due quanta differenza ci potrà essere? 15% medio? A fromte però di 150/200€ di differenza, i consumi non li considero neanche perché me ne frego, però mettiti nei panni di chi deve comprare una nuova VGA per il fullhd a 144hz o WQHD a 60hz (volendo anche a 144hz, dipende dai giochi e dalle esigenze) come fai a consigliare una vega 64? Sono in questa situazione e cerco consigli sul serio. Aspetto ryzen 3 e da li farò le mie valutazioni, fullhd a 144hz o WQHD a 144hz

ilmondobrucia

Se ti sente gark121 ti attacca la pezza e non ti molla più .. Sulla inutilità di 16gb vram

ilmondobrucia

Secondo gark sono tutti professionisti di altissimo livello che possono permettersi schede video workstation...

ilmondobrucia

Infatti. È poi il tipo dice chiaramente che già sfrutta 6/7 gb vram.... E poi dice che 16 sono inutili... Si contradice da solo... Che volerla la scheda video con 10,5 gb di vram..... Mha...

ilmondobrucia

Certo perché devono per forza sfruttare 16gb... Ancora non hai capito che anche se si arriva 9/10 gb vram tra un paio di titoli cmq sono li... Non si sa che titoli possono uscire e quanta vram possa richiedere.. Non è che se questa scheda muore avendo visto solo occupati 10/11 gb occupati è la fine del mondo.. E non è prevedibile se possibile superare anche gli 11gb

Simone

È tutto relativo, al bench, alla configurazione e non solo...

Le Vega consumano tantissimo, ad esempio un mal raffreddamento porrebbe dimezzare le prestazioni della GPU e alla fine la meno esplosa 56 risultare vincente... Per esempio... Come l'i9 meno potrebbe dell'i7 nei mac, se li metti in freezer prende un 20-30% di potenza in più.

Poi secondo alcuni bench l'arm degli iPhone è più potente di i5 di 7th gen

ilmondobrucia
ilmondobrucia

Su forum dove usano veramente questi prodotti top alla massima risoluzione lamentano che nvidia sia po' risicata con la vram e certi giochi già si avvicinano a saturarne... . Te hai detto che è per via del precaricamento ecc.. ... Mi hai chiesto se ho mai sentito questa cosa... No mai... Allora sono andato a cercare
.. Ma sul web non ho trovato nulla...

Cmq come la logiaca vuole se c'è una scheda video con più vram i programmatori si possono spingere oltre..... Già adesso se un gioco peso in 4k trova più vram la usa eccome....

Gark121
ilmondobrucia

Mmmm.... Secondo il tuo ragionamento più vram c'è ed è meglio perché viene precaricata e quindi il gioco ne può benificiare... Con dettagli al massimo in 4k.... Anche se te pensi che è inutile

Ma secondo chi ci gioca e usa tali risoluzioni 8gb di vram cominciano a stare strettini...

Gta v usa più vram péche forse riesce a sfruttare meglio il gioco...

Gark121

Io sto giocando a shadow of the tomb raider con 8gb di vram in 4k, con tutto al massimo tranne l'anti aliasing. E faccio 50fps medi con zero stutter e 7.7gb di vram occupata.
Calando le ombre di un settaggio farei circa 10fps in più, sempre senza stutter e con praticamente lo stesso quantitativo di vram utilizzata.

Altre strönzate di gente che il 4k non l'ha mai visto manco in foto ne abbiamo o possiamo chiuderla qui? O devi copincollare altri commenti i d i o t i?

Gark121

Si ok. Con lo stesso principio visto che sul mio fisso (che ha 48gb di ram) Firefox usa 12gb di ram per aprire 13 schede del browser, allora è necessario avere 16gb di ram per navigare sul web.
Mai sentito parlare di caricamento anticipato? Cache? Esattamente questo succede.
Metti gta v in full HD su una 2080ti, e avrai un consumo di vram che sfora i 9gb. Poi lo metti su una 1060 e giochi tranquillamente in fhd a 100fps con 5gb di vram occupati. Quando lo metti sulla 3gb, allora stuttera.
Quanta vram serve per giocare a gta in fhd? I 9+ gb che usa quando ne ha a palate, i 5gb che usa quando funziona ancora benissimo e senza problemi o i 3 che causano un calo dell'uso della gpu e stutter visibile?
Datti una risposta, e scopri perché vedere scritto "8.5" non vuol dire che con 8 avresti avuto problemi.

Con ciò, ti ho risposto per l'ultima volta con questo. Millemila post bastano a dire quel che voglio dire, ossia che questa gpu è sbilanciata e molto meno conveniente di quel che potrebbe. E per come la vedo, potrebbe benissimo essere una simil Vega frontier, un prodotto buttato lì solo per riempire i giornali e i blog.

Ps, i forum americani non sono una fonte affidabile, esattamente come non lo sono i nostri.

ilmondobrucia

"8GB non mi sembra proprio una prova a prova di futuro (o addirittura attuale). Sto giocando a Shadow Of The Tomb Raider a soli 1080p e richiede 7GB di Vram così come FFXV usava 7-8GB, Mordor / War erano uguali. Per 4k hai sicuramente bisogno di più. A meno che non possano cambiare radicalmente la VRAM in qualche modo ed essere in grado di usare meno per lo stesso risultato .. Direi meglio prevenire che curare e andare per il TI."

Guarda che non c'è nulla di male ad avere torto ... Succede

Gark121

Anche i 28 core a 5ghz di Intel erano un prototipo, poi però abbiamo visto com'è finita. Non capisco sto criterio secondo cui i prototipi fanno cagäre....

ilmondobrucia

Nei forum... Tradotto da sito americani

"Il mio monitor è 3440x1440 e nei giochi più impegnativi l'uso di VRAM è solitamente di circa 6 GB, ma come qualcun altro ha menzionato FINAL FANTASY XV con le trame 4K utilizza 8,5 GB di VRAM (l'ho appena testato) nella mia risoluzione, quindi dipende da voi. In generale direi che 8 GB sono sufficienti."

" Nella maggior parte dei giochi finora è sufficiente, ma per quanto tempo? Sono stanco di Nvidia lesinare su VRAM. Lo fanno ogni generazione 780 / 780ti è stato fottuto da 3 GB, così anche il 970 con 3,5 e 4 su 980 era dietro a AMD. 980ti aveva 6 GB e ora di nuovo riceviamo solo 8 GB alla fine del 2018.

Non voglio abbassare la qualità della texture soprattutto perché se hai abbastanza VRAM non influenza il framerate e non voglio pagare $ 1200 per una scheda con abbastanza VRAM.

2070 e 2080 avrebbero dovuto essere 10GB, ma no, Nvidia deve fare lo stesso errore ogni generazione."

Ci ho guardato solo ora... Ma per logica ci ero arrivato..

Gark121

costa uguale alla 2080 SULLA CARTA (la founder's edition è VOLUTAMENTE overpriced rispetto alle altre 2080, chissà se alla terza volta riesci a capirlo... ma ehi, sono io quello che "zucco" che non capisce eh), va quasi uguale, consuma 75W in più (e proprio per macroscopici limiti termici sono portato a credere avrà margini di oc decisamente inferiori) e ancora non esiste da nessuna parte.
almeno al lancio, le altre generazioni di gpu amd sembravano offrire un rapporto performance/costo migliore di nvidia. qui nonostante il pp migliore (che, per altro, potrebbe portare anche ad una difettosità iniziale maggiore del normale, esattamente come fu per la 2080ti), non ci riesce nemmeno nelle slide della presentazione, e il tutto solo perchè la scehda è completamente e totalmente sbilanciata.

ah, senza contare il piccolo dettaglio che i 16gb di vram rendono completamente inutile l'unica feature specifica di vega a non avere una controparte nvidia uguale o migliore (l'hbcc).

Gark121

metti pure... ma quanta gente realmente fa gaming, rendering con blender che è tipo l'unico o uno dei pochissimi software che in opncl non fa pietà rispetto a cuda, e non lo fa abbastanza da investire in una titan?
a me sembra veramente una grossa arrampicata sugli specchi rispetto a quanto un modello con 8gb di hbm2 a 599 di listino avrebbe potuto rappresentare per tutti. anche un modello con 12gb di hbm2 (giusto per superare almeno in qualcosa la 2080ti) a 649 avrei potuto capirlo.

ma così, francamente, trovo più difficile trovare un contesto in cui abbia un qualche senso di quanto non trovi vederla completamente fuori fuoco, esattamente come fuori fuoco era la vega frontier edition, che non a caso costava uguale e aveva gli stessi 16gb di hbm2.

ilmondobrucia

Soldi nel cesso? Ma se costa meno della 2080 e
va quasi uguale... Un po come la rx 570 con la gtx 1060..

Gark121

no, infatti l'msrp ufficiale è di 699% in realtà. 799 sono per la founders, che è sempre e comunque più cara proprio per lasciare agli oem margini per guadagnare.

admix

Invece è un ottima soluzione per chi come me usa la GPU sia per giocare che per fare rendering 3d (non per forza professionale), Blender nella fattispecie. Poter renderizzare una scena avendo a disposizione ben 16gb di Vram è una vera manna, e questo senza dover per forza dotarsi di una scheda pensata solo per l'ambito professionale, che costa un occhio della testa e non è ideale per videogiocare. Questa è un ottimo compromesso, sicuramente non pensata solo per chi la utilizza esclusivamente per videogiocare.

Gark121

comprati sta roba e butta nel cesso i soldi, contento tu.

ilmondobrucia

Te sei zucco. Non vuoi capire.

Gark121

Eh si, aspetto di vederli ammirare le texture da 16gb dei giochi che secondo loro sono già usciti. E capire anche quanti fps fa una radeon vii con 16gb di texture da renderizzare.

Gark121

Possibile che non capisci: se non saturi la vram MAI, hai letteralmente buttato nel c e s s o il costo dell'acquisto.
Possibile che non capisci che i 7/8gb di vram che vedi utilizzati oggi sono per un buon 30% cache e se non ci fossero non ci sarebbe nessuno stuttering?
"davvero pensi che tutti i professionisti usino gpu professionali?" assolutamente si, se non sono masochisti.
Scommettiamo che se prendo la "semplice Nvidia" del tuo conoscente, e ci metto una quadro p1000 da 300€ scarsi al posto, andrà drammaticamente meglio anche se sulla carta ci sono gb di vram e cuda core in meno? Non esiste solo la quadro rtx 8000 nel listino delle gpu professionali eh...
Da sempre le software house usano le peculiarità dei produttori di gpu disposti a pagarle per farlo. E indovina chi tra amd e Nvidia ha i soldi per farlo? Oops, ancora, non amd.
Ci sono due modi per emergere: costare meno (e non rispetto alla founder's) o andare di più. Al momento, nonostante il pp migliore, amd sembra incapace di raggiungere il secondo obbiettivo, ergo deve riuscire ad andare uguale e costare meno. E non riuscirci per mettere 16gb di vram che sono drammaticamente NON cost effective, beh, mi sembra un autogol così drammaticamente evidente che non riesco a immaginare come una persona possa non rendersene conto.
Quando tra due anni un utente che gioca in 4k con una Nvidia dovrà cambiare la sua 2080 perché ram limited (o abbassare i dettagli grafici), mi racconterai di come invece un utente amd si godrà 40fps scarsi in 4k con 3gb di vram inutilizzata perché semplicemente la gpu non ha abbastanza potenza bruta per i giochi nuovi.
Ah, e in ciò non ho minimamente tenuto in conto che tra due anni, l'utente Nvidia potrebbe anche continuare a giocare con un qhd upscalato in 4k tramite DLSS con performance migliori di quanto l'utente amd potrà ottenere con i suoi 16gb di vram e un core con potenza bruta paragonabile ma concettualmente obsoleto.

sgru

vuoi mettere, questi individui 100€ te li fanno durare un'eternita`!

ilmondobrucia

Possibile che non capisci? È così semplice..

16gb non significa necessariamente che deve essere saturata tutta...io sul pc ho 8gb.. Mica la saturo tutta.. Allora che faccio levo 4gb?
Ma come cavolo ragioni.
.. Ma se già certi giochi usano 7/8 gb....

Livello hobbistico? Ma credi veramente che tutti i professionisti che usano programmi 3d usano gpu workstation? Un geometra di mia conoscenza usa programmi in 3d e usa una semplice nvida... E guadagna un sacco di soldi... Mica tutti devono fare gli effetti speciali per i film di Hollywood....

Da sempre le software House usano le peculiarità delle schede video.. Se amd ha una scheda video da 16gb non è detto che escono giochi ottimizzati per più di 8gb di vram....

Gark121

Gli stessi problemi delle sorelle maggiori sarebbero?

Gark121

"se fosse ben supportata da Adobe".. Amd? Lol

Gark121
Gark121

Da anni si possono usare le gpu da gaming per altri applicativi, con risultati che mediamente vanno dallo scadente al pateticö. Una quadro P2000 (che è una 1050ti...) demolisce la Vega 64 e la 1080ti sul Cad, tanto per dare l'idea.
Detto ciò, usando una gpu gaming per fare roba "non gaming", ti garantisco che i driver saranno un collo di bottiglia molto più grande della vram. L'unico caso di "ampia" diffusione in questo non accade è per quei programmi di grafica e montaggio video che riescono a sfruttare adeguatamente l'accelerazione della gpu. Bene, se tu riesci a trovarmene uno in cui in opengl le performance siano vagamente paragonabili a quelle sfruttando cuda, io sarò qui a sentire.
Per altro il resto del discorso cozza brutalmente con la prima parte: uno per lavoro secondario o hobby dovrebbe cercare di risparmiare anche a costo di distruggere le proprie performance in diversi contesti, però per giocare deve buttare letteralmente nel c e s s o 100€ (cifra ipotetica, non ho idea di quanto costino realmente 8gb di hbm2, ma amd è anni che va avanti a spiegare quanto sia costosa e preziosa...) per comprare della vram inutilizzata (e resterà tale, nessuna software house può presentare oggi un gioco che taglia fuori dai dettagli massimi le 2080, le 1080, le 2070 e le Vega 56 e 64, sarebbe un autogol clamoroso).
Detto ciò, la 2080 costa 699$ msrp esattamente uguale a questa, c a z z o sono anni che le founder's edition costano 100€ più delle schede degli altri oem (cosa che per amd non avviene, solitamente le schede reference costano come quelle non reference), e ancora non l'avete capito?
Io lol.
Detto ciò, francamente, voglio vedere un applicativo 3d che usa 16gb di vram usato a livello "hobbystico" (passami il termine, vuole essere tutto fuorché dispregiativo, ma non so come indicare qualcosa che non fai 8h al giorno e in cui non ti va di spendere per dei driver certificati) per cortesia.

Gark121

E, per inciso, sarei pronto a scommettere che con metà della ram i suoi 5fps in 5k sarebbero sempre 5, ma lui avrebbe 100€ in più in saccoccia.

ilmondobrucia

Allora non ci capiamo o non vuoi capire. Da anni si possono usare le gpu da gaming anche a livello non professionale ma non significa che non sia una fetta di mercato. Poi come già detto molti giochi già sfruttano quasi 7/8gb di vram... Ci vuole poco per arrivare a 10/12... Non capisco come fai ragionare in questa maniera.... Non è che se c'è 16gb bisogna per forza usato tutti... Come Amd sa un piffero che giochi possono uscire e quando si possono spingere a livello grafico... E se certi giochi saranno più ottimizzati per sfruttare i 16gb di vram??

Il punto alla fine è "se avesse avuto 8gb sarebbe costata 100 in meno." già costa meno della 2800...poi scenderà di prezzo.. Quandi che vuoi che te la regalano

Gark121

Ti sei già risposto "non è il lavoro principale e tanto meno una professionista". Nessun produttore sacrifica un mercato grande per uno piccolo, a meno che non ci sia qualche altra ragione.
In questo caso, come ha giustamente supposto un altro utente rispondendo al mio post, il fatto che l'hbm2 sia saldata nel chip rende probabile che abbiano fatto la gpu per il mercato pro e semplicemente messa in vendita anche sperando di non sparire completamente dal mercato consumer di fascia alta.

gino loreto

Una vega 64 strix oc va come una 2070, la vega 64 lc va più di una 2070.
La 2060 va come una 1070ti custom.
Guarda bene anche i settaggi che usano nelle recensioni, mi vien da ridere quando leggo che l'AA a 1080p viene disattivato.
Senza considerare che quando saturi la VRAM della 2060 hai lo stuttering. E senza considerare che la 2060 potrebbe avere gli stessi problemi delle sorelle maggiori.

gino loreto

perché la vega normale, non custom, ha un dissipatore pessimo e downclokka quando sale troppo la temperatura.

ilmondobrucia

La mia ragazza usa Rino 3d per disegno gioielli con gpu amd. Ok non sarà il suo lavoro principale e tanto meno una professionista... Ma non tutti lo sono e possono spendere tanto per una gpu...

Gark121

Caxxxxo di Budda, forse c'è una versione "pro" per chi usa le gpu per lavorare, ma lo volete capire?
So che siete abituati agli youtuber come massimo esempio di chi lavora col pc, ma nel mondo reale
1) nessuno lavora con amd, nemmeno sotto tortura
2) pure se lo facessero, non lavorano certo coi driver da gaming non certificati

ilmondobrucia

Non sene per te... Caxxxo di Budda non è diffile capire che 16gb di vram possono servire anche ad altre persone per altri tipi di programmi..

Possibie che bastano un paio di persone sul blog che non serve una cosa e devono scassare in questo modo...

Gark121

Ma che non avrei comprato sta roba era già sicuro, ma resta una gpu nonsense anche se non la compro.

ilmondobrucia
Gark121

"fanno sempre versioni con meno o più ram"...
Bah, veramente no, o almeno non in fascia alta.
Solo dalla 570 in giù ci sono versioni con meno vram, e anche nelle serie precedenti è spesso stato così.

ilmondobrucia

Fanno sempre diverse versioni con meno o più ram. Secondo me succederà anche con questa gpu. per venire incontro a tutti

Gark121

Lamentarsi per troppa ram sarebbe assurdo in mondo dove la ram è gratis. In quello attuale, dove la ram costa quasi più del chip, le cose sono decisamente diverse.
Questa scheda costa come una 2080 pur avendo una grossa serie di feature in meno proprio per l'ammontare di ram enorme e praticamente inutile.
Con metà della ram sarebbe praticamente lo stesso prodotto, con differenze assolutamente risibili, e costerebbe 100€ in meno minimo.

Gark121

Arriverà Nvidia a 7nm.

Huawei MateBook: X Pro 2019 e 14 ufficiali, prezzi Italia del 13 | VIDEO

Recensione Lenovo Yoga Book C930: il ritorno del convertibile 4 in 1

Devolo Magic 2: Powerline a 2400 Mbps e Wi-Fi Mesh | Video

Xiaomi Notebook Pro e MacOS: binomio possibile? Video