Tutti i prezzi sono validi al momento della pubblicazione. Se fai click o acquisti qualcosa, potremmo ricevere un compenso.

AMD Radeon R9 295X2 "Vesuvius": la Recensione completa da HDBlog

08 Aprile 2014 59

amd_radeon_r9_295X2_intro

Dopo i rumors e le numerose informazioni trapelate nei giorni scorsi, debutta ufficialmente oggi la nuova punta di diamante di casa AMD per il segmento schede video consumer desktop, parliamo della Radeon R9 295X2 nome in codice "Vesuvius". Chi ci segue ogni giono saprà sicuramente che si tratta di una soluzione Dual-GPU, e che, come ormai succede sempre negli ultimi periodi, mira a collocarsi direttamente al top del mercato come schede singola più veloce mai presentata.

Nel corso della settimana passata vi abbiamo dato qualche anticipazione riprendendo i vari rumors che circolavano online, ovviamente avevamo la scheda in laboratorio ma come facilmente potete immaginare non potevamo svelare o confermare le specifiche tecniche per chiari motivi di NDA.

Nell'articolo di oggi riusciremo finalmente a vedere la potenzialità di questo nuovo e interessante prodotto.


Caratteristiche Tecniche - Descrizione

Ma veniamo al concreto. Con la Radeon R9 290X, nonchè con la sorella minore R9 290, AMD aveva già dato un forte colpo alla fascia alta del segmento delle schede grafiche, proponendo una GPU potentissima (parliamo del chip Hawaii) e con buoni prezzi; ricordiamo infatti che Nvidia è dovuta subito correre ai ripari abbassando il costo della GeForce GTX 780 e presentando la più potente GTX 780 Ti.

La Radeon R9 295X2 è in pratica una Dual R9 290X e quindi in concreto non introduce novità a livello di architettura, mantenendo la tanto proficua ed efficiente GCN (Graphic Core Next); siamo però davanti a un vero mostro di potenza da 11,5 TeraFlops che già sulla carta non ha rivali. Per averne conferma passiamo subito a vedere le specifiche tecniche:


(ingrandisci)

In questi casi i compromessi non servono, e a testimonianza di questo troviamo infatti un TDP di ben 500 Watt con doppio connettore di alimentazione PCI-E 8pin e sistema di dissipazione a liquido. Le altre features, 12.4 Miliardi di transistor, 5632 Stream Processor, 8GB di Memoria GDDR5 ecc, sono una chiara conseguenza delle due GPU Hawaii XT configurate in CrossFireX sullo stesso PCB.

Sulla frequenza operativa delle GPU dobbiamo dire che in realtà siamo leggermenti sorpresi. Visto che la R9 290X opera a 1000 MHz infatti, ci aspettavamo un CrossFireX leggermente downcloccato; con ben 1018 MHz invece AMD ha evidentemente voluto fare le cose in grande.

Proprio per questo sul TDP e l'alimentazione non potevamo che aspettarci numeri di questo tipo; già la Radeon R9 290X è una scheda piuttosto esigente, quindi i due connettori a 8 Pin sono obbligatori, così come un alimentatore di qualità da almeno 900/1000 Watt e capace di erogare 28 Ampere per ogni connettore PCI-E 8pin.

Anche se parliamo di dissipazione dobbiamo fare un piccolo salto indietro alla Radeon R9 290X. Quando AMD svelò la scheda infatti ci furono diverse critiche sulle elevate temperature di esercizio che si riscontravano con dissipatore reference, non molto efficiente ma soprattutto troppo rumoroso ad elevati regimi rotativi (opzione inevitabile per abbassare le temperature della GPU). AMD rispose che il chip Hawaii era in grado di operare senza problemi in quel range (parliamo di 95 °C), fornendo inoltre un avanzato sistema di gestione della tecnologia PowerTune (più dettagli quì).

Sappiamo tutti però che con le soluzioni custom dei partner il problema non si pone, e a tal proposito basta leggere la nostra ultima recensione sulla recente Sapphire R9 290 Tri-X OC.

Avendo in questo caso a che fare con due GPU Hawaii XT, l'unica scelta logica era quindi quella di una soluzione a liquido. Per essere più precisi, AMD ha optato per un sistema ibrido, un cooler All-In-One targato Asetek per le due GPU (partner già visto in occasione del lancio del Processore FX 8150), e un dissipatore "classico" con ventola per Memorie e VRM al quale si aggiunge un backplate e top in alluminio per ottimizzare al massimo lo smaltimento del calore.



La Radeon R9 295X2 è, come tutte le schede grafiche high-end, decisamente generosa in dimensioni ma allo stesso ottimizzata nel design. Considerando a priori la presenza del radiatore da 120mm (che andrà montato sull'apposita griglia della parete del case perpendicolare alla scheda), troviamo una lunghezza totale di 30,5 millimetri e un design a doppio slot; neanche tanto esagerata quindi se pensiamo alle caratteristiche finali del prodotto.

Viste le caratterisitiche base vediamo ora qualche immagine più dettagliata:

Per avere un idea delle dimensioni della scheda eccola a confronto proprio con la Sapphire R9 290 Tri-X OC:


Piattaforma di Test e Prestazioni in Game

Fatte le dovute premesse passiamo ora alla parte più interessante dell'articolo, quella relativa ai test sul campo. Prima però diamo uno sguardo alla piattaforma hardware utilizzata per i test:


Vista la natura del prodotto non abbiamo ritenuto utile inserire schede video poco potenti nella nostra prova; per questo motivo trovete il confronto con la Radeon R9 290X e la Nvidia GeForce GTX 780 Ti; purtroppo al momento non avevamo a disposizione una GeForce GTX Titan Black da inserire nei grafici.



Ecco invece i titoli adoperati per misurare le performance:

  • 3DMark 2013
  • Aliens vs Predator
  • Bioshock Infinite
  • Battlefield 4
  • Crysis 3
  • Far Cry 3
  • Metro last Light

E' quasi inutile ribadire che con la Radeon R9 295X2 sarebbe inutile utilizzare un monitor Full-HD, per questo motivo tutti i giochi saranno testati a 3840 x 2160 pixel grazie al monitor Dell UltraSharp UP2414Q.

A seguire i risultati ottenuti nei vari test che di certo non si prestano a particolari interpretazioni:








Overclock - Temperature - Consumi

Per quanto riguarda l'overclock non abbiamo voluto esagerare (oltre a non avere molto tempo a disposizione per cercare i settaggi ottimali), tuttavia in modo abbastanza veloce siamo riusciti a salire di circa 100 MHz sulle GPU e 240 MHz sulle Memorie. Con questi settaggi riusciamo ad ottenere circa 5-6 FPS in più in un titolo come Aliens vs Predator a 3840x2160 pixel.



Per la nostra prova AMD ci ha fornito la suite Catalyst 14.4 Beta 1, versione che almeno per il momento non ci permette di gestire le due ventole; non sappiamo attualmente se con le future versioni questo settaggio sarà possibile, ma possiamo affermare che il cooler si comporta in maniera davvero ottima (tenete conto che il nostro test è stato svolto su banco.)


Vi lasciamo infine con il grafico relativo ai consumi in game che conferma senza dubbio i dati rilasciati da AMD relativi al TDP.

amd_radeon_r9_295X2_consumi

Conclusioni

amd_radeon_r9_295X2_7

L'ennesimo capitolo della "saga" AMD Hawaii e Graphic Core Next ha dato di sicuro un esito che tutti ci aspettavamo; in questi casi la matematica non lascia scampo ad equivoci e due Radeon R9 290X montate sullo stesso PCB non potevano che dare vita a un mostro di potenza come la Radeon R9 295X2 "Vesuvius". Sulle prestazioni non c'è da discutere, soprattutto se pensiamo che con driver ottimizzati le performance miglioreranno notevolmente, così come sui consumi che non potevano essere di certo contenuti.

AMD ha però fatto sicuramente un ottimo lavoro sulla dissipazione, per niente sottodimensionata come si vociferava nei giorni passati e sopratutto molto più silenziosa rispetto alla "turbina" della Radeon R9 290X.

L'azienda di Sunnyvale ha dunque spremuto ulteriormente il processo produttivo a 28nm, aspettiamo ora la sicura risposta di Nvidia che si presenterà con una probabile GeForce GTX 790; dopo questo si guarda ai 20nm dove ne vedremo delle belle.

Un altro appunto da fare sulla Radeon R9 295X2 riguarda infine il Monitor; non sognatevi di accoppiare un monitor che non sia 4K a questa scheda perchè buttereste i vostri soldi.

Già ma quanti soldi?

AMD ci fa sapere che la nuova Radeon R9 295X2 ha un costo di 1099 Euro più IVA, in linea con due R9 290X o una GeForce GTX Titan Black, nettamente più lenta visto che viaggia più o meno come la GeForce GTX 780 Ti. La scheda sarà disponibile, per chi potrà permettersela, dal 21 Aprile. A questo indirizzo la discussione dedicata nel nostro forum.


59

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Gio

ho capito, beh mi pare una scelta corretta....solo un paio di appunti che nulla tolgono al tuo discorso....primo con quell'hw non ti godi davvero i giochi per pc, certo che il paragone è la ps4 o one, allora ok...secondo con quello speso per il mac pro retina potevi prenderti un pc con gpu che qui hanno recensito se le tue esigenze, leggi sw, lo permettevano.

Federico Fiasco

Un macbook pro con retina display, lo uso per fare foto e video editing, ma essendo anche un'appassionato gamer volevo farmi una console (o un PC ma visto quanto mi è venuto a costare il mac ho ripiegato sulla console), solo che andando su internet mi sono reso conto che la GT750M batte la PS4, quindi (almeno per ora) uso il mac (con partizione bootcamp) poi fra qualche anno mi farò la PS4.

Gio

avevo dato per scontato che intendevo 1440p con dettagli ultra o alti (per giocare bene) e vari effetti e filtri attivati....ovvio che se devo solo vedere la ris superare i 1080p lo posso fare anche con giochi di 10 anni fa ma non ha senso come cosa.
ps:che notebook hai?

Federico Fiasco

Un momenro mi hai frainteso, primo si 1800p infatti io ho un monitor a risoluzione non standard (2880x1800), seconda cosa so che 1200p dettagli medi e 30 frame non è molto se messo a confronto con un desktop, infatti io dicevo che è molto su Notebook (fatti specie se non creati per il gaming). Poi so che una GT750M non è niente se messa a confronto con le GPU Desktop ma (appunto) mi riferivo sempre ai Notebook non da gamig. Infine il mio commento era riferito al fatto che se si vuole andare oltre i 1080p non serve per forza farsi un "mostro" di GPU (o tantomeno un desktop).

seee

perche no ? un i5 4670k a frequenze stock non e cpu limited neanche con 2 gtx 780... se hai una scheda madre buona , hai le stesse prestazioni di un i7 nei giochi

Gio

due cose: primo che cosa è 1800p? intendi 1080p? se è così come fa a far girare il gioco a 1200 se poi visualizzi max a 1080p? seconda cosa...dettagli medi e 30 fps non è molto, ma manco per nulla....molto è 2556*1440p, dettagli alti (non ultra), 90 fps, e AA e AS alti (non max)....questo è molto (moltissimo è tutto a ultra) e la differenza io la noto, eccome se la noto e non ci faccio nulla con la gt750m, minimo mi serve una gtx 680 non mobile ovviamente.

Federico Fiasco

Pensa che io ho un Notebook che uso per il video e foto-editing, ha un display a 1800p con una GT750M, Battlefield lo faccio girare a 1920x1200 dettagli medi a 30 frame, solo che non uso un 'mostro' basta una scheda di fascia media anche per chi vuole molto.

Hoxygen

Gtx295 è di 5 anni fà, e in quad ancora ha un suo perchè.

È te la dan via con 100 euro o poco più.

Gio

mica son convinto sai? tempo 3 anni e visto cosa sta tirando fuori il pc anche i giochi saranno sempre piu impegnativi anche per le dualgpu.

Gio

metti un i5 e poi 2 r9290? non so se vale la pena.

Gio

chi usa questi prodotti non va in fhd, va almeno a 1440p, almeno...io ad esempio gioco con la mia attuale nvidia a 1440p e ogni tanto con tutto attivato non reggo perfettamente freme superiori ai 60 fps.
diciamo che sono prodotti per chi vuole davvero esagerare.

Gio

se scende a 800 euro tra qualche mese potrei farci un pensierino...vedremo, visto che vorrei prendere anche una console.

Federico Fiasco

io gioco a 1920x1200 dettagli medi, 30 frame medi con cali a 25 e massimi a 45, e sinceramente non ci faccio più tanto caso, però una volta ho provato a raggiungere i 60 ma non ce la facevo a giocare sotto il full HD :(

Federico Fiasco

che b4lle che spari... già si nota la differenza fra 24 e 30... per non parlare di tutto il resto che hai scritto. Se non te la puoi aggiudicare son problemi tuoi non fare il rosicone.

Federico Fiasco

GPU fantastica non c'è che dire... Ma siamo sicuri che sia utile in un contesto come quello attuale?? del resto il Full HD si è imposto solo adesso e già si parla di 4K? Si corre decisamente un po' troppo e comunque queste GPU costano decisamente troppo... sarebbe meglio prendere esempio da Intel e concentrarsi su come ridurre consumi e dimensioni invece di pompare a più non posso l'hardware. Comunque in ogni caso tanto di cappello ad AMD, perché in ogni caso è una GPU formidabile.

Nicola Manzi

seee

pensavo a un i5 4670k overclockato e un dissi ad aria o al massimo un aio...

Dartagnan92

e per noi comuni mortali questi catalyst 14.4 quando saranno disponibili? -.-

Salvatore80

secondo me è meglio tenersi sempre su un 900 watt. Soprattutto se ci alimenti altre periferiche, impianti a liquido ecc.
Ovvio, calcolando che ci metti sempre un esacore ;)

seee

sinceramente , io gioco a bf4 a 1680x1050 , a ultra e con anti aliasing a 2x , e online e sempre a 60 fps apparte qualche calo a 55-53 , e si nota molto... se sei abiutato a giocare a 60 fps , 30 fps e ingiocabile per me , 24 ... piuttosto non gioco se devo giocare a 24 fps ... viene mal di testa dopo pochi minuti..

seee

ma quindi per una r9 295x2 bastano 750w... ma per 2 r9 290x in crossfire ?

Annamaria Ventrilla

perchè con una R9 290X o 780Ti maxi tutto lo stesso..

math

Quindi non hai mai giocato con una ps3 o xbox 360 visto che gli fps massimi si aggirano sui 30. Anche su pc i giochi che arrivano a 60 fps ci saranno da circa 2/3 anni. Prima come facevi?

Ti metto un link dove c'è crysis 3 su consolo con gli fps
w w w .y o u t u b e . c o m / w a t c h ? v = M x 2 f 5 e D e M J Q

Giuseppe Federico

Beato te che nn noti la differenza risparmierai davvero un casino personalmente ho bisogno di almeno 50 fps di media per nn spaccare nulla durante la sessione di gioco causa lagg. Conta che con 50 fps medi si hanno dei minimi anche di 30fps, soglia sotto la quale è peccato mortale scendere per un videogamer

alfredol

comunque ok per il 4k, ma utilizzarla per i giochi a 1080p tutti maxati no? in fin dei conti ha solo 4 gb utilizzabili ( e non 8) con questa scheda si gioca a 1080p al massimo per un decennio almeno.... a 1080 p con tutte le opzioni al massimo crysis secondo me va ben oltre i 60 fps ....comunque considerando il sistema di raffreddamento ad acqua il prezzo a 1.300 è ottimo, va come una titan z a meno della meta e costa 300 in più di una gtx 690 che va un 50% in meno...

Christian

Se potessi darti 1000 pollici in su lo farei....

Christian

Io mi chiedo se hai mai giocato a un gioco su PC/console...Posso capire l'ignoranza in alcune cose ma quando è troppo è troppo...A parte il fatto che a 10/15 fps è impossibile giocare...dopo 5 minuti ti viene il mal di testa....e secondo la differenza tra 24 e 60 si vede parecchio...a 24 incomincia ad andare a scatti o hai un effetto scia e si mischiano le immagini a 60 è fluido (il top per giocare bene) al massimo non vedi differenza dai 60 fps in su in quanto l'occhio umano oltre i 60 fps non percepisce differenza. Se hai un buon occhio noti la differenza a step di 10 fps (almeno io la noto). Poi cosa centra i 24p dei film che non è altro che una modalità di scansione del video con gli fps nei giochi? Ti consiglio di fare una ricerca sulla frequenza dei fotogrammi su google...

Annamaria Ventrilla

ai 20nm ? lol, mai direi

Claudio M.

MAI lette tante minchiate tutte insieme.

Hoxygen

Nel senso che lo sfrutti di più ? Si infatti...

ggddghh

Lo volete capire che il guadagno del crossfiere o dello Sli lo vedi soprattutto quando hai più di uno schermo?

tivi92

cristo santo che mostro!!! pazzesca sta scheda.. prestazioni eccellenti, consumi esorbitanti e prezzo alle stelle... però che bella!!

Francesco Celadini

mah sarò l'unico ma giocare a 30 è veramente irritante
lo vedo anche senza confronti invece sopra i 50 nessun problema

Hoxygen

Assai...

Ferdix

E l'enel ringrazia

math

Intendevo 24 fps fissi (in acuni gichi è possibile limitare gli fps massimi). La vera differenza la noti da 10/15 (dove il gioco è fluido ma rallentato) ai 24 (che è la velocità dei video della tv). Anche se compri questa dopo 5 anni finisce il supporto e se non hai driver ottimizzati peri giochi anche se è ultra potente non avrai una buna prestazione (o a livello che dovrebbe)

NaXter24R

Era una battuta. Se ci pensi Crysis 3 è praticamente impossibile vederlo al massimo con 60fps costanti con scheda singola.
Ad ogni modo credimi, la differenza tra 24 e 60 è enorme, anche perchè se hai 24 di media, vuol dire che probabilmente si scende ben al di sotto, magari 15 o giu di li, e quelli danno fastidio. In certi contesti sono un enorme svantaggio, pensa al multiplayer online, essere uccisi perchè ti perdi il movimento di qualche giocatore...
Questa scheda poi è costosissima, e su questo siamo tutti d'accordo, ma spesi quei 1000€ sei a posto per 5 anni come minimo. Uno che ne spende 500 magari fra 3 o 4 anni ne spende altrettanti per fare uno sli o un crossfire e siamo sempre li come prezzi.
Poi lo so anche io che basta molto meno per giocare ma ogni persona è libera di scegliere.

Hoxygen

Un cross di queste e stai apposto per na decina d'anni almeno.

Hoxygen

E ringrazia che sono arrivati alla "nextgen" su console, sennò tu ancora a giocare porting staresti.

Luca

Lo so, purtroppo più passa il tempo più perdono valore, lo è stato per i Bitcoin ora è il turno dei Lite... Ora tutti iniziano a migrare su nuove monete di nuovo... Il sistema è stato rovinato dalle persone che volevano strafare e farne un lavoro primario con 40/50 schede o hardware realizzato ad hoc incrementando notevolmente la potenza di calcolo globale e facendo quindi perdere valore al sistema.... Insomma ormai conviene abbandonare il settore...

math

Ti riferisci al fatto che non la comprerei per raggiungere i 60 fps o che non si nota differenza tra 24 e 60 fps?

Stig's italian cousin

Mamma mia cosa hai scritto... Che vergogna per tutti coloro che giocano...

Lorenzo Copparoni

Non valgono più una cippa i Litecoin purtroppo.. Avevo un calcolatore e qualche tempo fa (max 2-3 mesi), con una R9 290, in 24h avevo un guadagno stimato di più di 5$, ho ricontrollato ieri, 1,5$ :( E infatti guardando i grafici si nota chiaramente come il valore si sia fortemente abbassato. Proprio ora che mi sta per arrivare un Accelero Xtreme IV per freddare la mia reference...

In ogni caso, bel mostro di scheda questa :O

math

Sicuramente non comprerei mai una sceda grafica del genere per raggiungere i 60 fps in un gioco, considerando che non si vede la differenza tra 24 e 60 se non li hai uno affianco all'altro. Queste schede video servono solo a fare vedere che le sanno fare e per i "folli" che vogliono la scheda grafica più potente. (poi ci sono alcune rare eccezioni )

NaXter24R

Piccola precisazione, tutti i parametri al massimo... Scalandolo si riesce naturalmente..
Gran gioco, ma richiede almeno due schede video per arrivare ai 60fps costanti.. Oppure 2000€, vedila come vuoi...:D

math

Cmq sarebbero interessanti anche delle video recensioni anche su questo argomento (schede grafiche).

math

Credo che se abbassi la risoluzione a full HD dal 4K dovrebbe arrivarci. :-)

NaXter24R

E niente oh, ancora nessuno sulla terra è riuscito a vedere Crysis 3 con 60fps :D

Fabri Fina

uddio!

HellDomz

lo so lo so, però questa consuma praticamente il doppio, e gia la r9 290x consuma + della gtx 780ti. sarà da vedere la futura gtx 790 come si comporterà come rapporto consumi /prestazioni. visto che la cifra da spedere sarà la medesima. è inevitabile che amd è messa alle corde, sia dal punto di vista del marketing che delle vendite effettive, e dal lato software nvidia ha enormi vantaggi

Terremoto a Taiwan, TSMC riprende la produzione di chip nei suoi stabilimenti

Recensione Asus ROG Swift OLED PG49WCD: che immersività!

Abbiamo rifatto la nostra workstation, ora è tutta ASUS ProArt!

Recensione AMD Radeon RX 7600 XT: mainstream ma con 16 GB di memoria