12 Maggio 2014
Dopo i rumors e le numerose informazioni trapelate nei giorni scorsi, debutta ufficialmente oggi la nuova punta di diamante di casa AMD per il segmento schede video consumer desktop, parliamo della Radeon R9 295X2 nome in codice "Vesuvius". Chi ci segue ogni giono saprà sicuramente che si tratta di una soluzione Dual-GPU, e che, come ormai succede sempre negli ultimi periodi, mira a collocarsi direttamente al top del mercato come schede singola più veloce mai presentata.
Nel corso della settimana passata vi abbiamo dato qualche anticipazione riprendendo i vari rumors che circolavano online, ovviamente avevamo la scheda in laboratorio ma come facilmente potete immaginare non potevamo svelare o confermare le specifiche tecniche per chiari motivi di NDA.
Nell'articolo di oggi riusciremo finalmente a vedere la potenzialità di questo nuovo e interessante prodotto.
Caratteristiche Tecniche - Descrizione
Ma veniamo al concreto. Con la Radeon R9 290X, nonchè con la sorella minore R9 290, AMD aveva già dato un forte colpo alla fascia alta del segmento delle schede grafiche, proponendo una GPU potentissima (parliamo del chip Hawaii) e con buoni prezzi; ricordiamo infatti che Nvidia è dovuta subito correre ai ripari abbassando il costo della GeForce GTX 780 e presentando la più potente GTX 780 Ti.
La Radeon R9 295X2 è in pratica una Dual R9 290X e quindi in concreto non introduce novità a livello di architettura, mantenendo la tanto proficua ed efficiente GCN (Graphic Core Next); siamo però davanti a un vero mostro di potenza da 11,5 TeraFlops che già sulla carta non ha rivali. Per averne conferma passiamo subito a vedere le specifiche tecniche:
In questi casi i compromessi non servono, e a testimonianza di questo troviamo infatti un TDP di ben 500 Watt con doppio connettore di alimentazione PCI-E 8pin e sistema di dissipazione a liquido. Le altre features, 12.4 Miliardi di transistor, 5632 Stream Processor, 8GB di Memoria GDDR5 ecc, sono una chiara conseguenza delle due GPU Hawaii XT configurate in CrossFireX sullo stesso PCB.
Sulla frequenza operativa delle GPU dobbiamo dire che in realtà siamo leggermenti sorpresi. Visto che la R9 290X opera a 1000 MHz infatti, ci aspettavamo un CrossFireX leggermente downcloccato; con ben 1018 MHz invece AMD ha evidentemente voluto fare le cose in grande.
Proprio per questo sul TDP e l'alimentazione non potevamo che aspettarci numeri di questo tipo; già la Radeon R9 290X è una scheda piuttosto esigente, quindi i due connettori a 8 Pin sono obbligatori, così come un alimentatore di qualità da almeno 900/1000 Watt e capace di erogare 28 Ampere per ogni connettore PCI-E 8pin.
Anche se parliamo di dissipazione dobbiamo fare un piccolo salto indietro alla Radeon R9 290X. Quando AMD svelò la scheda infatti ci furono diverse critiche sulle elevate temperature di esercizio che si riscontravano con dissipatore reference, non molto efficiente ma soprattutto troppo rumoroso ad elevati regimi rotativi (opzione inevitabile per abbassare le temperature della GPU). AMD rispose che il chip Hawaii era in grado di operare senza problemi in quel range (parliamo di 95 °C), fornendo inoltre un avanzato sistema di gestione della tecnologia PowerTune (più dettagli quì).
Sappiamo tutti però che con le soluzioni custom dei partner il problema non si pone, e a tal proposito basta leggere la nostra ultima recensione sulla recente Sapphire R9 290 Tri-X OC.
Avendo in questo caso a che fare con due GPU Hawaii XT, l'unica scelta logica era quindi quella di una soluzione a liquido. Per essere più precisi, AMD ha optato per un sistema ibrido, un cooler All-In-One targato Asetek per le due GPU (partner già visto in occasione del lancio del Processore FX 8150), e un dissipatore "classico" con ventola per Memorie e VRM al quale si aggiunge un backplate e top in alluminio per ottimizzare al massimo lo smaltimento del calore.
La Radeon R9 295X2 è, come tutte le schede grafiche high-end, decisamente generosa in dimensioni ma allo stesso ottimizzata nel design. Considerando a priori la presenza del radiatore da 120mm (che andrà montato sull'apposita griglia della parete del case perpendicolare alla scheda), troviamo una lunghezza totale di 30,5 millimetri e un design a doppio slot; neanche tanto esagerata quindi se pensiamo alle caratteristiche finali del prodotto.
Viste le caratterisitiche base vediamo ora qualche immagine più dettagliata:
Per avere un idea delle dimensioni della scheda eccola a confronto proprio con la Sapphire R9 290 Tri-X OC:
Piattaforma di Test e Prestazioni in Game
Fatte le dovute premesse passiamo ora alla parte più interessante dell'articolo, quella relativa ai test sul campo. Prima però diamo uno sguardo alla piattaforma hardware utilizzata per i test:
Vista la natura del prodotto non abbiamo ritenuto utile inserire schede video poco potenti nella nostra prova; per questo motivo trovete il confronto con la Radeon R9 290X e la Nvidia GeForce GTX 780 Ti; purtroppo al momento non avevamo a disposizione una GeForce GTX Titan Black da inserire nei grafici.
Ecco invece i titoli adoperati per misurare le performance:
- 3DMark 2013
- Aliens vs Predator
- Bioshock Infinite
- Battlefield 4
- Crysis 3
- Far Cry 3
- Metro last Light
E' quasi inutile ribadire che con la Radeon R9 295X2 sarebbe inutile utilizzare un monitor Full-HD, per questo motivo tutti i giochi saranno testati a 3840 x 2160 pixel grazie al monitor Dell UltraSharp UP2414Q.
A seguire i risultati ottenuti nei vari test che di certo non si prestano a particolari interpretazioni:
Overclock - Temperature - Consumi
Per quanto riguarda l'overclock non abbiamo voluto esagerare (oltre a non avere molto tempo a disposizione per cercare i settaggi ottimali), tuttavia in modo abbastanza veloce siamo riusciti a salire di circa 100 MHz sulle GPU e 240 MHz sulle Memorie. Con questi settaggi riusciamo ad ottenere circa 5-6 FPS in più in un titolo come Aliens vs Predator a 3840x2160 pixel.
Per la nostra prova AMD ci ha fornito la suite Catalyst 14.4 Beta 1, versione che almeno per il momento non ci permette di gestire le due ventole; non sappiamo attualmente se con le future versioni questo settaggio sarà possibile, ma possiamo affermare che il cooler si comporta in maniera davvero ottima (tenete conto che il nostro test è stato svolto su banco.)
Vi lasciamo infine con il grafico relativo ai consumi in game che conferma senza dubbio i dati rilasciati da AMD relativi al TDP.
Conclusioni
L'ennesimo capitolo della "saga" AMD Hawaii e Graphic Core Next ha dato di sicuro un esito che tutti ci aspettavamo; in questi casi la matematica non lascia scampo ad equivoci e due Radeon R9 290X montate sullo stesso PCB non potevano che dare vita a un mostro di potenza come la Radeon R9 295X2 "Vesuvius". Sulle prestazioni non c'è da discutere, soprattutto se pensiamo che con driver ottimizzati le performance miglioreranno notevolmente, così come sui consumi che non potevano essere di certo contenuti.
AMD ha però fatto sicuramente un ottimo lavoro sulla dissipazione, per niente sottodimensionata come si vociferava nei giorni passati e sopratutto molto più silenziosa rispetto alla "turbina" della Radeon R9 290X.
L'azienda di Sunnyvale ha dunque spremuto ulteriormente il processo produttivo a 28nm, aspettiamo ora la sicura risposta di Nvidia che si presenterà con una probabile GeForce GTX 790; dopo questo si guarda ai 20nm dove ne vedremo delle belle.
Un altro appunto da fare sulla Radeon R9 295X2 riguarda infine il Monitor; non sognatevi di accoppiare un monitor che non sia 4K a questa scheda perchè buttereste i vostri soldi.
Già ma quanti soldi?
AMD ci fa sapere che la nuova Radeon R9 295X2 ha un costo di 1099 Euro più IVA, in linea con due R9 290X o una GeForce GTX Titan Black, nettamente più lenta visto che viaggia più o meno come la GeForce GTX 780 Ti. La scheda sarà disponibile, per chi potrà permettersela, dal 21 Aprile. A questo indirizzo la discussione dedicata nel nostro forum.
Commenti
ho capito, beh mi pare una scelta corretta....solo un paio di appunti che nulla tolgono al tuo discorso....primo con quell'hw non ti godi davvero i giochi per pc, certo che il paragone è la ps4 o one, allora ok...secondo con quello speso per il mac pro retina potevi prenderti un pc con gpu che qui hanno recensito se le tue esigenze, leggi sw, lo permettevano.
Un macbook pro con retina display, lo uso per fare foto e video editing, ma essendo anche un'appassionato gamer volevo farmi una console (o un PC ma visto quanto mi è venuto a costare il mac ho ripiegato sulla console), solo che andando su internet mi sono reso conto che la GT750M batte la PS4, quindi (almeno per ora) uso il mac (con partizione bootcamp) poi fra qualche anno mi farò la PS4.
avevo dato per scontato che intendevo 1440p con dettagli ultra o alti (per giocare bene) e vari effetti e filtri attivati....ovvio che se devo solo vedere la ris superare i 1080p lo posso fare anche con giochi di 10 anni fa ma non ha senso come cosa.
ps:che notebook hai?
Un momenro mi hai frainteso, primo si 1800p infatti io ho un monitor a risoluzione non standard (2880x1800), seconda cosa so che 1200p dettagli medi e 30 frame non è molto se messo a confronto con un desktop, infatti io dicevo che è molto su Notebook (fatti specie se non creati per il gaming). Poi so che una GT750M non è niente se messa a confronto con le GPU Desktop ma (appunto) mi riferivo sempre ai Notebook non da gamig. Infine il mio commento era riferito al fatto che se si vuole andare oltre i 1080p non serve per forza farsi un "mostro" di GPU (o tantomeno un desktop).
perche no ? un i5 4670k a frequenze stock non e cpu limited neanche con 2 gtx 780... se hai una scheda madre buona , hai le stesse prestazioni di un i7 nei giochi
due cose: primo che cosa è 1800p? intendi 1080p? se è così come fa a far girare il gioco a 1200 se poi visualizzi max a 1080p? seconda cosa...dettagli medi e 30 fps non è molto, ma manco per nulla....molto è 2556*1440p, dettagli alti (non ultra), 90 fps, e AA e AS alti (non max)....questo è molto (moltissimo è tutto a ultra) e la differenza io la noto, eccome se la noto e non ci faccio nulla con la gt750m, minimo mi serve una gtx 680 non mobile ovviamente.
Pensa che io ho un Notebook che uso per il video e foto-editing, ha un display a 1800p con una GT750M, Battlefield lo faccio girare a 1920x1200 dettagli medi a 30 frame, solo che non uso un 'mostro' basta una scheda di fascia media anche per chi vuole molto.
Gtx295 è di 5 anni fà, e in quad ancora ha un suo perchè.
È te la dan via con 100 euro o poco più.
mica son convinto sai? tempo 3 anni e visto cosa sta tirando fuori il pc anche i giochi saranno sempre piu impegnativi anche per le dualgpu.
metti un i5 e poi 2 r9290? non so se vale la pena.
chi usa questi prodotti non va in fhd, va almeno a 1440p, almeno...io ad esempio gioco con la mia attuale nvidia a 1440p e ogni tanto con tutto attivato non reggo perfettamente freme superiori ai 60 fps.
diciamo che sono prodotti per chi vuole davvero esagerare.
se scende a 800 euro tra qualche mese potrei farci un pensierino...vedremo, visto che vorrei prendere anche una console.
io gioco a 1920x1200 dettagli medi, 30 frame medi con cali a 25 e massimi a 45, e sinceramente non ci faccio più tanto caso, però una volta ho provato a raggiungere i 60 ma non ce la facevo a giocare sotto il full HD :(
che b4lle che spari... già si nota la differenza fra 24 e 30... per non parlare di tutto il resto che hai scritto. Se non te la puoi aggiudicare son problemi tuoi non fare il rosicone.
GPU fantastica non c'è che dire... Ma siamo sicuri che sia utile in un contesto come quello attuale?? del resto il Full HD si è imposto solo adesso e già si parla di 4K? Si corre decisamente un po' troppo e comunque queste GPU costano decisamente troppo... sarebbe meglio prendere esempio da Intel e concentrarsi su come ridurre consumi e dimensioni invece di pompare a più non posso l'hardware. Comunque in ogni caso tanto di cappello ad AMD, perché in ogni caso è una GPU formidabile.
pensavo a un i5 4670k overclockato e un dissi ad aria o al massimo un aio...
e per noi comuni mortali questi catalyst 14.4 quando saranno disponibili? -.-
secondo me è meglio tenersi sempre su un 900 watt. Soprattutto se ci alimenti altre periferiche, impianti a liquido ecc.
Ovvio, calcolando che ci metti sempre un esacore ;)
sinceramente , io gioco a bf4 a 1680x1050 , a ultra e con anti aliasing a 2x , e online e sempre a 60 fps apparte qualche calo a 55-53 , e si nota molto... se sei abiutato a giocare a 60 fps , 30 fps e ingiocabile per me , 24 ... piuttosto non gioco se devo giocare a 24 fps ... viene mal di testa dopo pochi minuti..
ma quindi per una r9 295x2 bastano 750w... ma per 2 r9 290x in crossfire ?
perchè con una R9 290X o 780Ti maxi tutto lo stesso..
Quindi non hai mai giocato con una ps3 o xbox 360 visto che gli fps massimi si aggirano sui 30. Anche su pc i giochi che arrivano a 60 fps ci saranno da circa 2/3 anni. Prima come facevi?
Ti metto un link dove c'è crysis 3 su consolo con gli fps
w w w .y o u t u b e . c o m / w a t c h ? v = M x 2 f 5 e D e M J Q
Beato te che nn noti la differenza risparmierai davvero un casino personalmente ho bisogno di almeno 50 fps di media per nn spaccare nulla durante la sessione di gioco causa lagg. Conta che con 50 fps medi si hanno dei minimi anche di 30fps, soglia sotto la quale è peccato mortale scendere per un videogamer
comunque ok per il 4k, ma utilizzarla per i giochi a 1080p tutti maxati no? in fin dei conti ha solo 4 gb utilizzabili ( e non 8) con questa scheda si gioca a 1080p al massimo per un decennio almeno.... a 1080 p con tutte le opzioni al massimo crysis secondo me va ben oltre i 60 fps ....comunque considerando il sistema di raffreddamento ad acqua il prezzo a 1.300 è ottimo, va come una titan z a meno della meta e costa 300 in più di una gtx 690 che va un 50% in meno...
Se potessi darti 1000 pollici in su lo farei....
Io mi chiedo se hai mai giocato a un gioco su PC/console...Posso capire l'ignoranza in alcune cose ma quando è troppo è troppo...A parte il fatto che a 10/15 fps è impossibile giocare...dopo 5 minuti ti viene il mal di testa....e secondo la differenza tra 24 e 60 si vede parecchio...a 24 incomincia ad andare a scatti o hai un effetto scia e si mischiano le immagini a 60 è fluido (il top per giocare bene) al massimo non vedi differenza dai 60 fps in su in quanto l'occhio umano oltre i 60 fps non percepisce differenza. Se hai un buon occhio noti la differenza a step di 10 fps (almeno io la noto). Poi cosa centra i 24p dei film che non è altro che una modalità di scansione del video con gli fps nei giochi? Ti consiglio di fare una ricerca sulla frequenza dei fotogrammi su google...
ai 20nm ? lol, mai direi
MAI lette tante minchiate tutte insieme.
Nel senso che lo sfrutti di più ? Si infatti...
Lo volete capire che il guadagno del crossfiere o dello Sli lo vedi soprattutto quando hai più di uno schermo?
cristo santo che mostro!!! pazzesca sta scheda.. prestazioni eccellenti, consumi esorbitanti e prezzo alle stelle... però che bella!!
mah sarò l'unico ma giocare a 30 è veramente irritante
lo vedo anche senza confronti invece sopra i 50 nessun problema
Assai...
E l'enel ringrazia
Intendevo 24 fps fissi (in acuni gichi è possibile limitare gli fps massimi). La vera differenza la noti da 10/15 (dove il gioco è fluido ma rallentato) ai 24 (che è la velocità dei video della tv). Anche se compri questa dopo 5 anni finisce il supporto e se non hai driver ottimizzati peri giochi anche se è ultra potente non avrai una buna prestazione (o a livello che dovrebbe)
Era una battuta. Se ci pensi Crysis 3 è praticamente impossibile vederlo al massimo con 60fps costanti con scheda singola.
Ad ogni modo credimi, la differenza tra 24 e 60 è enorme, anche perchè se hai 24 di media, vuol dire che probabilmente si scende ben al di sotto, magari 15 o giu di li, e quelli danno fastidio. In certi contesti sono un enorme svantaggio, pensa al multiplayer online, essere uccisi perchè ti perdi il movimento di qualche giocatore...
Questa scheda poi è costosissima, e su questo siamo tutti d'accordo, ma spesi quei 1000€ sei a posto per 5 anni come minimo. Uno che ne spende 500 magari fra 3 o 4 anni ne spende altrettanti per fare uno sli o un crossfire e siamo sempre li come prezzi.
Poi lo so anche io che basta molto meno per giocare ma ogni persona è libera di scegliere.
Un cross di queste e stai apposto per na decina d'anni almeno.
E ringrazia che sono arrivati alla "nextgen" su console, sennò tu ancora a giocare porting staresti.
Lo so, purtroppo più passa il tempo più perdono valore, lo è stato per i Bitcoin ora è il turno dei Lite... Ora tutti iniziano a migrare su nuove monete di nuovo... Il sistema è stato rovinato dalle persone che volevano strafare e farne un lavoro primario con 40/50 schede o hardware realizzato ad hoc incrementando notevolmente la potenza di calcolo globale e facendo quindi perdere valore al sistema.... Insomma ormai conviene abbandonare il settore...
Ti riferisci al fatto che non la comprerei per raggiungere i 60 fps o che non si nota differenza tra 24 e 60 fps?
Mamma mia cosa hai scritto... Che vergogna per tutti coloro che giocano...
Non valgono più una cippa i Litecoin purtroppo.. Avevo un calcolatore e qualche tempo fa (max 2-3 mesi), con una R9 290, in 24h avevo un guadagno stimato di più di 5$, ho ricontrollato ieri, 1,5$ :( E infatti guardando i grafici si nota chiaramente come il valore si sia fortemente abbassato. Proprio ora che mi sta per arrivare un Accelero Xtreme IV per freddare la mia reference...
In ogni caso, bel mostro di scheda questa :O
Sicuramente non comprerei mai una sceda grafica del genere per raggiungere i 60 fps in un gioco, considerando che non si vede la differenza tra 24 e 60 se non li hai uno affianco all'altro. Queste schede video servono solo a fare vedere che le sanno fare e per i "folli" che vogliono la scheda grafica più potente. (poi ci sono alcune rare eccezioni )
Piccola precisazione, tutti i parametri al massimo... Scalandolo si riesce naturalmente..
Gran gioco, ma richiede almeno due schede video per arrivare ai 60fps costanti.. Oppure 2000€, vedila come vuoi...:D
Cmq sarebbero interessanti anche delle video recensioni anche su questo argomento (schede grafiche).
Credo che se abbassi la risoluzione a full HD dal 4K dovrebbe arrivarci. :-)
E niente oh, ancora nessuno sulla terra è riuscito a vedere Crysis 3 con 60fps :D
uddio!
lo so lo so, però questa consuma praticamente il doppio, e gia la r9 290x consuma + della gtx 780ti. sarà da vedere la futura gtx 790 come si comporterà come rapporto consumi /prestazioni. visto che la cifra da spedere sarà la medesima. è inevitabile che amd è messa alle corde, sia dal punto di vista del marketing che delle vendite effettive, e dal lato software nvidia ha enormi vantaggi