07 Maggio 2015
Ancora AMD sotto i riflettori, questa volta torniamo sull' argomento schede video perchè sul web si inizia a parlare di una nuova variante della prossima GPU Fiji XT; si tratta di Fiji VR, chip ottimizzato per la Virtual Reality, tecnologia su cui l'azienda di Sunnyvale sta lavorando e investendo molto.
A differenza della versione "classica", che in pratica equipaggerà la top di gamma Single-GPU Radeon R9 390X, Fiji VR identificherebbe una scheda Dual-GPU che sulla carta fa a dir poco impressione.
Le caratteristihce della R9 390X non sono certo un segreto, avere quindi due GPU Fiji XT sullo stesso PCB offrirebbe agli utenti una scheda grafica dalla potenza fino ad ora mai vista.
La probabile Radeon R9 395X2 avrà a disposizione ben 8192 Stream Processor e 8GB di Memoria HBM con una banda di 640 GigaByte/s per GPU. Stando alle prime stime, questa soluzione metterebbe a disposizione una potenza di calcolo di 17 TeraFLOPS, un valore impensabile fino a qualche anno fa e che, come di consueto, si farà "pagare".
E' molto probabile infatti che se AMD presenterà la scheda, questa abbia un costo di almeno 1499 dollari.
Commenti
Perche ovviamente ps4 e xone riesco a gestire giochi 4k .... ma se nn arrivano neanche al fullhd
Beati voi che avete soldi e tempo da spendere nei videogames...personalmente non vedo la motivazione di avere una configurazione hardware da 2k €, VGA da 1k, per giocare...
Se vuoi davvero giocare compra una console e scegli il gioco, almeno li tutto e' ottimizzato e per lo meno la sfrutti quella vita di mercato per cui viene creata, prima che venga sfornata la nuova.
Avrei potuto capire anni fa, quando le TV avevano risoluzioni inferiori a quelle dei monitor e quindi si preferiva l'uso del PC, ma adesso con TV SUHD a 4K (o in futuro 8K) da 40/55" e una console fatta ad hoc per i giochi, non si potrebbero avere esperienze di gioco migliori?
su quel lato amd è indietro rispetto nvidia speriamo bene col nuovo processo a 14 o 16nm
Si ma mi pare che per il gaming sia un pochino superflua XD Insomma... Ottieni ottime prestazioni con molto meno!
Mi spiace per l'esperienza che hai avuto, però non tutti i giochi scalano. Non è una giustificazione ovvio, ma i problemi ci sono da ambo le parti. AMD ha passato un periodo tragico dal punto di vista dei driver, e ti ci sei trovato in mezzo evidentemente. Oggi da quel che posso notare va meglio. Personalmente l'unico problema che ho avuto con AMD me lo ha dato la 7770, che alla fine si è rivelato essere un problema di gioventù dello z97 (un aggiornamento bios della mobo ha risolto tutto).
Poi nulla contro Nvidia o chi ha Nvidia, semplicemente, come ho detto tante volte, mi danno fastidio quelli che hanno una sola idea e vedono le cose in un solo modo. Tu almeno hai provato e puoi dire la tua, perchè comunque ti basi su qualcosa che hai effettivamente provato.
Ti ho mai raccontato di quando avevo due 7970 Dual-X in CrossFire? Non per dare ragione all'utente qui sopra, ma è stato un vero incubo... Praticamente tutti i giochi andavano meglio con una GPU, l'unico che ne traeva beneficio era Battlefield 3, sarà perché è stato sviluppato con AMD... In ogni caso all'epoca rimasi molto deluso, non è possibile spendere certe cifre e poi avere benefici su uno o due giochi al massimo.
Io non so se ho avuto sfiga o semplicemente AMD mi odia, ma per adesso (mi dispiace dirlo) mi trovo benissimo con nVidia...
Non hai tutti i torti...
Certo, ma in certi ambiti non sono rilevanti. Se fai calcoli gpgpu in OpenCL, ti accontenti di 8gb di ram non ECC una firepro non serve
mah... sono per lo più seghe mentali di chi ha poca esperienza
sempre avuto nvidia e amd da bench da games da swx, da almeno 4 anni ho sempre avuto il top di entrambe tranne la 780
ora ho per le mani un 2 290 1 290x e 1 970
black sreen più frequenti su 970 tanto per.. ma non mi ci fisso perchè da sempre non ho MAI notato superiorità eclatanti di uno o dell'altro e so che cose così sono passeggere
l'unica menata che può reggere è la storia del day one con i giochi gw.. ma anche li 80% sono sacco di c4zz4te, es.:i flashati con la storia watch dogs si dimenticano sempre che faceva schifo pure su nvidia, così tanto per 2
si, 5 anni fa
ma per piacere
E secondo te non c'è un motivo che giustifichi la differenza di prezzo tra una high end gaming come questa è una high end da lavoro?
E che te ne frega? Sono solo le prestazioni che contano
io penso arriverà quasi a 4 TF in DP
Onestamente non credo. Secondo me la prima mazzata Nvidia la prenderà con le 300 di AMD e poi prenderà una bella batosta con le 400. Quel "10 volte più veloce" detto a Pascal mi pare irreale come scenario, ma si vedrà quando usciranno.
Inoltre come ho detto prima, AMD ha fatto tante piccole cose che se ci pensi, sono tutte mirate: console, Apple, Avid, Vulkan... Se avesse un minimo di liquidità in più ne vedremo delle belle (e mai dire mai all'acquisto da parte di Samsung) secondo me. Poi sono solo speculazioni ovvio, ma le basi ci sono.
Anche il SW sta cambiando, prima era tutto su CUDA, mentre oggi l'OpenCL è in espansione continua.
Poi non ho nulla contro Nvidia ne tifo sfegatatamente per AMD, però mi da fastidio quando leggo e sento tante critiche nei suoi confronti. Molta gente parla senza aver provato. Tu hai avuto un'esperienza e ok, non penso fosse tutto da buttare. A me dan fastidio quelli che parlano di consumi, calore e prestazioni scarse senza nemmeno aver mai visto una scheda AMD di fronte a loro. Quelli che faticano a ricordarsi che la 7970 ghz era la scheda più veloce sul mercato nella generazione (anzi due) precedente.
Aspe', io mi riferivo all'iMac 2015, non ai Mac Pro. Ma comunque cambia poco. Il discorso è sempre lo stesso: Nvidia si è imposta col suo hardware e con i software che lo supportano, e sarà molto difficile per AMD riconquistare il terreno perduto.
Che contino poco le prestazioni in FP64 su OSX è vero, ma comunque, tra Kepler e Maxwell cambia poco. Inoltre Kepler continua ad avere un seguito maggiore e a conti fatti, ha più core a disposizione.
Le M poi non sono da considerare, visto che le D700 sono derivazioni dirette di schede desktop.
In ogni caso: https://www. pugetsystems. com/labs/articles/Adobe-Premiere-Pro-CC-Professional-GPU-Acceleration-502/
La W9000 che usano è una 7970/280x/D700 nella versione Firepro. La differenza non è così grande. E l'articolo è del 2013 (purtroppo non trovo nulla di più aggiornato, se hai qualcosa lo leggo volentieri) quindi il supporto su AMD non era ancora così valido. Volendo posso provare ad aggiornare Premiere e fare un test con la mia 280x, bene o male la differenza non dovrebbe essere eccessiva, anche se i miei "soli" 4 core le prendono dai 6/8 degli Xeon.
Poco contano le prestazioni FP64. In quell'ambito si fa molto uso di software fotografico o di montaggio video, e in entrambi i casi lo standard è diventato ormai il calcolo tramite CC. Se sui nuovi iMac avessero montato le nuove GTX9xxM le cose sarebbero andate molto meglio.
"a Silvio di Arcore non piace il tuo ragionamento" xD
Ne prendero un paio per un cross.
E' anche vero che le D700 hanno una potenza decisamente superiore alle Nvidia che proponeva Apple, oltre a 2gb in più, un bus maggiore, 1.4 TFLOPS in più in SP e 1/4 in FP64, quindi 875GLOPS contro 90... Il salto è stato notevole
Come ho scritto sotto, dipende da cosa devi fare. Ci sono tutti gli estremi a seconda dello scenario che metti davanti ad ogni scheda, ognuna eccelle in qualcosa e pecca in un'altra.
Poi, per quel che riguarda Adobe invece io la vedo così: dici di avere il supporto OpenCL? Bene, dammelo, non fare finta. Lo dico perchè il supporto c'è, ma non funziona. Quindi tanto vale non metterlo no? Perchè così a me sa di presa per il c---. Leggere tra le "OpenCL card" il mio chip Thaiti e veder crashare Premiere durante l'importazione del primo file video, capisci che ti fa girare gli zebedei. Piuttosto non metterlo dico io.
Dunque, buona parte dei bench vanno presi con le pinze. Non tutti, ma molti e soprattutto quelli di alcune testate vanno presi veramente con le pinze. Che si sfrutti il CUDA è un dato di fatto, così come è un dato di fatto che dipende sempre cosa devi farci. Se parliamo di Firepro contro Quadro la situazione è questa: parità in alcuni casi, Quadro che superano, di tanto, AMD e Firepro che superano di tanto Nvidia. Dipende cosa gli dai in pasto. Ogni scheda eccelle in una cosa. Paradossalmente, la mia 280x da gaming ha quasi 5 volte le prestazioni della ben più costosa e nuova Quadro M6000 in FP64. Questo è un esempio, pertanto, bisogna considerare caso per caso e analizzare caso per caso.
Caso consumi: la Firepro w9100 dai dati che ho io, arriva a 245w. La nuova M6000 Quadro invece 225. Entrambe arrivano a 95°C. Dov'è la differenza? Che AMD consuma 20w in più e rende meno in alcuni contesti. D'altra parte Nvidia ha la stessa temperatura e quasi lo stesso consumo di una scheda che ha prestazioni in FP64 di 1/2 contro gli 1/32 della M6000. E questo è male ad esempio. Quindi scegli in base a quello che devi fare.
Per quel che riguarda quelle da gaming non mi va di tornare sull'argomento. Mediamente ci sono meno di 50w per scheda di differenza, ma anche un costo inferiore. Quindi nel gaming usare il consumo come un fattore di scelta, mi pare una m1nchiata sinceramente. Posso capire il calore, ma se la gente si compra le reference o si affida a brand di seconda scelta non so cosa farci. La mia 280x Vapor-X fa 70°C in full da occata e overvoltata con le ventole che non superano il 50%, quindi non voglio sentir parlare di temperature. E questo vale per tutte le schede. Anche la Zotac 970 (il modello corto per intenderci) scalda parecchio, eppure Maxwell non dovrebbe scaldare così tanto... Di chi è la colpa? Della scheda o del dissipatore?
Su Mantle ti do ragione in parte. Non è open source ma è freeware e senza stare a disquisire sui dettagli, è comunque liberamente scaricabile ed utilizzabile. Giustamente si son tenuti l'esclusiva, come tutti del resto, ma non l'hanno vietata a nessuno. Nvidia però non l'ha considerata nemmeno di striscio e tant'è. Non penso sia un fallimento, perchè sta portando a Vulkan e perchè comunque è stato il primo assaggio di API a basso livello, con le quali si è potuto far girare molto bene dei giochi decisamente pesanti. E comunque, penso sia più utile questo che il "Dynamic super resolution" o "MSAA chiamato come pare a noi". Lo so che è diverso l'algoritmo, ma essendo per giochi vecchi, non vedo l'utilità di questa cosa sinceramente, visto che un gioco vecchio, dovrebbe girare senza il minimo sforzo su hw nuovo.
Per le dual GPU mi hai portato uno dei peggio giochi che potessi scegliere. Non dirmi che quel gioco è ottimizzato. Gira male ovunque e peggio su AMD, non per colpa della scheda. E' come se mi avessi preso Metro ad esempio, un gioco che non scala. Se hai altri dati bene, ma Dying Light mi rifiuto di commentarlo, anche perchè da quei bench, non scala (e la 290x da 6gb non esiste).
Poi che AMD sia "lenta" nel rilascio dei driver è un altro discorso. Nvidia ne rilascia uno ogni giorno più o meno, AMD uno ogni tot mesi (ufficiali, perchè i beta ci sono).
Son scelte. E come dici tu giustamente, devi adattare l'hw al gioco, ma se il gioco rema in senso opposto ci puoi fare poco, e anche questo, è un dato di fatto.
AMD ha le sue colpe, fuori da ogni dubbio, e sono il primo a cui dispiace. Però di base non c'è fair play diciamo. Ci sta farsi i dispetti, tipo lanciare una scheda un mese prima di un'altra per accaparrarsi il mercato, ma quello di dare giochi a metà no. Piuttosto fateli esclusivi Nvidia. AMD dalla sua ha sempre dato tutto a tutti, vedi Mantle, però Nvidia non ne ha voluto sapere. Onestamente non ricordo nessun gioco AMD che andasse male su Nvidia (BF4 a parte ma è un'altro discorso quello, la colpa è di EA) mentre il 90% di quelli Nvidia danno problemi a chi ha AMD.
Stesso discorso per i monitor. Alcuni col G-Sync hanno problemi con schede AMD, per dire. Molto simpatici.
Le cose però penso cambieranno, con Vulkan sarà un'altra storia, perchè le DX12 ci sono per tutti è vero, ma le console sono a metà, One con le DX e PS4 avrà invece Vulkan. Tutto questo è molto interessante e porta solo vantaggi a noi. AMD è la base delle console e moltissimi titoli sono dei multi e giocoforza devono essere ottimizzati su GCN invece che su CUDA.
Ma il bello è anche Adobe utilizza molto i CC. Tutti gli utenti Apple con i quali ho parlato hanno manifestato la loro contrarietà alla scelta operata da Apple. Inserire a forza delle schede AMD non è stata una grande idea, specialmente per tutti quei professionisti il cui lavoro girava intorno alla tecnologia Nvidia.
Purtroppo però Nvidia è più a contatto con le software house (che poi ha liquidità per pagarle, riuscendo a mettere i bastoni tra le ruote ad amd, come è successo per WD se non ricordo male, è un altro paio di maniche) e ciò le permettere di non avere praticamente problemi nello sviluppo software, al contrario di Amd che si vede preclusa varie parti di codice.
A malincuore ora il mercato gira così, Nvidia sovrapprezza le proprie schede video, lemosinando sulle prestazioni, ma riesce comunque ad avere la maggior parte del mercato rispetto a AMD per il nome che si è costruita nel tempo. Di contro AMD dovrebbe velocizzare i tempi; non puoi presentare delle nuove schede video ben 9 mesi (prendendo giugno come mese di riferimento) dopo l'uscita delle gpu rivali.
nelle mie poche esperienze, vedevo contare cosa serviva. Senza andar lontano ho visto tempo fa' le quadro massacrare le firepro nello stesso ambiente. Non so cosa dicano i banch, ma i software usati sfruttavano i cuda e neanche arrivavano ad usare il 40% la potenza data dall'OpenCL. in ambito lavorativo credo che prima di dire "puuuuuuutente" valga ancora la regola cuda vs OpenCL dettata dal sw. AMD e apple probabilmente darà i suoi frutti in ambiti dove apple ha influenza (leggi Adobe ad esempio), negli altri.. bho, io non me ne intendo molto, ma più che teraflop e bench a me interessa quanto ci mette una scheda a calcolarmi una simulazione o renderizzarmi un progetto.
Anche questo è vero.
Era ovvio. Non ti piace parlare da solo?
la colpa non è di AMD ma delle "tangenti" nvidia anche se ti ripeto a dettagli MAX @1440p tutti i giochi "nvidia" male che andava li giocavo a 30FPS
intanto a momenti proverò GTA V, vediamo come gira
Va bene per un pc da "mostra" :P
L'alimentatore da 30€ va benissimo in idle. Poi se apri un programma richi che salti per aria, ma finchè ti limiti a guardare il desktop va tutto bene xD
Firepro: a me i bench dicono altro. Soprattutto in FP64. Inoltre l'idea di iniziare a collaborare con Apple, nonostante non sia un fan di Cupertino, è sicuramente un vantaggio. Senza contare che si sono accordati con AVID.
Mantle: parliamo di API open source, non proprietarie e liberamente sfruttabili. Nvidia non le ha considerate di striscio, ma avrebbero potuto farlo. Trovi tutti i codici online senza problemi. E non è stata abbandonata, tutto quello che c'era di buono lo hanno passato su Vulkan.
Per il dual GPU non penso di aver detto una cosa sbagliata, anzi. Ad oggi le dual gpu sono la Titan Z e la 295x2. Una è ad aria, va forte, ma scalda e costa. L'altra costa la metà, va praticamente uguale, esce occata di fabbrica ed è a liquido, qualcosa da vero enthusiast e non due schede messe li a caso giusto per sparare un prezzaccio.
Per il Corssfire e lo SLI in genere invece il problema è più nei giochi che altro. Prendi Metro, puoi mettergli tutte le GPU che vuoi ma non scala nemmeno sotto tortura. Prendi Tomb Raider e scala senza problemi. Dipende da chi e da come viene fatto il gioco.
Infine l'ottimizzazione, è vero, non ci si puo fare nulla, ma questa cosa è tutto tranne che bene
Mi spiace dirtelo, ma hai scritto una serie di inesattezze.
Allora, prima di tutto non è vero che le FirePro sono superiori alle Quadro; secondariamente, non credo sia vero neppure il fatto che AMD si stia concentrando di più nel settore professionale, visto che, mi spiace dirlo, sta letteralmente scomparendo anche da lì: il settore GPU è praticamente in mano a Nvidia, che con le sue Quadro e Tesla ha il dominio incontrastato, e anche in ambito CPU server non fa altro che prendere bastonate da intel. Inutile inventarsi scuse. AMD sta fallendo su tutti i fronti.
Inoltre è inutile uscirsene con la storia delle mazzette, quando è proprio AMD la prima a pagare svariati milioni di $ a EA e DICE per implementare Mantle in BF4 e altri titoli. Capirai che affare... pure AMD ha abbandonato quella tecnologia.
Se il mondo è ottimizzato per intel e Nvidia noi non possiamo farci niente. Noi vogliamo solo giocare bene, e l'unico modo per farlo decentemente (oggi) è prendere intel + Nvidia, c'è poco da fare.
Inoltre affermare che AMD vince nel settore delle schede Dual GPU è piuttosto azzardato. Lo scarso supporto software, in particolare del CrossFire, dei driver AMD è ben noti a tutti. Prendere una dual GPU AMD è un vero e proprio incubo, parola di un ex possessore di una 5970.
Lol mi immagino la scena! Nel mio ho un cm v850...Ho deciso di star largo e anche di aver un buon alimentatore. Spendere 2000 euro di pc e prendere un ali da 30 euro e' una scemenza. i7 4790k e 2 strix 970, la pace dei sensi.
Sempre piu' d'accordo...Quando in forum chiedono una cfg (qui su hdblog intendo) Si finisce sempre in discussioni del genere e si valuta senza pregiudizio. Non si deve morire dietro al brand, non ha senso.
Il problema è sempre il solito... visto che il programma nvidia gameworks comporta l'impossibilità di accedere al codice prima che il gioco venga rilasciato, AMD non può rilasciare dei driver ottimizzati al day one.
Poi però passano un paio di mesi e, come per magia, spesso le AMD vanno più forte delle nVidia di pari fascia... peccato che le recensioni e le analisi delle varie testate giornalistiche vengano fatte subito dopo la release.
piu o meno 11 volte la potenza delle console di adesso :P
Bisognerebbe dirlo a certi recensori. "budget gaming rig" e bum ti sparano il 4460 di Intel su una H81 del piffero assieme ad una 960 con le ram del discount. Bravo, son buono anche io a farlo così.
Invece se cedi un minimo lato CPU ti prendi un FX 6xxx, e solo qui son 50€ risparmiati. Poi ci metti una 280 o anche una 290 visti i prezzi, al posto della 960 e se sei bravo ci fai stare anche un SSD. E volendo giochi in 4k sulla tv se ne hai una. Quello è un acquisto sensato.
Invece se ne vedono di ogni, dal Pentium G (bellino, ma due core sono e due rimangono, chiedere a chi ha FC4) all'i3, alla 750ti quando ci poteva stare una 270x... Sono quelle le cose che non concepisco.
Posso capire che il sistema top monti Nvidia, lo capisco benissimo, ma far spendere alla gente dei soldi alla caqqo di cane no.
La teoria che hanno in molti è "perchè così se ne hai uno del piffero 750w bastano". Non credo. Io ne ho provato uno del piffero da 1000w sulla mia 280x (2x8pin) e sai cosa succede in full? Si spegne xD
550w sono ampiamente sufficienti anche per la 290x (Matrix esclusa). Arrivi a 500/520w con un 4790k occato e la scheda occata, e sono valori di picco e di full totale, quindi ci stai dentro senza problemi.
Per altre schede come la Matrix invece, penso che se hai una di quelle l'alimentatore è l'ultimo dei tuoi problemi a livello di budget.
Ci sono cose migliori delle GPU per i bitcoin
lo capissero anche i "fan boy di qualsiasi cosa" saremmo a cavallo
farming bitcoin
Perfetto, ci siamo capiti :D
Concordo. Certo che se prendi un AlimentatoreCina_750watt_300w.reali non bastano. Chissà chi le scrive quelle vacccate.
ma io lo dico sempre ed è il faro che mi guida: qualsiasi discorso che non tenga conto di budget, esigenze e destinazione d'uso è senza senso a priori ;)
Non e' che gioco solo in base all'ottimizzazione, sarebbe un dramma :P Sono d'accordo con quello che ha scritto NaXter24R in un commento poco sopra e del resto hai detto anche tu: dipende dal budget. Nel mio caso potevo star largo e ho fatto uno sli di 970. Se avessi speso "poco" (come dice lui sotto gli 800) sicuramente non avrei scelto una 960.
Lascia perdere. Se l'alimentatore è buono, 550w sono ampiamente sufficienti con la scheda overvoltata. E ancora hai margine
Dopo meno di un anno la 295x2 la trovavi sotto i 700€. E se ci pensi non è una cifra impossibile
Sempre più d'accordo. Anche io ho avuto un'esperienza simile alla tua, e ora la penso esattamente come te. ;)
Nvidia smazzetta pesante sui giochi e le sw house. AMD è più concentrata in altri settori dove le Firepro sono notevolmente superiori alle Quadro (e costano meno).
Nvidia si sta specializzando sulla pura grafica, AMD contiua con i soliti invece.
Personalmente non mi piace la chiusura di Nvidia, non mi piace quando fanno i giochi che sono si ottimizzati per le loro schede, ma vanno da cani su AMD, e non perchè manchi potenza, ma perchè spesso c'è qualcosa dietro (vedi Watch Dogs dove non hanno dato intere parti di codice).
Tolto questo, ad ognuno il suo. Fascia bassa e media AMD tutta la vita. Fascia alta Nvidia. Dual GPU su unico PCB AMD.
Comunque al di la di tutto, penso che il problema grosso sia uno: i recensori. Ovunque guardi tutti quanti consigliano e parlano di Nvidia e AMD non se la fila nessuno, quando pure un sasso sarebbe d'accordo nel dire che per un PC normale, con un costo sotto gli 800€, una 280 è una soluzione decisamente più conveniente di una 960.