Tutti i prezzi sono validi al momento della pubblicazione. Se fai click o acquisti qualcosa, potremmo ricevere un compenso.

AMD Vega 10: le prime schede professional entro fine anno

29 Settembre 2016 119

Visti i recenti rumor sui piani di Nvidia per il 2017, nonchè sull'ipotetico lancio della GeForce GTX 1080 Ti, non sorprende più di tanto che AMD (di sicuro indirettamente) abbia voluto in qualche modo farsi sentire, cercando di far tornare l'attenzione sulla sua prossima architettura Vega.

Secondo l'ultimo report di fudzilla.com, AMD e il Radeon Technologies Group proporranno la prima scheda grafica con GPU Vega 10 entro questo anno, questo almeno per il segmento Professional.

Ovviamente che AMD presenti ufficialmente l'architettura Vega non significa che sia in condizioni di metterla subito in vendita; più probabile è una disponibilità sul mercato nel Q1 2017.

Successivamente arriveranno le schede consumer e si scontreranno con la Nvidia Titan, GTX 1080 Ti e l'eventuale refresh di Pascal a 14nm.

Nella sua versione di punta, Vega 10 sarà accoppiata a 16GB di memoria HBM2, un punto di vantaggio da questo punto di vista rispetto al competitor; vedremo i benefici che questi chip super veloci offriranno alle schede AMD.


119

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Ale

Furmark va seguito solo nella scelta dell'alimentatore, perché più di così una scheda non può cosnumare/scaldare.. e in questo particolare caso l'ho tirato in ballo per farti capire che appunto non è plausibile che la 1060 consumi più in gioco che in Furmark, e che, ese la la fury per tutti i recensori consuma più di 300w in Furmark ma in quel magico sito consuma meno.. significa che forse quel sito dice ca**ate. Perché questi consumi non sono nemmeno vagamente allineati a ciò che dice il resto del mondo! Quindi se danno valori sbagliati non ha senso seguire ciecamente le loro recensioni, riguardo ancora alla cosa dei driver si, teoricamente è possibile, ma al lato pratico AMD appena ha cambiato chip ha mandato le vecchie gen in legacy. Questa è la spiegazione più semplice. Che fanno gli easter egg nei driver? Scopri da te quali migliorano e quali no? Se migliorassero qualcosa l'avrebbero scritto. Sarebbe tutta pubblicità in più per loro.. e poi son io che dico assurdità.. tu dici "tutto può accadere", ti ostini a non vedere che quel sito mette online dati dubbi (come minimo) e contraddittori (appunto il fatto che secondo loro la 1060 consuma più un game piuttosto che in Furmark, e mi sembra già grossa come Contraddizione) e sono io che dico assurdità? Il punto è che io non sto dicendo meglio nvidia di AMD.. sto dicendo che se invece di consigliare la fury nitro avessi consigliato una 480 dual fan (che ha consumi nella norma e dimensioni simili alle dual fan 1060 di cui l'utente chiedeva info) sarebbe stato un consiglio decisamente migliore.. non sto dicendo meglio X o Y.. sto dicendo che non conosci nemmeno i prodotti che osanni e consigli. E detto ciò davvero.. basta.. se non vuoi capire che AMD non è una onlus, e che se non sai che PC ha una persona non puoi consigliare una scheda totalmente diversa da quella per cui si informa, se ancora dici che il TDP e i watt assorbiti sono la stessa cosa, e He i giochi in fullhd maxati consumano sui 2,5GB di vram.. davvero basta.. ci rinuncio perché si vede che hai poco raziocinio e tanta fede cieca.

E poi son io che dico assurdità.. non Pe so che tu sia stupido, sua chiaro.. penso che non ascolti(leggi) con obiettività.. io non ne facevo una questione di marchio, ma criticava il tuo modo di dar consigli in quanto chi consiglia deve farlo con cervello. Saluti!

Il nabbo di turno

Ma furmark non va seguito, non ha mai dato una reale indicazione sul consumo di una scheda.
Che sia una amd o nvidia, con furmark i valori sono sballati perchè si tratta di un power virus, e prestazionalmente parlando non è neanche un bench.

Ah beh, ci ostiniamo a dire che, se una cosa non c'è scritta, significa che non può accadere, nonostante ci sia il supporto dei driver, e nonostante si parli di architetture molto simili, sempre gcn è.

E infatti:
https://wwwredditcom/r/Amd/comments/5310nv/latest_witcher_3_benchmark_with_crimson_driver/

Ma cos'è l'utente?Non è un essere senziente?Non riesce a verificare da solo se il suo case non ci sta una scheda lunga 31 cm(come se dei case gaming mAtx o Atx non supportassero tali schede)Ma quando la smetti di dar assurde motivazioni sul perchè scegliere questa marca invece di questa?

Ale

Sì.. ciò non spiega come mai in tutte le altre recensioni la fury faccia oltre 300w in furmark e non spiega nemmeno come mai in quel magico sito la 1060 secondo loro consumi di più in gioco che in furmark.. fare copia incolla ha dimostrato che non hanno specificato nulla sull'AA usato.. perché molti siti dicono "testato al massimo del dettaglio" e poi sono conservativi su alcuni filtri tipo MSAA.. è come guardare i test delle nvidia su tom's hardware, che potranno fare anche 20fps in meno ma saranno sempre le migliori.. e comunque quella review fa riferimento alla strix e non alla nitro. Ah e come mai sapphire consiglierebbe alimentatori da 750w se davvero avesse questi consumi? Che poi bisogna vedere se si prende la media dei consumi o il picco, bisogna vedere in quali scene del gioco (alcune sforzano più di altre) sono state usate.. e sono io che faccio finta di non vedere? Certo.. continua pure a pensarlo se vuoi, ma ti ripeto: in futuro prima di consigliare qualcosa prendi più informazioni (che poi è questo il punto centrale del discorso anche se poi tu l'hai buttata in caciara con valori errati e confusione sul concetto di TDP e di watt assorbiti e recensioni quanto meno dubbie)

Il nabbo di turno

Guarda, sulla 1070 mi ricordavo male, però non è che 2 settimane fa era sotto i 400 euro, giusto ora si inizia a trovare sui 380.
Vai a chiedere a chi si è preso una 1070 a settembre quanto l'ha pagata....

"Metro: Last Light is the sequel to Metro 2033. Published by Ukrainian game studio 4A Games, it is set in the same post-apocalyptic future as its predecessor, where mankind tries to survive in the underground of Moscow's Metro. The story takes you through claustrophobic tunnels where you fight both humans and mutants. Each step takes you closer toward revealing a dark future and the possibility to prevent it.

Just like in the last title, the 4A Engine is used. It fully supports DirectX 11, Tessellation, and PhysX. We tested at the highest details with PhysX turned off."

Basta cercare, se poi tu non hai voglia, perchè questo è solo far finta di non vedere, problemi tuoi.

Ale

Certo va bene hai ragione tu, la 1060 e la r9 fury nitro consumano pochi watt di differenza, i giochi a settaggio medi fanno impegnare la scheda video allo stesso modo dei giochi a settaggio massimi avendo gli stessi consumi in watt assorbiti, il TDP e i watt assorbiti solo la stessa cosa e tra una fury a 311 euro e una 1070 a 378 euro ci sono 100/150w di differenza.. ah.. e le schede consumano pure di più in game rispetto a quanto consumano un fumare chiaramente.. hai ragione su tutto, buona giornata.

Il nabbo di turno

Certo che per guardare i bench di arkham knight ce ne vuole, va bene che è stato patchato, ma non è mai stato un bench di riferimento per nessuno....

Se non sono affidabili guru3d e techpowerup, siti top per quanto riguarda le review sull'hw, assieme ad anandtech, direi che qui possiamo darci alla pazza gioia con la soggettività, e far passare questo per quello.

Che poi, in una build nuova, che limiti ci sono?Non siamo mica in pc oem, con alimentatori, mobo e case ridicoli.
Nel mondo degli assemblati fai da te, sopra la fascia degli 800 euro, non ci sono questi limiti, a meno di non cercare un ITX, ma è una nicchia particolare.
E questo discorso lo potrei fare anche con le 1060 triventolate come l'asus strix.

hammyboy

ovviamente intendevo 480, ho scritto male sopra! la 980 costa molto meno ora ma sempre troppo.

Ale

Peccato che i chip di cui parli non sono "grandi uguali" e non hanno nemmeno lo stesso voltaggio o lo stesò numero di transistor. Riguardo al link bisogna vedere i settaggi.. io parlo di giochi maxati.. anche arkham Knight che in fullhd supera perfino i 5.5gb di memoria utilizzata se maxato arrivando a picchi di 5.8gb se lo metti a settaggi normali finisce per consumare meno vram e far impegnare meno la scheda con conseguente calo dei consumi medi (si ora dimmi che è un portino fatto male.. ma tanto il punto non è questo, è che ho citato uno dei giochi più esosi in termini di risorse richieste e con una delle grafiche migliori in circolazione) Ma la fury in fullhd i giochi li tiene maxati quando la vram lo consente.. dunque quel link lascia il.tempo che trova in quanto usa giochi con settaggi fatti da loro e che nemmeno si degnano di comunicare. Lo dimostra anche il fatto che qualunque altra recensione sulla fury nitro (e non strix) da come picco da 300w in su nel furmark ad esempio..

Giusto per dirne una.. il sito di cui posti articoli nella review della 1060 strix mostra consumi più alti in game rispetto al furmark.. giusto per dare un'idea di quanto è affidabile.. da quando una scheda consuma di più in gioco che in furmark? XD dai su.. va bene tutto, AMD si sta impegnando molto e tutto ciò che vuoi.. ma inventarsi consumi di sana pianta è consigliare una scheda che richiede particolari componenti "di contorno" (case, alimentatore, ventilazione) ad un utente che non hai la minima idea di che PC abbia, e che soprattutto chiede informazioni su una 1060 (quindi dovrebbe far presupporre che si orienta su schede piccole, performante e fresche) è 1 errore gigantesco. Per quanto ne sai potrebbe avere un case con ventilazione insufficiente, o un alimitatore poco permissivo, o avere un mid tower senza gabbia rimovibile (e quindi dei mostri di 30 e rotti cm non ci stanno)

Il nabbo di turno

Tralasciando il discorso hbm, che consumano meno anche perchè richiedono meno voltaggio delle classiche gddr5, il fulcro della questione è che 2 chip, con lo stesso voltaggio, a parità di grandezza, per ottenere la stessa temperatura hanno bisogno dello stesso dissipatore.

Che poi nvidia possa ottenere risultati migliori di amd a parità di grandezza non ci piove, questione di architettura, ma se prendiamo 2 chip con lo stesso voltaggio, i consumi e calore generato sarà lo stesso.

https://www techpowerup com/reviews/ASUS/R9_Fury_Strix/29.html
Solo con furmark si ottengono valori sopra i 250w, ma di picco in game, con metro ll, che leggero non è, e soprattutto anche lui è un gioco dotato di una buona sezione di filtri, anche perchè è un titolo nvidia oriented, si ottiene 226w, che è in linea con quanto si vede con gli altri game.

Ale

Ma il TDP non lo possiamo calcolare noi.. noi (e i recensori) possiamo solo misurare quanti watt la scheda consuma. Il TDP è quanti watt di calore la scheda immette nell'aria, e non è dato sapere in che momento e con che carico di lavoro i produttori misurano questo dato, oltre che con quali metodi, ambienti ecc.. e poi spiegami una cosa.. che c'entra il.voltaggio? Quello più sale e più fa aumentare i watt Cnsumati, ma non sapendo come le aziende calcolano il TDP non puoi dire di quanto aumenta con l'aumentare del voltaggio, per questo il TDP lascia il tempo che trova perché il mio cryorig r1 universal dovrebbe dissipare efficacemente ben oltre 200w.. ma quando porto il mio i5 a consumare anche solo 100w le temperature non sono così rose e fiori.. dunque ti ripeto: lascia perdere il TDP che sono dati indicativi.. prendi i consumi reali ( in metro Last Light che é un gioco bello pesante la fury nitro fa 280w (se poi misuri su giochi come fifa grazie che fa 220w, perché pesa pochissimo come gioco) e se dovessimo prendere giochi come TW3 o GTA5 consumerebbe ancora di più in quanto impegnano di più la.scheda grafica.. difatti in stress test fa 330w a 1050mhz di frequenza. E con tutto che ha le hbm che consumano poco, quindi quel consumo è la maggior parte proveniente dal chip.

Il nabbo di turno

Su una cosa hai ragione, che il tdp lo esprimono le aziende con metodi di misurazione diversi, ma non si può ignorare il voltaggio, e quindi i consumi stessi.
Più il voltaggio è alto, e più aumenta il calore da dissipare e i consumi.

Questo non lo si può ignorare, e non puoi battertela sempre con la definizione precisa di tdp se ignori il significato di voltaggio.

Ale

"Ipotizzando che watt assorbiti e TDP siano cose diverse"?? Non é un'ipotesi, scrivi su Google "TDP cos'è" e ti verrà scritto che è una misura del calore, e non dei watt assorbiti, e sappi che ogni azienda lo calcola a c***o suo, quindi vale quanto i Dba di chiara ti sulle ventole che compri.. ti prego documentati.. stai sbagliando di grosso.

Il nabbo di turno

Si dai, detto da te che affermi che la gtx 1060 stia sui 100w in game.

Ipotizzando anche che, tdp e watt assorbiti siano cose diverse, c'è comunque una questione di voltaggio assorbito, e li non ci si scappa, più è alto maggiori sono i consumi, e maggiori sono le temp.
Ego, maggiore sarà il calore da dissipare, tdp.

Ale

Ripeto: leggiti la differenza tra watt assorbiti e TDP. Sono cose diverse e il TDP nelle recensioni non viene mai quantificato.. non sono storielle è la verità.. sono cose diverse tra loro, il.fatto di essere misurate in Watt entrambe non significa che siano la stessa cosa. Detto ciò se ti ostini a definirli identici e a negare l'evidenza alzo le mani.. pensa quel che ti fa più comodo.

Il nabbo di turno

I consumi in game sono quelli, oscillano sui 200/220w(asus strix techpowerup game average e peak) , o al massimo sotto i 250w nel caso della nitro overcloccata.

Si dai, 120w neanche la reference, su guru3d sta a 134 la fe, e di solito le custom fanno sempre qualche watt in più, 100w neanche nei sogni più belli dei dirigenti nvidia.

E poi basta c@zzo con la storiella del tdp per disorientare la gente, quella scheda in un utilizzo NORMALE, e specifico NORMALE, non power virus tipo furmark, hanno consumi e calore inferiori o all'estremo dei casi in linea con quanto dichiarato.
Che poi nvidia il suo tdp te lo dichiara in game con reference molto conservative lato voltaggio, e infatti la gtx 970 solo da loro lavora sotto i 150w di tdp, mentre negli altri test, siamo sempre sopra quanto dichiarato, anche se di poco.

458 speciale

Come detto: babbei. Con la fissa per le INUILI E COSTOSE hbm2 hanno detto a nvidia "accomodati" quando potevano cacciar fuori una fury aggiornata a gcn4 con 3500sp a 1200mhz e gddr5x a 400 euro battagliando senza remore con una 1070 ed andando meglio dai 1440 in su e/o con filtri pesanti. La segatura hanno al posto del cervello

Ale

I consumi di vram che stai dicendo sono totalmente sbagliati. E chi ha mai provato a maxare qualcosa sul fullhd concorda con me, altro che rari casi, e giochi che consumano 2-2.5gb di vram.. maxati ne richiedono molta di più già in fullhd..

70/75° le definisci temp medie? Abbiamo decisamente opinioni discordanti allora.. una scheda che fa queste temperature in ambiente test (20-25° temp ambiente) e con banco benchmark (quindi non un case chiuso) per me è da scartare.. se in ambiente controllato e favorevole fa 70-75° in ambienti reali e magari anche in estate che fa? Diventa un elicottero? Io ho una 1070 AMP extreme e con 24° in casa e ventole al minimo (30%, intorno ai 1000rpm) non l'ho mai vista superare i 50°c nemmeno in stress test. Queste sono "ottime temp". Temp medie sono già 60/65°.. ma 75 non me le puoi definire medie o addirittura ottime senza suscitare disappunto.

Ancora una volta confondi TDP e Consumo in watt (watt assorbiti).. infatti in game consuma 280w questa fury nitro..e in stress test sta sui 330w. La 1060 consuma 120w di picco in stress test e in game sta sotto i 100w.. anche qui i 70/80w di differenza non so dove tu li abbia presi (come i 100/150 euro di differenza con la 1070 del resto..) sapphire raccomanda alimentatori da 750w giusto per dirtelo 1 altra.. e per finire se questa scheda entra o meno nel case dell'utente non puoi saperlo senza chiederlo (dal momento che chiedeva informazioni x una dual fan il dubbio che non abbia un case enorme DEVE sorgere) che esistano asus a 3 ventole si, ma se chiede info su una dual fan due domande van fatte invece di consigliare il rosso sempre e comunque. E senza nemmeno conoscere il prodptto di cui parli tra l'altro (vedi le differenze di prezzo fasulle che diceci con la 1070, vedi i consumi fasulli che hai detto nel post dopo, vedi la co fusiine tra TDP e watt assorbiti (e nin è la prima volta, molto spesso confondi questi due valori) detto cio: hai sbagliato su tutta la linea.. eccetto forse sull'alimentazione, li hai sbagliato meno, se sapphire raccomanda un 750w e la scheda ha 330w di picco devi valutarne almeno altri 200 x il resto del sistema (stando larghi) e arrivi a 550, vuoi un po di sicurezza in più, e vuoi evitare di caricare l'alimentatore troppo? allora prendi un 600w. Ma è il minimo questo.. dato che sapphire stessa consiglia 750w (probabilmente per star dietro alla curva di efficienza massima dell'alimentatore medio in circolazione) detto ciò spero che l'utente in questione si sia documentato da se invece di seguire alla cieca il tuo consiglio.. lo spero per lui almeno..

Il nabbo di turno

Sono temp medie, non è che sia una brezza, ma si vede di molto peggio, 70 °c in game per un chip abbastanza potente a 28 nm come quello non è male.

Io non credo che 4gb andranno a cozzare più di tanto in full hd, a parte in rari casi dove si sta sui 3gb(tomb raider), i restanti giochi odierni hanno un consumo nella norma(2-2.5 gb in full hd maxed out), ma anche in qhd non è che si consumi molta più vram.

Ok che consuma 70/80w in più della 1060, ma in una build nuova, o comunque chi è munito di un ali discreto da 500/550w non si fa problemi a reggere una fury.
Che poi la lunghezza è un problema un po' per tutte, di 1060 con 3 ventole ne esistono....

NaXter24R

Ripeto, col fatto che le HBM son entrate in produzione questa estate, e AMD lo sapeva, era inutile accelerare i tempi di Vega. Tanto Nvidia sta temporeggiando con Volta e AMD penso che non avesse alcun interesse nel far uscire una scheda ad un prezzo spropositato solo per combattere contro una 1080

Il nabbo di turno

Dipende, alla fine molti case ormai supportano schede lunghe 30 o più cm, inoltre come temp è una scheda che al massimo registra 70 °c con furmark, quindi non è a rischio temp alte.

Il vantaggio di quella scheda è la forza bruta, in condizioni ideali, è una spanna sopra alle 480/1060 6/8gb, schede che costano la stessa cifra.

Il nabbo di turno

La fury nitro ha ottime temp, e non è che il suo tdp sia stellare, sono circa 220w, 40w in più di una 980 reference a pieno carico.
Al momento, per 310 euro, è il meglio che ci prendi in quella fascia, poi chiaramente se uno ci può spendere quei 100/150 euro in più c'è la 1070, e li si alza l'asticella, ma nel range dei 300 euro, la fury è il meglio che ci prendi, è un chip con molta forza bruta.

Il discorso vram poi è tutta una questione di fattori come risoluzione, tipo di giochi, filtri, multimonitor ecc...
Non penso che in full hd, anche maxed out con giochi tipo bf1, si vada ad usare più di 3gb di vram.

Ale

Sempre che ci stia nel case.. e sempre che la temperatura a casa sua non superi i 25° perché in estate con 35+° in casa voglio proprio vederla senza areazione più che adeguata nel case.. (e non intendo solo una ventola frontale, una posteriore e una top che è la ventilazione standard per un PC da gioco di buona fascia) come prestazioni chiaramente non c'è paragone con la 1060, ma se lè aspettative sono il fullhd.. cambia ben poco (basta abbassare MSAA e la 1060 va come un treno a quella risoluzione, così come la 480) per me non ha senso tirarsi in casa dei mostri di calore se si vuol stare sul fullhd. 480/1060 sono più azzeccate.

Ale

Concordo.. ciò non toglie però che il suo commento non attuale se aggiornato resta quasi plausibile.. tralasciando la.reperibilità di 480 e 1060, si trovano 1060 6gb a meno di 480 8gb in media costa sui 30 euro in meno (sempre sul trovaprezzi) per quanto riguarda le 980ti si, sono ottime alternative, ma sulle fury non mi ci butterei.. 4gb hbm e un chip che scalda che è un piacere.

Ale

È rimasto deluso anche chi si aspettava una 980 alla metà del prezzo a dirla tutta

Ale

Ti ricordo che le prime pascal in assoluto ad essere presentate e commercializzate son state le tesla.. solo dopo (a distanza di poco comunque) hanno presentato e commercializzato 1080 e 1070. Il punto qui è che si, presenteranno le prime schede nel 2016, ma in commercio quando? E poi Vega ritarderà fino a giugno nella peggiore delle ipotesi, o aprile nella migliore.. vedendosela con pascal refresh (praticamente la 1170 sarà l'attuale 1080 e così via, come fu per gtx 600 e gtx 700) quindi se la 490 è fatta per andare quanto la 1070.. si ritroverete di fatto a lottare con la 1080 sulla stessa fascia di prezzo (e voglio vedere poi il risultato) e quando poi l'anno dopo il refresh lo farà AMD ci sarà Volta.. a meno che non saltino il refresh, ma significherebbe tenere i chip in vendita per pochissimo tempo in confronto alla concorrenza, e guadagnare meno.

Alexv

Non tutti possono espandere la memoria.

NaXter24R

E invece le dispersioni contano. Non è tanto una questione di calore ma di stabilità. Dare 1.5v e avere 1.48v effettivi è un conto. Darne 1.5 e averne 1.4 è un altro. Il voltaggio ai VRM arriva comunque e se questi lo erogano ma il chip lo disperde, ciao ciao OC spinti. Però come dicevo, è un discorso che vale con LN2 o simili. Ad acqua o ad aria, che tu abbia un asic del 60% o del 90%, non cambia assolutamente nulla, a parità di fortuna del chip. L'asic e l'overclock di per se, non sono legati a meno che tu non spinga la GPU a livelli molto ma molto alti.

Riguardo a Kepler, ottima architettura, ma comunque, se escludi il lato CUDA con programmi proprietari e quindi non paragonabili a nulla al di fuori di Nvidia, è comunque sotto a GCN per molte cose. AMD era molto indietro con i driver al tempo ed è venuta fuori solo dopo purtroppo

smn_lrt

Non so come sia la situazione adesso però già da un po di anni fa avevo visto che il cuda è usato dentro matlab quasi in modo trasparente...nel senso che il codice matlab è interpretato, dichiaro variabili array o matrici anche sparse in modo da fargli usare il cuda, e fine...quando chiamo le funzioni tipo fft o altro si arrangia lui in base ai parametri che gli passo a capire se usare cuda o no (nel senso che hanno fatto tutte le funzioni di base per supportare il GPGPU)...senza specificare altro, i nomi delle funzioni e i parametri sono gli stessi di un codice eseguito su CPU....per AMD invece non c'è supporto dall'alba dei tempi, siccome le librerie saranno scritte in cuda c/c++ non sono compatibili...forse anche perché son due architetture diverse...l'unica soluzione sembra essere tramite una libreria che usa openCL ma ho visto che si lamentano in tanti perché bisogna conoscere OpenCL ed è una forzatura...non è trasparente come per Nvidia...si può usare anche con schede geforce

Ubro92

Il voltaggio dipende dall'architettura, che poi pp inferiori possano ridurlo è un discorso a parte...
Se dai 1.5-1.6v su una gpu come kepler si presume che tu sia se non sotto liquido ma ad azoto, quindi li ti importa poco del calore e delle dispersioni di corrente che invece proprio per quest'ultimo tornano utili asic bassi in modo da tirare su voltaggi alti ed evitare di murare molto prima...

Poi kepler è diverso strutturalmente sia da GCN che Maxwell, dal punto di vista ingegneristico è qualcosa di fenomenale dato che presenta un architettura molto complessa che aveva ancora margine, infatti in origine fu pensato per integrare fino a 3840cc ma ovviamente, molti limiti ingegneristici sopratutto per il bus che aumentarlo fino a 512bit sarebbe stato qualcosa di mostruoso e costoso, che tra l'altro avrebbe comunque portato a dei limiti di banda, infatti 780 e 780ti anche se hanno una banda superiore a 770 in realtà per come sono organizzati i GPC la banda è identica e ciò infatti è stato un grosso limite che richiedeva driver scritti ad hoc, infatti anche in OC era facilmente visionabile nei bench come l'oc delle memorie portasse miglioramenti anche superiore allo stesso oc del core...

Ale

Il piano aziendale non è in discussione.. è in discussione il fatto che il ritardo sia colpa delle HBM2.. Cos asecondk me non vera visto che AMD ha la priorità su nvidia, e se nvidia ha potuto far uscire le tesla parecchi mesi fa.. direi che AMD le HBM2 per rispondere le aveva.. e se ritardano è colpa loro. La ripresa delle azioni comunque non dipende solo dagli utili, dipende da tanti fattori (non tutti legati direttamente al denaro) certo, vendere fa bene alle azioni ma non è l'unica cosa che ne influenza il valore

NaXter24R

Penso che abbiano fatto così proprio per le HBM. Nel senso, dato che non sarebbero comunque state disponibili, avranno allungato un po i tempi per concentrarsi anche su altri ambiti.
Poi la scelta sembra pagare, la valutazione di AMD è aumentatae si stanno anche riprendendo dall'aumento di capitale per sanare alcuni debiti. Quindi direi che come piano aziendale i risultati non siano stati malvagi

NaXter24R

Aspetta, il voltaggio è relativo al PP, all'architettura e poi ai VRM. Per intenderci, a parità di PP, spetta poi ai VRM. AMD per esempio ha VRM decisamente migliori di Nvidia, la ci fai passare non dico quello che vuoi, ma se li tieni freschi, quasi. Maxwell è molto diverso da Kepler, mentre Kepler è più simile al GCN (come configurazione dei core), quindi ci fai passare più voltaggio se vuoi senza ucciderlo.
Detto questo, quando lo alzi, e parlo di LN2 o simili, la perdita aumenta esponenzialmente. Tu dai 1.5v per dire, e di effettivi ne hai 1.4, quindi non solo stai dando più corrente di quello che ti serve, ma quello 0.1v causa instabilità e temperature superiori. A livelli normali invece, quindi aria o liquido, tutta sta differenza non c'è, anzi...

Ale

Ecco quindi il ritardo è di AMD, non è come dicevi prima che non ci sono hbm2 e quindi se fossero uscite ora con le poche disponibili la 490 la paghi 1500€.. e le liquidità contano fino ad un certo punto.. stiamo parlando comunque di una multinazionale, ricordiamolo sempre.. (e tra l'altro con crescite di bilancio negli ultimi tempi)

Ubro92

Ovvio che la sua misurazione valga per qualsiasi chip, ma va valutata anche l'architettura stessa e dalla sua dipendenza da determinate tensioni...

Kepler era un chip estremamente complesso, potremmo dire un carro armato in grado reggere anche tensioni superiori a 1.30-1.35volt senza murare e li l'asic era fondamentale anche se a liquido la situazione si inverte in quanto asic estremamente bassi permettono una maggior tolleranza a tensioni ben superiori anche a 1.60-1.65...

Ma Maxwell e Pascal, hanno un archiettura molto piu efficiente ed affinata che punta proprio sul contenimento dei consumi e in grado di lavorare a tensioni basse, infatti in OC anche prendendo schede di un certo calibro in termini di circuteria murano decisamente prima il che rende l'asic completamente inutile e passa in secondo piano...

Il nabbo di turno

Non c'è peggior sordo di chi non vuol sentire allora.

lorenzo1222

E invece hai visto i prezzi delle rx 480? La loro reperibilità?

NaXter24R

Sempre dal sito AMD. Considera che ci son due driver, i WHQL che sono gli stabili ed i Beta. Se crashi con i beta è normale non preoccuparti. Quando disinstalli i driver usa display driver uninstaller e segui la procedura, in questo modo fai una installazione pulita ogni volta ;)

Il nabbo di turno

Sto commento lo potevi fare 2 mesi fa, al lancio, adesso è proprio fuori luogo.

Basta fare un giro su trovaprezzi, che poi, osservando bene, non si trovano solo le varie 1060/480 6/8gb, ma anche prodotti come la fury(310 euro) e la 980 ti(spesso sotto i 400 euro), che sono un po' più performanti delle nuove 480 o 1060.

NaXter24R

Il punto è che Vega ha finito la fase sperimentale un mese fa. AMD si è concentrata su Polaris e onestamente credo che in futuro si vedrà il vero potenziale di queste schede, soprattutto in ambito mobile.
Calcola che AMD non ha la liquidità di Nvidia ed ha comunque altri fronti, ha lavorato sulle console, sta lavorando su Zen, hanno tirato fuori le Radeon Pro (le nuove FirePro basate su Polaris), evidentemente hanno pensato che sia giusto così

lorenzo1222

Io non discuto la bontà della scheda. All'inizio AMD sbandierava la sua scheda come una nuova fury a basso prezzo. 220-250 euro, bellissimo, la prenderei ad occhi chiusi una scheda del genere. Peccato che a 260 si trovi solo una reference da 4gb che se la batte con una 970. AMD a mio parere è stata troppa ottimista con sé stessa ed è stata ammanettata da Nvidia con la sua 1060. Basta vedere il prezzo di quest'ultima e la reperibilità, la 480 sta diventando un fantasma.

NaXter24R

L'ASIC vale per qualsiasi chip. Più è alto il valore minori sono le perdite di corrente. E ripeto, perdite di corrente. Se il chip mura, lo fa a prescindere dall'Asic

NaXter24R

Vero, ma la Titan X Maxwell è fuori da un anno e mezzo. Questa Pascal probabilmente non dura nemmeno un anno. Vale la pena a questo punto? Ok che come dici tu puoi ammortizzarla in 6 mesi, ma son 6 mesi di guadagno in meno quando si potrebbe semplicemente aspettare Volta, concordi?

MR TORGUE

non particolarmente, a parte il quantitativo di VRAM.

il mio è un puro riferimento alle notizie "shock" clickbait di schede che fanno una miriade di teraflops, senza specificare la precisione, in più con mezzo miliardo di GB HBM2.

tutti articoli che fanno sucire dalle tane gli enthusiast AMD che con una minigun caricata a M***a sparano su tutto ciò ce non è "Rosso AMD".

Non tanto perchè potrei "tifare" l'altra marca, ma perchè mi sta sul c*lo questo metodo di fare notizia

italba

Tutti i portatili che ho visto hanno uno sportellino per poter accedere alla memoria, basta un cacciavite!

hammyboy

e credi che la versione non pro sara' molto diversa? ( ram a parte? )

hammyboy

è rimasto deluso chi si aspettava una 1080 a 150€... è una buona scheda.

Misha

Considera che è un portatile di 10 pollici, quindi non ha la possibilità di modifica dell'hardware, poi sto chiedendo se è possibile e cosa comporta ..

MisterWU

La maggior parte delle vendite di TITAN e nel mondo pro: sviluppo giochi/VR, realtime multimedia ecc. Sia per il reparto grafica per quello ricerca e sviluppo.
Noi ne abbiamo appena cabiate 8.

Per chi usa software proprietario e sottostà a la mafia dei driver certificati vuol dire fanno lavori che una GPU pro la ammortizzano in 6 mesi.
È come dice il nostro amministratore: se questa cosa non la puoi ammortizzare in 12 mesi al massimo vuol dire che non ne hai bisogno.

Gonzo

le cose vanno testate prima,mica possono fare l'errore della 480

MisterWU

Per il mercato le hbm2 potevano anche non metterle non serviranno praticamente a nulla.Solitamente una carta PRO viene usata per fare calcoli pesanti e l'incidenza del tempo di carica in memoria dei dati é in % bassissimo rispetto al tempo computazionale, non é un gioco che dove si deve avere 90fps fissi per la VR caricando vagonate di geometrie e texture a velocità immaginabili.
Ma visto le attuali lacune che hanno sarà una delle sole carte marketing che avranno da giocarsi per attirare i polli.

Recensione Asus ROG Swift OLED PG49WCD: che immersività!

Abbiamo rifatto la nostra workstation, ora è tutta ASUS ProArt!

Recensione AMD Radeon RX 7600 XT: mainstream ma con 16 GB di memoria

Acer Predator, nuovi laptop in arrivo. C'è anche un monopattino! |VIDEO