Radeon VII di AMD batte la GeForce RTX 2080 nei primi benchmark

30 Gennaio 2019 244

A circa una settimana dal lancio, AMD Radeon VII approda sul database 3DMark confermando prestazioni superiori alla GeForce RTX 2080, sua diretta avversaria nella fascia di prezzo dei 699$. Durante la presentazione al CES di Las Vegas, il CEO AMD, Lisa SU, aveva dichiarato che la Radeon VII garantisce performance superiori alla controparte NVIDIA (RTX 2080), affermazioni che almeno per il momento sembrano trovare conferma.

Va precisato che il 3DMark è un benchmark sintetico, un indicatore delle prestazioni assolute delle GPU che spesso non riflette le reali differenze prestazionali nei giochi. Detto questo però, i primi risultati apparsi sul database 3DMark vedono in vantaggio la nuova Radeon VII, sia nei test base che in quelli 4K più impegnativi.


Ricordiamo che Radeon VII utilizza la prima GPU costruita con processo produttivo a 7nm, un chip Vega 20 dotato di 3840 Stream Processor, affiancato a 16GB di memoria HBM2 con bus a 4096 bit e una banda passante di 1TB/s. Tornando ai numeri, sul database sono apparsi diversi risultati, test dove la Radeon VII fa segnare una media di 27587 punti nel 3DMark Fire Strike e 6871 in Fire Strike Ultra 4K (parliamo di Graphic Score). Per avere un veloce riferimento, una GeForce RTX 2080 custom overcloccata ha una media di 26800 e 6430 punti.

La Radeon VII non viene perfettamente rilevata dal software, nel dettaglio dei test viene rilevata una GPU AMD con 16GB di memoria.

Le differenze non sono abissali, tuttavia la nuova top di gamma AMD promette di dare battaglia a NVIDIA, almeno nella stessa fascia di prezzo. Per il momento quindi AMD fa segnare un punto a suo favore, il tutto in attesa delle prime recensioni indipendenti che mostreranno il vero divario nei giochi.

Per maggiore chiarezza riportiamo i vari risultati con tanto di link al database 3DMark:

Oggi uno dei migliori acquisti nella fascia media? Huawei Mate 10 Pro, in offerta oggi da Amazon Marketplace a 359 euro oppure da ePrice a 623 euro.

244

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Jhon Thali

Beh.... Inutili fino ad un certo punto eh. Insomma il ray tracing ok che è ancora molto acerba come tecnologia anche se è migliorata molto dall'uscita. Inoltre il dlss con i giochi a venire sarà piuttosto utile. Sinceramente speravo in AMD ma se la differenza è 100€ a parità di prestazione e Nvidia ha in sé tecnologie migliori, direi che a sto punto si va di Nvidia

Jhon Thali
Candido dessanti

Non ho esperienza con AMD, ma l'impressione da quello che si legge in giro è che per forza di cose non limiti quanto nVidia (pensavo che non limitasse affatto)

Alessandro

Intendi che AMD non castra via driver le prestazioni gpgpu? Lo fa invece, meno di Nvidia ma comunque lo fa

Gark121

E poi si scoprí che a pari potenza bruta, pari driver, pari brand e pari tutti la 2080 in 4k va come o meglio della 1080ti pur avendo 3gb di vram in meno in qualunque gioco.
Ram allocata =/= ram necessaria. Altrimenti il mio fisso con 12gb di ram occupata (di cui 6-7 saranno cache) con solo 4 schede di Firefox aperte significherebbe che Windows è inutilizzabile con meno di 16 gb di ram. La realtà è solo che avendone 48 precarica cose per velocizzare i caricamenti...

Gark121

Nella produttività, a quanto so, le amd non si battono.
Beh, a quanto sai, sai male. Entra in uno studio di progettazione, in uno studio di computer grafica, in uno studio cinematografico dove si fa post produzione, e dimmi se vedi qualcosa di diverso da Nvidia quadro, Nvidia quadro e Nvidia quadro.
Poi cerca qualcuno che faccia machine learning, e scoprirai che usano Nvidia tesla, Nvidia tesla e Nvidia tesla.
Amd nel settore "pro" vero praticamente non esiste, e per una valida ragione. Se io compro oggi X mila euro di gpu, e ho bisogno di 1 anno e mezzo di aggiornamenti di driver e software per sfruttarla al pieno, beh, ho buttato i soldi nel cesso

Gark121

Perché l'unico che ha pubblicato numeri reali su quante schede sono tornate indietro (chiaro, campione parziale e limitato di un singolo venditore, ma pur sempre più realistico di "il mio amico ha detto" ), ha evidenziato una difettosità assolutamente normale sulla 2080 e leggermente più alta del normale solo sulla ti, e questo mesi fa (quindi con le primissime schede inevitabilmente più difettose).

Gark121

Stavo guardando il video per capire dove fosse il trucco, ed era già scritto nel titolo: Vega 64 OC vs 2080 stock. Lol.
La 2080 con un buon cooler, ad aria, potrebbe fare tranquillamente 200mhz in più di quelli che vedi nel video (consumando tra l'altro un bel 100W in meno nonostante l'oc), e quindi circa il 10% di fps in più, raggiungendo la differenza che viene solitamente evidenziata dai siti seri.
Poi se 15fps valgono o no la spesa, dipende, ma prima ancora di poter valutare se qualcosa vale o non vale la spesa, bisognerebbe imparare a contare. 690-480 a casa mia fa 200€, non 300-400. Poi boh magari la matematica è cambiata di recente...
Detto ciò, se 500€ è il tuo budget, la 2080 e la radeon VII costano uguale, e non rientrano nel tuo target. Il tuo budget impone di scegliere tra 1080, Vega 64 e 2070, che costano tutte e 3 uguali, vanno tutte e 3 uguali (circa), ma una delle 3 potrebbe anche usare il DLSS e le altre due no. Perché dovresti volere la Vega?

Gark121

Le touring sono chiaramente figlie dell'assenza di concorrenza: non ha senso per Nvidia fare un vero balzo in avanzi in potenza (visto che è già avanti), e quindi ha cercato una soluzione per portarsi un vantaggio lato feature, aumentando la pressione su amd e i prezzi.
Non è una scelta che in alcun modo "favorisce" l'utente, ma è abbastanza comprensibile a livello aziendale. Ricordiamo che né Nvidia né amd sono delle ONLUS....
Se uno ha soldi da spendere per provare qualcosa di nuovo, bene, altrimenti può tranquillamente tenersi Pascal fino alla prossima generazione, almeno per quello che riguarda 2070/2080/2080ti.
Diverso il discorso per la 2060, che imho è qualità/prezzo superiore alla concorrenza anche valutando 0 sia il ray tracing che il DLSS.

Candido dessanti

si in effetti c'è anche questo aspetto da considerare, ma non mi pare AMd faccia come nVidia; sarebbe carino poter avere schede con 16gb in quella fascia di prezzo

Dea1993

ammetto che è figo ma in uno sparatutto online è inutile... nel single player può avere senso ma anche lì te lo guidi solo nei momenti tranquilli e in un fps non sono molti... i un gdr come the witcher invece te lo godresti tantissimo

Luigi24

Se devo essere sincero a me le vega non hanno mai convinto, come ora non mi convincono queste Touring che sembrano solo delle schede buttate lì per lanciare queste nuove tecnologie a prezzi alti per vedere come va

Saverio Giudice

utilissimo vedere il riflesso sull acqua mentre ti sparano da tutte le direzioni.....

Alessandro

Chiaro, ma generalmente gli utenti cercano il compromesso migliore, salvo alcuni, per me queste schede sono rivolte a risoluzioni 1440p, vero che in 4k non sono nulla di speciale e rappresentano un'acquisto decisamente poco lungimirante. Quindi a livello di banda ha senso tutta quella memoria se vogliono dare una dimostrazione di forza, anche perché con navi che non è ancora pronta la scelta era tra questa e il nulla, e di fro te a Nvidia che apre le porte al freesync dovevano fare qualcosa per contrastare, la variante 8gb avrebbe avuto un impatto totalmente diverso a livello d'immagine, perché sarebbe banalmente una Vega 64 con frequenze poco più alte e quindi prestazioni poco superiori, sarebbero stati uccisi dalle critiche

Gark121

amd fan boy detected....

1) paragoni due gpu dai requisiti di un gioco nemmeno uscito, credo dica già tutto dello zero assoluto che capisci sull'argomento.
2) Forza 4, un gioco notoriamente molto amd friendly la 2080 sta completamente in un'altra categoria lo stesso, ma è vero che la vega ha un 10% di incremento sulla 2070 e distrugge la 1080 (non ti, la ti sta pari fino al QHD e sopra in 4k). 1 gioco. https://uploads.disquscdn.c...

3)Deus ex... 5 fps? 92 - 74 a casa mia fa 18 LOL (se intendi in 4k, la 2080 ha 12fps di vantaggio... che fanno un incremento di quasi il 30% dai 38 della vega 64) https://uploads.disquscdn.c...

4) shadow of the tomb raider... cosa? AHAHAHAHA https://uploads.disquscdn.c...

sinceramente, non sei nemmeno divertente. avevi tutti i giochi del mondo, e sei riuscito con difficoltà a trovarne uno dove la vega 64 batte la 1080 seriamente, due dove sta rispettivamente a 1 e 5 fps di vantaggio e basta? e citi la 2080 che nel peggiore dei 3 (CHE HAI SCELTO TU!) dà 15 fps (in qhd) di distacco alla vega? ma fammi il piacere.

ora ne scelgo io uno, restando in DX 12 giusto per generosità visto che "ehi, amd è pronta per il futuro perchè con DX 12 e Vulkan dominahhhh). che ne dici di battlefield 1? restando a risoluzioni in cui con la vega si può giocare, si becca un elegante +40% nei medi e quasi 2x nei minimi.

https://uploads.disquscdn.c...

e la chiudo così, rimanendo su venditori affidabili e brand conosciuti, ecco il "quasi doppio della spesa" per avere una 2080 rispetto alla vega. 480x2 non ricordo facesse 700 scarsi....

https://uploads.disquscdn.c...

Tetsuro P12

Un po' uno spreco, sì... ma Ashes of Singularity con una 1080 fa 75 fps a 1080p senza anti-aliasing. C'è a chi piace giocare con tutto 'maxato'. ^^
Queste schede balbettano in 4k, ma quella banda credo cominci ad essere utile con i 1440p.

Alessandro

Chi prende una radeon 7 o una 2080 e poi gioca in fhd però deve far pace col cervello XD queste schede sono per il 4k con compromessi in cui giochi, oppure io le abbinerei ad un monitor 1440p 144hz freesync (e adesso anche gsync compatibile)

Tetsuro P12

Ci siamo capiti, invece, difatti ho detto che il vantaggio si ha con la risoluzione più alta (se giochi in 1080p la differenza è nulla, lì sono altri i valori che fanno la differenza), ma la RAM (quantità) resta comunque inutilizzata, e quindi sprecata.

Alessandro

Non ci stiamo capendo, tu parli di ampiezza del bus e quantità della ram, ed é vero, 16gb sono inutilizzati. Su questo non ci piove, io parlo di velocità effettiva sommata dei 4 stack di memoria. Se ne togli 2 dimezzi la velocità di trasferimento dati tra le memorie e la gpu. E questo su gcn é deleterio per le performance (perde Fps) proprio perché ha un'architettura particolare, diversa da Nvidia che con i circa 480 gb/s della 2080 riesce a cavarsela ugualmente.

Se la. Radeon 7 avesse 8gb probabilmente sarebbe più simile ad una 2070 che ad una 2080 come numero di fps dico

Tetsuro P12

Immagino che dipenda dalla risoluzione, forse con 4k si noterebbe la differenza ma la RAM resta inutilizzata.

Alessandro

Ovviamente, inte devo anche se forse non era chiaro che in altri utilizzi al di fuori del gioco è di cuda questa scheda dovrebbe avere il suo perché (dipende poi anche d quanto sarà castrata via driver in gpgpu)

Alessandro

512bit, e si passa da 1Tera al Secondo a 500giga circa, praticamente poco superiore ad una Vega 64.. GCN guadagna molto con l'aumentare della banda, di conseguenza ammazzerei le prestazioni della radeon 7 se dimezzassi la memoria

DarkSoul89

Strano, perchè nei requisiti "alti"(1440p60fps ultra) di Metro Exodus, la VEGA64 è messa alla pari di una 1080ti :) Per non parlare di Forza Horizon 4 con la VEGA 64 (1440p120fps ultra), che per raggiungere le stesse prestazioni con una Nvidia tocca prendere la 2080 (che costa nettamente di più)! Shadow of the Tomb Raider? La 2080 fa 5fps in più della VEGA64, CINQUE!!! E potrei continuare... Però oh, la superiorità non si è assolutamente MAI rispecchiata nei videogiochi, giustamente. Ricordo che la VEGA 64 andava a competere con la 1080 liscia, non la 1080ti, ma guarda un po' su certi giochi... surclassa pure la 1080ti.

DarkSoul89

Io invece con la mia VEGA 64 tocca giocare a Forza Horizon 4 maxato a 1440p 120fps, che ci vuoi fare...

DarkSoul89

Arriverà Intel...ma se conosci Intel saprai che a prezzi non è la migliore.

DarkSoul89

Con quali driver?

smn_lrt

Nel senso, volevo stressare il concetto che guardare il valore delle azioni e come si muove è inutile per vedere se un azienda sta bene o male... se prendi Nvidia ai tempi della serie 9 confrontata con adesso, sono raddoppiati come dimensione dell'azienda e come fatturato, si spiega a livello di strategia nel fatto che maxwell e Pascal hanno vinto quella che in termine tecnico si chiama "la competizione basata sui tempi" (tempi di uscita) (sono usciti prima, non c'erano prodotti concorrenti equivalenti, se non mesi dopo, in quei mesi in mezzo prezzi alti, alto margine, clienti presi prima che potessero scegliere tra 980ti e fury o tra 1080 e Vega, quindi tolto mercato potenziale ai prodotti dei competitor)...adesso ci hanno riprovato con Turing, che per cause esterne (giochi non pronti a usare rtx e altre novità, il processo produttivo doveva essere a 8nm Samsung poi han ripiegato sul 12) ha un valore più basso di quello che anche loro si aspettavano, e han tenuto conto del fatto di non aver concorrenza nel prezzarle, quando uscirà navi sicuro taglieranno i prezzi o proporranno altro...di fatto l'investimento lo hanno già fatto, sono in anticipo di un anno su amd, adesso saranno in pieno sviluppo del dopo Turing, ma dietro hanno tanto cash accumulato, han più strategie da poter scegliere...
Prendi amd nello stesso periodo è cresciuta pochissimo perché aveva debiti da pagare, mining, moda gaming, problemi sicurezza per intel l'han aiutata quest'anno...adesso nel settore gpu ricopre la posizione discount (termine tecnico, non offensivo) in quel settore, ed essere in ritardo per proporre discount non è cosa buona, gli restano le briciole, non crescerà niente nelle GPU, con le CPU può...

Cippo95

Non me ne intendo chiaramente come te sui fattori economici: ho dato una letta alla capitalizzazione (visto che sento sempre parlare delle azioni) e i vari valori che vedevo, ho dato una letta veloce a cosa dovrebbero essere e ho tratto le conclusioni che AMD ha meno soldi di Nvidia (anche se non di troppo è vero). Comunque il mio punto è quello che AMD fa sia CPU e GPU con quei soldi, Nvidia fa solo GPU, quindi direi che è lecito pensare che se già gli è sotto economicamente (o equivalente) da intera (cosa che tu con la tua buona conoscenza del settore mi hai confermato), separando il settore GPU gli sarà sotto ancora di più e riesce comunque in un qualche modo ad essere competitiva.

Alessandro Poeta

Anche Vega andava meglio di Pascal, poi sappiamo che in game le cose sono molto diverse. Radeon VII c'è poco da stare a ipotizzare, se la stessa AMD l'ha messa pari alla 2080 in un titolo fortemente AMD friendly come BFV la dice lunga su quanto andrà effettivamente in game. Aspettativi di meglio solamente su Vulkan e su titoli che tirano bene su architettura GCN 5. Di nuovo, la top di casa Nvidia non la prende.

smn_lrt

->Fp64
è castrato anche su questa scheda!!

smn_lrt

La capitalizzazione è il valore di mercato delle azioni, non i soldi che ha l'azienda... Se guardi il bilancio come ATTIVO (cash + crediti + immobilizzazioni) sono del tutto paragonabili, è un po' più grande nvidia, quello che ha più soldi per via degli impianti è intel che è 10 volte I due...il fatturato e l'utile sono comunque a favore Nvidia rispetto ai soldi investiti (indice ROA/ROI), ogni trimestre fa 1.5 miliardi di utile su 5-6 di fatturato, amd (apparte questo trimestre che ha guadagnato 0.03 ne fa sugli 0.4 su un 2-2.5 di fatturato)...lo scorso trimestre soldi cash di Nvidia erano 7 miliardi, i soldi investiti in impianti/ brevetti / altre attività fisse erano 6.5 (il cash lo avevano investito in immmobilizzazini finanziarie, non sapevano neanche dove spenderlo, e molto strano che le abbiano dismesse per tenerlo in cassa, di solito non si fa, forse si preparano a comprare qualche azienda o far investimenti grossi)...
il passivo (debiti a breve + debiti a lungo termine) era solo a 4, il resto è tutto in riserva di bilancio, utile trattenuto...

Gark121

Le Vega sono sempre state più "potenti" nei benchmark delle loro controparti Nvidia. Questa cosa non si è assolutamente mai rispecchiata nei giochi, proprio per come è strutturata l'architettura.
Questa nella migliore delle ipotesi andrà uguale alla 2080, e il DLSS (sempre in teoria) dovrebbe permettere di giocare in qhd con un ottimo upscaling in 4k. Cosa che "salva" la scheda per il semplice fatto che se è vero che per il 4k sono entrambe abbastanza al limite, sicuramente non lo sono per il QHD (la 2080 spara 100+ fps in qhd in tantissimi giochi...).
Quello è il potenziale del DLSS, e la stessa Microsoft nelle dx12 ha introdotto qualcosa di analogo con l'update di ottobre, capace di sfruttare l'hardware specifico di Nvidia o quello standard di entrambe.
Ma se per fare il "DLSS" (o simil tale) devi dedicare parte dell'hardware che normalmente renderizza, perdi qualità. Altrettanto non vale per un prodotto che ha dei core dedicati (più efficienti) "dormienti" da sfruttare.
Con ciò, non sto dicendo che la 2080 sia l'acquisto più future proof del mondo, sto solo dicendo che per coerenza, chi all'epoca della Vega 64 diceva "meglio della 1080 perché quando ci saranno le dx12 durerà di più", oggi dovrebbe dire la stessa cosa per la 2080.
E invece no, dimostrando (come dicevo già allora), che quando dicevano queste cose erano semplicemente dei fan boy che giustificavano il loro brand preferito, tutto qui.

Tetsuro P12

512-bit? Non ce n'è che avanza?

Alessandro

Se dimezzi la memoria dimezzi la banda, abbassando le prestazioni della Scheda

KiTo

un c3sso a pedali insomma...

Luigi24

avevo letto prima di rispondere, evidentemente nella fretta avevo letto male, chiedo venia...sicuramente il dlss potrà dare una mano, ma dubito che potrà "salvare" la scheda...cioè se quando questa vega VII che a quanto pare è più potente della 2080 (poi vedremo con le recensioni vere) andrà in crisi non credo che la 2080 potrà andare così tanto meglio solo grazie al dlss...se poi invece questa tecnologia dovesse ricevere ulteriori miglioramenti e quanto ho detto sopra venisse smentito, tanto meglio per noi

Gark121

Certo che leggere cosa uno ti scrive prima di rispondere strönzate non sarebbe male eh... https://uploads.disquscdn.c... https://uploads.disquscdn.c...
Detto ciò: se un gioco fa 30fps in 4k, spesso e volentieri in qhd a 60 ci arriva, o ci va ragionevolmente vicino, e visto che col DLSS l'upscaling lo fa dal QHD (e non dal fhd come Xbox) e lo fa con hardware dedicato senza "rubare" potenza alla renderizzazione in risoluzione nativa (al contrario di Xbox, che deve far tutto con core non specializzati), è ragionevole aspettarsi che un gioco col DLSS attivo sia vicino al framerate del qhd.
Per inciso, quel che fa Microsoft (e Sony per altro) upscalando dal fhd, è comunque meglio che niente, quello che critico è solo il chiamarlo "4k". Nvidia un questo è stata meno disonesta, almeno gli ha dato un nome diverso, altisonante quanto vuoi, ma tant'è.

Candido dessanti

Dipende da che altro fail.
Noi abbiamo un database gpu based scritto con cuda, quindi non ci facciamo niente

Herbrecht Von Jeromen

Mah, non saprei...
È pur vero che Nvidia produce chip molto più grossi e costosi, che recuperano un pochino con memorie più economiche rispetto alle HBM.
Difatti AMD ha imparato la lezione e segmenterà la sua linea tra professionali con HBM e consumer con GDDR (Navi).
Tra l'altro mi chiedo le nuove GTX 1600 di che pasta saranno fatte. Saranno chip Turing con Tensor difettosi (binnati)? Saranno chip Turing con Tensor disabilitati? Saranno chip Turing "tagliati"? Saranno chip Turing prodotti direttamente senza Tensor? Saperlo aiuterebbe a capire molte dinamiche, quali se Nvidia ricicla il difettoso o se le mancate vendite di RTX l'hanno messa in forte difficoltà, se hanno rinunciato definitivamente al Ray Tracing a causa dei mancati introiti e del supporto nullo degli sviluppatori, se e quanto ci perdono su ogni GPU pur di salvare il salvabile...
Certo che aver lasciato sul campo il 60% del loro valore azionario e aver gravemente compromesso il loro nome avrà delle importanti conseguenze, la class action che gli è arrivata è solo la prima. Qualche testa rotolerà, sicuro come la morte!
Aspetto trepidante Ryzen 3000 e Navi (peccato che non sarò in Italia, dannazione...).

Luigi24

Ho seri dubbi che il "semplice" dlss basterà a salvarla....se ti darà 30 fps in 4k non è che con il dlss arriva a 60.
Poi vorrei capire come una immagine di un gioco upscalato in 4k possa essere meglio di uno renderizzato in 4k nativo, perché questa fa veramente ridere...quando questa tecnica la usa microsoft con Xbox tutti a dire che fa schi fo ma qui invece addirittura sostieni sia migliore di una renderizzazione piena...Hahaha...certo sicuramente quella Nvidia è fatta tecnicamente meglio e si noterà meno essendo anche che opera a risoluzioni comunque molto più alte, ma il fatto persiste

c0s87

AMD ha una ricarica molto minore, è questo il suo problema , vuoi per la fama che gli hanno dato il grosso continua anche oggi a dire ha problemi gravi di driver, cosa non vera visti i problemi che ha dato nvidia negli ultimi 2 anni..
consuma troppo, effettivamente con vega i settaggi a stock sono fatti da un incompetente perchè con undervolt si ha una scheda molto piu performante e meno energivora ( specie la 56 ), quindi non si sarebbe notato il distacco che si rilevò all'uscita..
Il suo guadagno è basso, se ad AMD dai iricavi sul singolo pezzo che hanno Nvidia e Intel , AMD supererebbe Nvidia di 4/5 volte per fatturato.
Cmq credo che potendo se la scheda parte da 300€ ( la top ) posso scendere di 80/85€ senza andare in perdita, parlo ovviamente delle reference, le custom sono altra cosa....

Herbrecht Von Jeromen

Meh... Stando a quanto dichiarato ufficialmente dalla stessa AMD, i prototipi di Navi sono andati "molto oltre" le aspettative (come successo con Ryzen).
Come dici tu, tuttavia, non manca molto al momento della verità.

Herbrecht Von Jeromen

E allora quanto può abbassare AMD?

Herbrecht Von Jeromen

Dopo aver manomesso il file delle impostazioni per abbassare oltre il minimo consentito (beccandosi il ban Di EA).

c0s87

Sul fatto che sia ( mantenendo le promesse prezzo e prestazioni ) un ottima scheda in arrivo , non ci piove, infatti la si ritroverà anche nei SoC delle scatolette XDXD........ tempo al tempo manca poco al giorno della presentazione, non posso dire altro altrimenti vado in galera XDXD ( ho firmato il non divulgativo, non è ferreo ma non posso espormi troppo ).......

Tetsuro P12

Non saprei, ATI è sempre stata il colosso della grafica (ha una storia ben più lunga di nVidia), poi si tratta di un core business, non ci metterei la mano sul fuoco. Anche nVidia fa altro (SoC automotive, smartphone, console, software), difficile sapere quanti ingegneri si occupano dello sviluppo di GPU da l'una e dall'altra parte, può anche darsi che AMD investa più per stare al passo e raccolga (molto) meno.

Herbrecht Von Jeromen
Cippo95

Non mi sono autoproclamato fanboy, sai fare a leggere?
Siete voi che date del fanboy alla gente a caso perchè non avete argomentazione, ma solo voglia di perdere tempo.
Perchè dovrei continuare a perdere tempo a scrivervi? Faccio prima a bloccarvi onestamente.
In tutti i messaggi suoi e tuoi non fate altre che utilizzare modi offensivi per scrivere, "tua mammina" (o quel che era) "eheh" e adesso tu "si è autoproclamato fanboy" (che non l'ho fatto) e "gentaglia"... "di ciao al mio blocco" è di risposta ai vostri termini e al vostro modo di fare 2+2=3, fatevi una vita.
Ciao pollo! (Questa te la meritavi).

Cippo95

Sì, a livello di azienda globale è vero, ha molti più dipendenti, qui stavo parlando del RTG, o Radeon Technologies Group, la divisione sulle schede video di AMD, non di tutta AMD, mi sono espresso male.

Comunque un occhio alla capitalizzazione dice tutto, AMD ha chiaramente meno soldi di Nvidia e se li ha a livello globale, non immagino a livello di RTG quanti ne abbia.

c0s87

Che è questa praticamente, parlavano del chip e vega 20 è il primo a 7nm, questa è solo settata per gaming.

Recensione Lenovo Yoga Book C930: il ritorno del convertibile 4 in 1

Devolo Magic 2: Powerline a 2400 Mbps e Wi-Fi Mesh | Video

Xiaomi Notebook Pro e MacOS: binomio possibile? Video

Alienware Area-51m è un mostruoso "portatile" con CPU desktop | Video