
20 Agosto 2018
NVIDIA ha dato appuntamento al pomeriggio di domani per conoscere tutte le novità relative alle schede video destinate al mercato consumer, dopo aver sollevato il sipario sulla le nuove GPU con architettura Turing in occasione del SIGGRAPH. Stando a quanto riportato dal sito VideoCardz, Nvidia presenterà sia la GeForce RTX 2080, sia la versione Ti - GeForce RTX 2080 Ti - che, come di consueto, coincide con la versione potenziata del modello ''base".
Ciò segnerebbe una novità rispetto al tradizionale modus operandi dell'azienda, che negli anni passati ha introdotto la variante Ti a distanza di alcuni mesi dal lancio della versione base. La stessa fonte aggiunge diversi dettagli proprio sulla GeForce RTX 2080 Ti, che sarebbe equipaggiata con 11GB di memoria GDDR6 con un bus a 352-bit e 4352 CUDA core - ovvero oltre il 20 per cento in più di CUDA core rispetto all'attuale 1080 Ti (3584 CUDA core)e oltre il 70 per cento di quelli della 1080 ''base".
Non sono state fornite informazioni più dettagliate sulle frequenze di funzionamento di GPU e RAM, ma la presenza di un maggior numero di CUDA core e delle prestante memoria GDDR6 suggerisce un importante balzo in avanti delle performance grafiche rispetto agli attuali modelli di fascia alta. La GeForce RTX 2080 ''base'', prosegue la fonte, integrerà 8GB di RAM su bus a 256-bit e 2944 CUDA core - il 15 per cento in più rispetto alla GeForce 1080
Cuda Core | Memoria | Bus Memoria | Banda memoria | |
GeForce RTX 2080 Ti | 4352 | 11GB | 352-bit | 616 GB/s |
GeForce RTX 2080 | 2944 | 8GB | 256-bit | 448 GB/s |
Caratteristiche tecniche presunte
Ad avvalorare il report intervengono le prime immagini delle schede video GeForce RTX 2080 e 2080 Ti dei partner di Nvidia. Si tratta delle versioni custom che sembrano già pronte all'esordio sul mercato. Tra le varie, sono state già individuate quelle di ASUS, EVGA, MSI, PALIT, PNY e ZOTAC.
Per fare il bilancio delle novità preparate da NVIDIA per dare un nuovo impulso al mercato delle schede video consumer di fascia alta, sarà sufficiente attendere le ore 18:00 di domani (20 agosto). L'evento di lancio, che si terrà durante il Gamescon di Colonia, sarà trasmesso in streaming su Twitch:
Commenti
non ero contradditorio, concordo il prezzo è troppo
È inutile che fanno uscire nuove schede video ma non fanno uscire esclusive degne di esse... Ridicoli
Edit .
Mi sono reso conto che le Rtx, avendo chip dedicato, possono costare di più.
Speriamo bene
Brava nvidia.. ..
Però a me da fastidio di come stanno presentando il RayTracy. Sembra un Loro prodotto esclusivo, ma non è cosi
Non sono interessato. .. .
Ma me ne intendo.
Poi tra poco annunciano le nuove
700 + 0 spedizione?
E si troppo. Perché? ?
lol
Uscita notizia. Fine ottobre. Novembre
Troppo
sembra ottobre
Assolutamente d'accordo, il 4K non è ancora abbastanza diffuso in effetti
A qualcuno interessa una zotac 1080 ti amp extreme core edition usata 2 settimane, perfettamente funzionante a 750 euro?
Diminuendo la tensione non si rischia nulla, è aumentarla che può dare problemi
No non ho mai fatto né overclock né undervolt perchè ho sempre avuto paura di figgerla e rimanere senza. Adesso che però sta per scadere la garanzia mi viene voglia di provare e vedere se si risolve qualcosa.
lo so, dico solo che dovrebbe diventare uno standard per tutti.
Sei il primo caso che leggo che ha sintomi simili a dirti la verità
la 2070 quando è prevista?
Beh, comunque una 1080ti il 4k a 60fps te lo fa. Magari non con dettagli ultra se vuoi molti FPS, ma comunque in 4K ci giochi tranquillamente
E infatti mi servono esattamente per quelle :D anche se per ora devo ancora implementarne il supporto quindi niente test ancora
Il fatto che verrà usato poco nel breve periodo non significa automaticamente "nuova trovata marketing by nvidia" come hai scritto all'inizio, intanto perché non è una tecnologia nvidia gameworks e verrà quindi utilizzata anche da AMD, e seconda cosa perché una "trovata marketing" fa passare come significato che sia una cosa inutile ma che rende accattivante il prodotto pur non aggiungendo nulla (come i dissipatori con un sacco di led per capirci) e invece non è così, aggiunge qualità all'immagine per chi può permettersi una gpu che lo faccia girare e nei giochi che lo sfrutteranno (pochi all'inizio ma poi sempre piu)
Che tipo di HPC?
Cioè, i tensor core sono abbastanza inutili per qualsiasi cosa che non sia reti neurali...
appunto giochiamo ancora in fhd da anni, bisogna avere lo standard 4k per tutti ed abbassare i prezzi dei monitor.
Hai provato a fare undervolt?
Se fosse solo per quello continuerebbero a lanciare la Ti dopo.
Le fanno guadagnare un sacco i polli che comprano la non ti e poi 6 mesi dopo passano a quella appena esce.
È una trovata marketing proprorlo adesso in una forma ibrida che per ora sembra molto poco convincente
la 2080 sarà più vicina ai 1000 euro piuttosto che a 650€
Grazie.
Vendono a 13 euro sull'amazzone un sistema composto da una staffa e 2 viti che sostiene la scheda grafica alleggerendo o annullando (quasi), il peso sulla porta pcie
Non lo dubito, ho solo detto che quello che fa sorridere e quanto lo sta utilizzando nvidia nel suo marketing , GTX persino e diventato RTX (non ho visto AMD spingendo sul RT cosi tanto). Non sono di parte, ho una 1080ti e se dovessi comprare un'altra scheda video attualmente comprerei solo nvidia per le loro prestazioni... ho solo fatto un punto sulle pratiche marketing.
la turbo è una reference se ricordo bene, bene o non bene non ha una delle migliori dissipazioni n commercio, se cerchi soluzioni sobrie ma con dissipatori decenti consiglio le palit.
Ritengo inoltre che le DUAL non siano poi così tamarre, quantomeno rispetto alla fascia TOP
650 per la 2080...
Bhe vediamo oggi la presentazione
AMD aveva già fatto vedere qualcosa anche lei sul rayTracing.
Penso sia la normale evoluzione del 3d
E la scheda video nvidia meno tamarra di tutte e ciò è un bene tutto quí
Quoto.
Ho un 32 a 1440p molto meglio di un fullhd
Credo di non aver capito
650 per la 2080.
Bhe oggi vediamo
La serie dual é abbastanza tamarra mentre la serie turbo é sì davvero poco tamarra ma rispetto a quella nella seconda foto non sono niente
No probabilmente gli studi cinematografici che sceglieranno di cambiare hardware prenderanno delle quadro Turing 6000
-_- ovvio, resta il fatto che alcune gpu sono veramente massicce ed il pericolo di piegamento del connettore pci-e sulla mobo è concreto.
Per forza sono medio-bassa, altrimenti il prezzo triplica e non basta neppure una apu. Considerando che usciranno tra 1,5 anni circa, c'è tutto il tempo per ottimizzare e bilanciare. Inoltre le console hanno il grossissimo vantaggio di essere standard, quindi se la tecnologia fosse presente, sony e ms hanno solo da guadagnare nello spingere ad usare tale tecnologia. E non solo, se la possono cucire addosso.
La serie dual e la serie turbo sono anni che sono in commercio..
E non vedo dove sia il problema, lo si trova su alcuni titoli ad alto budget per il primo periodo, poi prende piede.. se nessuno inizia a proporlo nessuno lo utilizzerà mai, all'inizio è una feature solo per pochi, poi diventa accessibile
Vedremo
Lo sappiamo vero che le gpu sono avvitate al case giusto?
Certo che é una bella novità, ma nvidia lo sta utilizzando per vendere la next gen quando implementazioni reali saranno scarsissima nei videogiochi dei prossimi 3 anni