Intel Nervana, processore per AI, massimizza lo scambio dati tra RAM e chip

07 Dicembre 2017 12

Intel Nervana, la nuova architettura di processore per reti neurali, supporta le memorie HBM e sfrutta svariate nuove ottimizzazioni per rendere ancora più efficiente lo scambio di dati tra RAM e processore, un fattore chiave per incrementare i tempi di addestramento di un'AI, specialmente quando si sfrutta la tecnica del Supervised Learning (l'AI impara analizzando grandi quantitativi di dati).

Intel ha annunciato l'arrivo di Nervana, un'architettura sviluppata appositamente per le reti neurali (niente CPU, quindi: la sigla è NNP, Neural Network Processor) un paio di mesi fa, e poche ore fa ha rilasciato ulteriori dettagli sulle sue caratteristiche. L'intero chip è progettato per ottimizzare al massimo il flusso dei dati, il vero nodo cruciale della questione AI. Come riassume efficientemente Intel:

È tutta questione di riuscire a istruire una rete neurale con il maggior quantitativo di dati possibile in un determinato periodo di tempo.

Le memorie HBM, con il loro supporto a una banda di ben 1 TB al secondo tra il processore e i chip di RAM esterni, sono una componente cruciale dell'intero sistema, ma anche così la grande mole di dati dei sistemi di deep learning può facilmente mettere in crisi il sistema. Ecco perché Intel ha predisposto diverse "strategie creative", come le definisce Intel stessa, per ridurre ulteriormente la banda impiegata. Sono tutte controllate da software, in attesa che arrivino standard hardware ancora più potenti e performanti.

Per esempio, il software sfrutta la memoria integrata nel die per caricare le informazioni dalla memoria esterna, e poi sposta i dati tra i vari moduli integrati senza rimandarli sui chip esterni, riducendo la saturazione della memoria e permettendo ai chip esterni di occupare il tempo a caricare il prossimo blocco di dati. È poi stato aggiornato il tipo di dati Flexpoint, in modo tale da garantire performance paragonabili a quelle in virgola mobile a 32 bit occupando però solo 16 bit di spazio.

Intel Nervana è stato sviluppato grazie all'acquisizione dell'omonima startup nel 2016. Sarà disponibile sul mercato entro la fine del 2017. Per chi vuole approfondire ulteriormente sulle qualità del chip, può dirigersi sul post di annuncio ufficiale e quello di approfondimento di oggi.

Il sogno di molti risparmiando? Apple iPhone X, in offerta oggi da Phone Strike Shop a 856 euro oppure da Amazon a 945 euro.

12

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Repox Ray

Poi scrive anche di "ridurre la banda" anziché "aumentare"...

virtual
Un fattore chiave per incrementare i tempi di addestramento di un'AI

Semmai diminuire i tempi di addestramento... altrimenti che ci compriamo un hardware a fare?

Liuk

È lo stesso tipo di di processore che hanno i Residenti di Westworld.

manu1234

In realtà, un processore ARM dentro dovrebbe esserci

manu1234

Leggi il mio commento sopra

manu1234

9/10 è uno stratix 10 di altera con un altro nome e un firmware dedicato all'AI, quindi con un processore arm per gestire il tutto

mruser2

In Europa non potrà essere venduto perché troppo simile a Nirvana

gioboni

"un'architettura sviluppata
appositamente per le reti neurali (niente CPU, quindi: la sigla è NNP, Neural Network Processor)"
Non c'entra niente con x86

Mobile Suit Gundam

Dopo lunghissima meditazione Zen, Intel ha finalmente raggiunto il Nervana

Alessio Ferri

L'ennesimo x86 o hanno cambiato architettura?

Stech1987

mmm... this CPU smells like teen spirit

Sagitt

nirvana

Vaio S11 e S13 sono leggerissimi, potenti e ricchi di porte | Anteprima Computex

ASUS Project Precog: il notebook a doppio schermo del futuro | Anteprima

HDblog @ Computex 2018: live blog continuo dalla fiera

Recensione Logitech G560, speaker 2.1 con LED RGB