Nvidia unifica intelligenza artificiale e HPC nella piattaforma server HGX-2

I primi sistemi basati sulla nuova piattaforma saranno prodotti da Lenovo, Supermicro, Wiwynn e QCT e saranno disponibili entro la fine dell'anno

Il CEO di Nvidia Jensen Huang sul palco della GPU Technology Conference, a Taiwan

Nvidia punta a migliorare le prestazioni e l’efficienza dei data center con la nuova piattaforma server HGX-2. Progettata per sfruttare la potenza di 16 GPU Tesla V100 Tensor Core, la piattaforma soddisfa i requisiti di carichi di lavoro sia di intelligenza artificiale che di calcolo ad alte prestazioni (HPC). La piattaforma HGX-2 è stata annunciata dal CEO di Nvidia Jensen Huang in occasione della GPU Technology Conference in corso a Taiwan.

adv
Investimenti Oracle NetSuite

Prendere decisioni strategiche informate grazie a Business Intelligence e Analytics

Una piattaforma di BI e Analytics deve offrire ai decision maker tutti gli strumenti necessari per migliorare l'efficienza e individuare nuove opportunità prima della concorrenza. Presentiamo una serie di preziose risorse e ricerche in Pdf per approfondire questo argomento da un punto di vista tecnico e strategico. SCARICA LE GUIDE >>

I produttori di server per data center Lenovo, Supermicro, Wiwynn e QCT hanno dichiarato che i primi sistemi HGX-2 saranno disponibili entro entro la fine dell’anno. I sistemi HGX-2 sono indirizzati soprattutto a provider hyperscale, quindi anche Foxconn, Inventec, Quanta e Wistron proporranno server basati sulla nuova piattaforma per i data center in cloud.

HGX-2 è costruita utilizzando due GPU di base, che si collegano alle GPU Tesla tramite NVSwitch e gestiscono 8 processori ciascuna, per un totale di 16 GPU. La piattaforma HGX-1, annunciata un anno fa, ne gestiva solo 8.

Nvidia descrive HGX-2 come un “mattone” sul quale i produttori di server possono costruire sistemi progettati per diversi compiti. È la stessa piattaforma su cui si basa il nuovo DGX-2 di Nvidia. La novità è che la società sta rendendo disponibile la piattaforma ai produttori di server, insieme a un’architettura di riferimento che permetterà la distribuzione dei nuovi sistemi entro la fine dell’anno.

Due mesi fa, in occasione della sua conferenza a San Jose, Nvidia ha dichiarato che il DGX-2,  il primo sistema HGX-2, sarà in grado di fornire due petaflop di potenza di calcolo – prestazioni solitamente associate a centinaia di server in cluster. I sistemi DGX-2 partono da 399.000 dollari.

Nvidia ha affermato che nei test i sistemi HGX-2 hanno raggiunto un record nella velocità di training AI, pari a 15.500 immagini al secondo nel benchmark ResNet-50, e possono sostituire fino a 300 server solo CPU, che complessivamente costerebbero milioni di dollari.

Le GPU hanno trovato una nicchia nel training di set di dati, essenzialmente nella creazione di modelli di reti neurali per applicazioni di machine learning. L’architettura parallela delle GPU li rende particolarmente adatti per il training di sistemi AI.

Il punto di forza dell’HGX-2 è che può essere configurato sia per l’addestramento AI che per l’inferenza: in pratica mette le reti neurali in situazioni di vita reale. HGX-2 si rivolge anche alle applicazioni HPC per il calcolo scientifico, il rendering di immagini e video e le simulazioni.

Riteniamo che il futuro del computing richieda una piattaforma unificata”, ha dichiarato Paresh Kharya, responsabile del marketing di prodotto per AI e accelerated computing di Nvidia. “La cosa davvero unica di HGX-2 sono le sue capacità di calcolo di precisione”.

Nvidia ha una solida presenza sul mercato delle GPU progettate per carichi di lavoro AI, ma deve affrontare una crescente concorrenza. Nel 2016 Intel ha acquisito la startup Nervana Systems, specializzata in deep-learning, e sta ultimando lo sviluppo di ciò che chiama Intel Nervana Neural Network Processor (NNP). Inoltre, produttori come Xylinx offrono FPGA (field programmable gate arrays) sempre più potenti, che vengono utilizzati per le inferenze nell’intelligenza artificiale.

Mentre gli FPGA mancano della potenza bruta per competere con le GPU nell’addestramento di sistemi AI, possono essere programmati per elaborare ogni livello di una rete neurale, una volta costruita, con la precisione minima adatta a quel livello – una flessibilità ideale per l’inferenza.

AUTOREMarc Ferranti
FONTENetwork World
CIO
Con informazioni, approfondimenti ed eventi ad hoc, CIO Italia è una risorsa preziosa per tutti i leader delle strutture IT e i decisori delle strategie tecnologiche aziendali.