95639_NVIDIA_DGX-1_KV_2000px_7e5cdaa0-4375-4718-9f3b-241ccde052ec-prv

Grazie all’intelligenza artificiale abbiamo veicoli a guida autonoma, chat bot e riconoscimento vocale. Tra le piattaforme che permettono ai computer di “imparare” c’è il CNTK (Cognitive Toolkit) di Microsoft, che sta per essere aggiornato. CNTK è alla base di Cortana e del servizio di traduzione di Skype, e vanta una precisione di oltre il 90 per cento nei compiti di riconoscimento vocale. Microsoft rilascerà presto un toolkit CNTK aggiornato, e c’è un produttore che vuole assicurarsi che il toolkit funzioni al meglio sul suo hardware.

Nvidia sta collaborando con Microsoft per ottimizzare i propri tool di sviluppo GPU per CNTK. Le due aziende hanno creato una serie di algoritmi e librerie di deep-learning che accelererà il CNTK nell’esecuzione di attività di intelligenza artificiale, come il riconoscimento vocale e di immagini su GPU.

Gli strumenti di deep-learning come CNTK sono sandbox in cui gli sviluppatori possono creare un modello informatico per risolvere un particolare problema. L’obiettivo finale è costruire un modello in grado di eseguire con precisione un compito specifico, come per esempio combinare diversi dati medici per diagnosticare una malattia.

I ricercatori modificano continuamente i modelli e i parametri per ottenere risultati sempre più precisi. La messa a punto di modelli per i computer può richiedere giorni di lavoro e una intensa potenza di calcolo. Le In aziende come Google e Facebook i processi di deep learning sono alimentati da GPU, e Microsoft sta permettendo ad alcuni clienti di testare le GPU come parte del suo servizio cloud Azure. Gli strumenti CNTK aggiornati saranno più veloci sulle offerte cloud Azure N Series di Microsoft, che fanno affidamento alle GPU basate su vecchie architetture Kepler e Maxwell di Nvidia.

Gli strumenti CNTK aggiornati potranno essere acquistati on-premise con i supercomputer DGX di Nvidia, che costano circa 129.000 dollari e hanno otto GPU Tesla P100 basate sulla più recente architettura Pascal.

Nvidia ha lavorato a stretto contatto [con Microsoft] per ottimizzare le sue librerie di deep-learning per l’imminente rilascio di CNTK”, ha dichiarato Ian Buck, vice presidente per l’accelerated computing di Nvidia. Le GPU di Nvidia già lavorano su CNTK con le librerie esistenti, ma il nuovo framework fornirà un grande miglioramento delle prestazioni. In particolare, grazie alla presenza di 8GPU in un sistema, “i tempi di formazione di un processo di deep-learning miglioreranno di 7,4 volte”, ha spiegato Buck.

Nvidia ha apportato miglioramenti a strumenti come CUDNN, che fornisce le librerie e gli algoritmi per il deep-learning basato su GPU. Ci sono altri framework di deep-learning, come Tensor di Google, Theano e l’open-source Caffe, che eccelle nel riconoscimento delle immagini. Aziende come Intel e IBM hanno ottimizzato tali framework per funzionare al meglio con il loro hardware. Le GPU Nvidia supportano già la maggior parte dei framework per il deep-learning, ma CNTK ha ora un vantaggio sugli altri.

Google ha realizzato il proprio chip Tensor Processing Unit, progettato per migliorare i risultati di deep learning. Google può permettersi di costruire il proprio hardware, perché distribuisce il deep learning su una scala più ampia, ma l’operazione è troppo costosa per le piccole imprese, che possono invece rivolgersi a servizi cloud come Azure.

 

AUTOREAgam Shah
CWI.it
Con 12 milioni di lettori in 47 paesi, Computerworld è la fonte di informazione e aggiornamento per tutti coloro che progettano, implementano o utilizzano la tecnologia in azienda.
WHITEPAPER GRATUITI