Il machine learning secondo Nvidia Tesla

Nvidia ha presentato due schede acceleratrici che velocizzano lo sviluppo di reti neurali e l’utilizzo di funzioni di machine learning per i data center.

Si chiamano Tesla M4 e Tesla M40 le due nuove schede acceleratrici destinate all’utilizzo nei datacenter hyperscale che Nvidia ha presentato oggi. Due nuovi modelli per potenziare le applicazioni machine learning, sebbene con funzionalità diverse.

La Tesla M40 (foto sopra) è infatti indirizzata allo sviluppo di reti neurali per le applicazioni basate su funzioni di intelligenza artificiale. Permette inoltre di risparmiare giorni e settimane nell’addestramento di una rete neurale sulla base di enormi quantità di dati per avere una maggiore precisione, con una velocità di “learning” fino a otto volte quella delle CPU.

La meno potente Tesla M4, che non si occupa dell’addestramento di reti neurali, è stata invece realizzata da Nvidia per distribuire queste funzioni all’interno del datacenter e si tratta di un modello più improntato alla gestione delle funzioni grafiche tipica di Nvidia, come ad esempio la transcodifica di flussi video e l’elaborazione di immagini. Anche in questo caso la potenza e le prestazioni sono decisamente maggiori rispetto a quanto offerto dalle CPU.

L’annuncio avviene in uno scenario in cui il machine learning è uno degli sviluppi più importanti dell’informatica odierna, allo stesso livello del PC, di Internet e del cloud computing. Nvidia ha creato gli acceleratori Tesla per dare al machine learning un potenziamento di dieci volte, con in più conseguenti risparmi di tempo e costi per i datacenter.

Infine Nvidia ha presentato anche la piattaforma software Hyperscale Suite, un insieme di strumenti rivolti a sviluppatori e datacenter manager che comprende tra le varie feature anche algoritmi per l’elaborazione di reti neurali e software FFmpeg per l’elaborazione video.