Come l’IA ha aiutato Domino a migliorare le consegne delle pizze

La condivisione di un ambiente container e i server Nvidia hanno consentito ai data scientist di Domino di creare modelli più complessi e precisi per migliorare le operazioni di archiviazione e consegna.

domino

Quando si usano le parole intelligenza artificiale (AI) e machine learning (ML), le persone spesso pensano a settori avanzati come l’esplorazione dello spazio e la biomedicina che si basano fortemente sulla ricerca e lo sviluppo. Il fatto è che AI e ML dovrebbero essere qualcosa a cui tutti i settori stanno guardando, incluso quello retail. Siamo ora nell’era del servizio clienti e piccole differenze nel servizio possono fare una grande differenza nella quota di mercato.

La scorsa settimana Nvidia ha tenuto una versione virtuale della sua annuale GPU Technology Conference (GTC), che è diventata una vetrina per i casi d’uso di AI/ML nella vita reale. Storicamente questo appuntamento è stato particolarmente “tecnico” nella sua impostazione, ma nel corso degli anni si è evoluto in un evento in cui le aziende mostrano come utilizzare le tecnologie avanzate per trasformare le loro attività.

Domino sta usando AI e ML per migliorare le operazioni online

Domino è un esempio di attività commerciale al dettaglio che ha mostrato come utilizza AI e ML. L’azienda ha escogitato una ricetta di successo per cambiare il modo in cui opera. L’ingrediente segreto è la tecnologia di Nvidia, che la principale catena di pizzerie degli USA sta usando per migliorare le operazioni online, fornire una migliore esperienza al cliente e indirizzare gli ordini in modo più efficiente. Come conseguenza di ciò Domino sta vedendo clienti più soddisfatti e più mance per i suoi driver.

Il server Nvidia DGX-1 ha consentito a Domino di accelerare le sue iniziative AI e ML

adv
Cloud Communication Business

Nell’era digitale il centralino va in Cloud

La telefonia di nuova generazione è in software-as-a-service: non richiede di installare centralini hardware, gestisce fisso e mobile, e consente di attivare nuove linee o filiali con un clic, abilitando Smart Working e Unified Communication.     SCOPRI DI PIÙ >>

Il team di data science di Domino ha testato la velocità e l’efficienza dell’azienda sfruttando il server DGX-1 di Nvidia, un sistema software e hardware integrato per il deep learning. Per coloro che non hanno familiarità con la linea di server DGX, Nvidia ha creato una serie di dispositivi chiavi in mano che le aziende possono utilizzare immediatamente. L’alternativa è mettere insieme hardware, software e piattaforme AI e ottimizzare l’intero sistema: un’operazione che può però richiedere settimane.

Il team di Domino ha creato un modello di previsione della consegna che prevede quando un ordine sarà pronto, basandosi sul tipo di ordine e su e ciò che sta accadendo nel negozio di Domino, come il numero di dipendenti, manager e clienti presenti in quel momento. Il modello si basa su un ampio set di dati di cinque milioni di ordini, numero abbastanza grande da creare modelli accurati. Tutti gli ordini futuri vengono reimmessi nel sistema per aumentare ulteriormente la precisione del modello.

I precedenti modelli di Domino utilizzavano laptop e desktop abilitati che impiegavano più di 16 ore ad “allenarsi”. Il lungo periodo di tempo ha reso estremamente difficile migliorare il modello, ma la potenza di calcolo aggiuntiva del DGX-1 ha consentito ai data scientist di Domino di addestrare modelli più complessi in meno tempo. Il sistema ha infatti ridotto i tempi di addestramento a meno di un’ora e ha aumentato la precisione delle previsioni degli ordini dal 75% al 95%. Il test ha dimostrato come Domino potrebbe aumentare la produttività addestrando i modelli più velocemente.

La condivisione delle risorse è un altro vantaggio del DGX-1

Domino ha scoperto un altro vantaggio nel processo: la condivisione delle risorse. Ogni singola GPU sul DGX-1 è così potente (32 GB di RAM) che i data scientist di Domino potrebbero usare una frazione delle GPU ed eseguire più test contemporaneamente. Con otto GPU di questo tipo a portata di mano, i data scientist si sono trovati a condividere risorse e conoscenze.

In passato, condividere il lavoro tra i team, comprese le revisioni del codice e i test di garanzia della qualità, era una sfida, dal momento che i data scientist lavoravano nei loro ambienti locali. Ora che i data scientist stanno lavorando con un server DGX-1 comune, sono facilmente in grado di condividere container Docker completamente personalizzabili e riproducibili. Ciò offre ai data scientist un ampio pool di risorse con cui lavorare e accedere alle risorse quando necessario, quindi non restano inattivi. La soluzione Docker integrata da Domino con DGX-1 semplifica inoltre la riproduzione di codice in ambienti diversi poiché tutti i dati sono contenuti nell’immagine Docker.

Domino ha recentemente acquistato un secondo DGX-1 e ha iniziato ad aggiungere il sistema di gestione dei container Kubernetes. Con Kubernetes gestito da un motore di ottimizzazione, Domino può allocare dinamicamente risorse a tutti i suoi data scientist e lanciare container più velocemente. Secondo Fragoso, anche i data scientist che non hanno familiarità con Linux possono fare clic per avviare i container Docker.

Sul lato della distribuzione Domino ha creato uno stack di inferenza che include un cluster Kubernetes e quattro GPU Nvidia. In questo modo, i data scientist possono interagire e costruire i loro modelli utilizzando lo stesso framework di container Docker che utilizzano sul DGX-1.

Domino ha anche acquisito una piattaforma operativa di machine learning chiamata Datatron, che si trova in cima al cluster Kubernetes con le GPU e assiste le funzionalità specifiche di ML in Domino. Datatron consente il monitoraggio delle prestazioni del modello in tempo reale, in modo che i data scientist possano essere informati se il loro modello richiede una riqualificazione.

AI e ML si stanno rapidamente muovendo nell’ambito dei dipartimenti IT

Portare lo stack di inferenze internamente consente a Domino di avere tutti i vantaggi che i fornitori di cloud offrono per l’hosting di modelli ML, mantenendo al contempo tutti i dati e le risorse locali. Ha cambiato il modo in cui i data scientist distribuiscono i modelli, offrendo loro un maggiore controllo sul processo di distribuzione.

Fragoso ha concluso con la consulenza di altre aziende che desiderano mettere in proprio queste tecnologie: “Pensate a come i vostri data scientist collaboreranno. Nel nostro caso il DGX-1 e i nostri data scientist stanno interagendo in uno spazio di lavoro comune. Era qualcosa che il nostro team non ha davvero preso in considerazione quando abbiamo acquistato questo prodotto per la prima volta ed è stato un valore reale per noi”.

Storicamente, i data scientist hanno operato come un silo indipendente all’interno delle aziende. Sempre più spesso all’organizzazione IT viene chiesto di assumere il compito di fornire la giusta tecnologia alle iniziative AI e ML. I data scientist sono risorse costose per la maggior parte delle aziende e farle sedere in attesa che i modelli finiscano è come lanciare una buona pizza fuori dalla finestra. La giusta infrastruttura, come la serie di server DGX, consente alle aziende di accelerare i tempi di elaborazione per permettere ai data scientist di lavorare di più e aspettare di meno.

intelligenza artificiale (AI) e machine learning (ML), le persone spesso p" data-share-imageurl="https://static.cwi.it/wp-content/uploads/2020/04/drone-pizza-delivery-thinkstock-100579669-large.jpg" data-share-url="https://www.cwi.it/tecnologie-emergenti/intelligenza-artificiale/come-lia-ha-aiutato-domino-migliorare-le-consegne-delle-pizze-126978" >