I tre grandi fornitori di servizi cloud – Amazon Web Services (AWS), Microsoft Azure e Google Cloud Platform (GCP) – invogliano sviluppatori e data scientist a sviluppare, testare e distribuire modelli di apprendimento automatico sui loro cloud. È uno sforzo redditizio per loro, perché spesso i modelli di test richiedono un’infrastruttura potenziata e i modelli in produzione richiedono un’elevata disponibilità.

Questi servizi offrono vantaggi ai clienti e sono redditizi per i cloud provider, ma la competizione non è solo su infrastruttura, livelli di servizio e prezzi. I fornitori si concentrano su piattaforme versatili per facilitare ai clienti l’utilizzo delle loro capacità di apprendimento automatico. Ogni cloud pubblico offre diverse opzioni di archiviazione dei dati, inclusi database serverless, data warehouse, data lake e datastore NoSQL, il che rende probabile lo sviluppo di modelli in prossimità del luogo in cui risiedono i dati. Offrono framework di machine learning molto diffusi, tra cui TensorFlow e PyTorch, in modo che i loro cloud siano punti di riferimento per i team di data science che desiderano flessibilità. Tutti e tre offrono Modelops, MLops e un numero crescente di funzionalità per supportare l’intero ciclo di vita del machine learning.

Uno studio recente mostra che il 78% dei progetti di intelligenza artificiale (AI) e machine learning (ML) aziendali viene implementato utilizzando l’infrastruttura cloud ibrida, quindi i cloud pubblici hanno molto spazio per crescere. Ciò implica che dovranno continuare a innovare con capacità nuove e differenzianti.

Questa innovazione si manifesta in diverse categorie per aiutare le aziende a eseguire l’apprendimento automatico su larga scala, con più servizi e piattaforme più facili da usare. Ecco alcune specifiche.

La battaglia dei chip AI

La sperimentazione del machine learning continua a scalare con modelli grandi e più complessi che richiedono la formazione su grandi quantità di dati. Microsoft e Nvidia hanno recentemente annunciato un massiccio processore di linguaggio da 530 miliardi di parametri, mentre Google afferma di aver addestrato un modello da 1,6 trilioni di parametri all’inizio di quest’anno.

Modelli di addestramento di queste dimensioni e complessità possono richiedere molto tempo e diventare costosi, quindi i cloud pubblici stanno innovando con chip AI e opzioni di infrastruttura. AWS ha già Inferentia e Trainium; recentemente ha annunciato nuove istanze EC2 alimentate da Gaudi di Habana che offrono il 40% in più di prestazioni in termini di prezzo rispetto all’ultimo EC2 alimentato da GPU.

Google ha annunciato TPU v4 all’inizio del 2021. La sua unità di elaborazione di quarta generazione sta dimostrando un miglioramento medio di 2,7 volte rispetto alle prestazioni della TPU v3. Sono attese innovazioni hardware con chip e acceleratori AI da parte di Cerebras, Graphcore, Nvidia e SambaNova.

I chip non sono l’unica capacità dell’infrastruttura abilitante per l’intelligenza artificiale e tutti e tre i cloud provider dispongono di piattaforme di edge computing per distribuire modelli di apprendimento automatico per Internet of Things e altre applicazioni streaming.

La battaglia dei servizi AI

La maggior parte dei team di data science non sviluppa un’intelligenza artificiale su vasta scala, ma preferisce creare e configurare modelli avanzati di machine learning. Tutti e tre i fornitori di servizi cloud stanno sviluppando servizi di apprendimento automatico ed è prevedibile che l’offerta crescerà in modo significativo nei prossimi anni.

Di seguito è riportata una breve panoramica dei servizi di machine learning offerti su Azure, GCP e AWS.

I Cognitive Services di Microsoft includono servizi vocali, servizi linguistici per l’analisi del sentiment e servizi di domanda e risposta spesso utilizzati nei chatbot. I servizi di visione includono il riconoscimento facciale e i servizi di supporto decisionale vengono utilizzati per la personalizzazione e il rilevamento delle anomalie.
Microsoft ha recentemente annunciato il servizio OpenAI che si collega al modello di linguaggio naturale GPT-3 per supportare la ricerca, la conversazione, il completamento del testo e altri servizi.

Google Cloud offre diversi servizi di intelligenza artificiale per l’elaborazione dei documenti, tra cui DocAI per l’elaborazione generale dei documenti e soluzioni verticali per prestiti, finanziamenti, contact center e gestione dei contratti.

I servizi di machine learning di AWS includono Rekognition per la visione artificiale, Textract per l’elaborazione dei documenti, Lex per i chatbot, CodeGuru per le revisioni del codice e Personalize per personalizzare le applicazioni web.

AWS offre anche soluzioni AI specifiche per settore come Amazon HealthLake, che consente previsioni sui dati sanitari, Amazon Lookout per identificare comportamenti anomali delle apparecchiature e Amazon Fraud Detector per servizi finanziari e altri settori.

Saranno disponibili altri modelli di machine learning as a service (MLaaS) da provider di cloud pubblico e altri concorrenti? Kirk Borne, direttore scientifico di DataPrime, crede di sì. “Vedremo più MLaaS o offerte di modelli as-a-service a causa della crescente sofisticazione di questi modelli e delle spese da sostenere per la loro formazione. Meno aziende vorranno investire il tempo e il talento necessari per sviluppare le proprie istanze di quei modelli pre-addestrati”.

Un numero enorme di piccole e medie imprese che si stanno avvicinando al machine learning e all’intelligenza artificiale troverà queste offerte X-aaS perfettamente adatte ai loro requisiti di tempo, budget e strategia”, aggiunge Borne. “MLaaS aiuta anche a colmare l’onnipresente divario di talenti sfruttando modelli pre-addestrati che utilizzano algoritmi sofisticati e potenti”.

La battaglia per rendere l’AI più accessibile

La prossima frontiera per i provider di cloud pubblico è rendere disponibili le loro capacità di machine learning e intelligenza artificiale alle aziende che non hanno team avanzati di sviluppo software e data science. Lo stanno facendo attraverso tecnologie low-code che hanno funzionalità di machine learning integrate o aiutando gli sviluppatori a interfacciarsi con i loro altri servizi di intelligenza artificiale.

L’ambiente di sviluppo integrato (IDE) di AWS SageMaker semplifica lo sviluppo, il test e la distribuzione di modelli di machine learning. L’IDE offre diverse funzionalità avanzate, tra cui un data wrangler per aiutare i data scientist a preparare i dati, un feature store per promuovere la collaborazione e il riutilizzo tra i team di data science e le capacità di distribuzione one-clic. AWS Sagemaker compete con piattaforme di data science quali Alteryx, Dataiku, KNIME e SAS.

Microsoft offre Azure Machine Learning Studio, un portale che combina esperienze no-code e code-first per i data scientist. L’offerta AI low-code più avanzata è AI Builder per la piattaforma Power Apps, che consente agli sviluppatori low-code di eseguire la classificazione del testo, il rilevamento degli oggetti e l’elaborazione dei moduli.

Google sta adottando un approccio simile con AutoML per i modelli di addestramento. L’intelligenza integrata di AppSheet include previsioni di trend, classificazione dei contenuti, sentiment analysis e altre funzionalità. I cloud pubblici competono con altre piattaforme low-code che offrono capacità di apprendimento automatico, tra cui Creatio, Outsystems, Thinkwise, Vantiq.

Sarà interessante vedere come provider di cloud pubblico, startup, fornitori di software aziendali, produttori di chip, fornitori di infrastrutture e piattaforme open source competono sull’intelligenza artificiale e sull’innovazione dell’apprendimento automatico per supportare modelli più grandi, più servizi e punti di accesso più facili per l’integrazione delle applicazioni.

*Isaac Sacolick è presidente di StarCIO e autore del bestseller “Driving Digital: The Leader’s Guide to Business Transformation through Technology”, che tratta dei temi fondamentali per programmi di trasformazione digitale di successo, come pianificazione agile, devops e data science.