Swift e intelligenza artificiale: matrimonio possibile grazie a Apple e IBM

IBM e Apple hanno annunciato nuove soluzioni per inserire l’intelligenza artificiale e il machine learning nelle app sviluppate con Swift.

swift

IBM e Apple hanno annunciato nuove soluzioni di machine learning che consentiranno agli sviluppatori di implementare Watson e Core ML per creare app di AI mobile e di livello enterprise. Apple e IBM hanno lavorato insieme per anni e quindi questa notizia è un’estensione della loro relazione già in atto, che sta mettendo Apple sempre più all’interno del nuovo IT aziendale.

Annunciate alla conferenza IBM THINK 2018, le nuove soluzioni hanno parte della nuova piattaforma IBM Watson Services for Core ML. Coca-Cola Company sta già sviluppando prototipi che utilizzano questi servizi per creare soluzioni mobile intelligenti per gli operatori sul campo, tra cui l’uso dell’identificazione dei problemi di riconoscimento visivo, la diagnosi cognitiva e la riparazione aumentata.

In questo modo le aziende possono creare soluzioni su misura per attività specifiche, aggiungendo l’autoapprendimento e le esclusive tecnologie di incremento dell’IA che consentono a tali soluzioni di diventare più intelligenti man mano che vengono utilizzate. “Le app create con IBM Watson Services for Core ML apprendono dall’attività degli utenti, diventando più intelligenti con ogni interazione”, ha spiegato IBM in un comunicato stampa.

adv
Cloud Communication Business

Nell’era digitale il centralino va in Cloud

La telefonia di nuova generazione è in software-as-a-service: non richiede di installare centralini hardware, gestisce fisso e mobile, e consente di attivare nuove linee o filiali con un clic, abilitando Smart Working e Unified Communication. SCOPRI DI PIÙ >>

Gli sviluppatori aziendali possono ottenere IBM Watson sotto forma di un insieme di servizi basati su cloud che possono utilizzare quando creano applicazioni AI. Core ML offre machine learning avanzato alle app su dispositivi Apple con iOS 11 o versioni successive. Gli sviluppatori di applicazioni possono utilizzare modelli pre-formati o creare modelli personalizzati in IBM Watson.

Un modello di riconoscimento visivo (Watson Visual Recognition Service) basato su migliaia di immagini è il primo modello disponibile in questa soluzione e può ora essere esportato in Core ML ed eseguito su dispositivi Apple. IBM consente inoltre agli sviluppatori di aggiungere alle app le previsioni meteorologiche attuali e previste in base a dove si trova una persona.

Un altro aspetto significativo è che Apple e IBM hanno anche introdotto uno strumento che consente agli sviluppatori di Swift di integrare l’intelligenza artificiale nelle loro app. Ciò avviene sotto forma di una nuova console per sviluppatori che gli sviluppatori Swift possono utilizzare per collegarsi a IBM Cloud per creare app.

“La IBM Cloud Developer Console for Apple include una guida migliorata passo passo per gli sviluppatori di tutti i livelli di esperienza, insieme all’integrazione con intelligenza artificiale, dati e servizi mobile ottimizzati per Swift”, si legge ancora nel comunicato di IBM. Ciò significa che gli sviluppatori di tutti i livelli di esperienza possono ora integrare servizi IBM Watson for Core ML per creare rapidamente app di apprendimento automatico e collegarle a IBM Cloud.

La soluzione include anche strumenti per proteggere credenziali, servizi e dati utilizzando i servizi IBM Cloud Hyper Protect. Questo rende più sicure le app aziendali e aiuta ad aumentare la sicurezza intrinseca di elevata qualità integrata nelle app di Apple.

Il risultato è che uno sviluppatore che usa Swift può ora creare in pochi minuti un’applicazione che integri soluzioni di machine learning. Tuttavia, in termini di produzioni off-the-shelf, ciò che queste applicazioni possono fare inizialmente sarà limitato alle app di riconoscimento visivo, sebbene questo non sia un aspetto da sottovalutare per gli sviluppatori che cercano modi innovativi per inserire il riconoscimento delle immagini all’interno delle loro app ARKit.

Ciò consente di creare, ad esempio, assistenza sul campo basata su realtà aumentata, manuali di supporto o guide visivi per la risoluzione dei problemi. Le tecnologie combinate vanno ovviamente al di là di queste app. L’intelligenza artificiale integrata indica infatti che, man mano che le app vengono utilizzate, diventeranno più intelligenti. Ecco perché con il tempo, puntando il vostro dispositivo verso qualcosa, l’app scoprirà di che tipo di riparazione avrà bisogno. Ci saranno anche implicazioni nell’ambito della salute, dell’istruzione, della ricerca e delle tecnologie per la gestione delle città.

“Stiamo portando tutto ciò a un livello successivo attraverso il machine learning. Siamo molto impegnati su questo percorso e stiamo apportando migliorie per fornire una migliore comprensione” ha affermato Mahmoud Naghshineh, direttore generale di IBM Partnerships and Alliance.

Ciò è perfettamente in linea con la visione di entrambe le compagnie per porre la trasformazione digitale al centro dell’IT aziendale. Il passaggio per rendere possibile l’uso di Swift come strumento di sviluppo con cui creare e distribuire nuove specie di app intelligenti faciliterà percorsi di sviluppo rapidi e agili delle applicazioni, consentendo agli utenti aziendali di provare rapidamente nuove soluzioni ed esplorare nuove opportunità di business. Tutto questo potrebbe infine fornire anche alle piccole imprese la possibilità di sfruttare l’intelligenza artificiale in modo rapido e conveniente con un iPad, un Apple Watch o un iPhone.

software/app/swift-e-intelligenza-artificiale-matrimonio-possibile-grazie-apple-e-ibm-111088" >