Project Soli: ecco come Google sta reinventando l’interfaccia utente

Big G sta mettendo in atto una strategia aggressiva per abilitare il controllo dei dispositivi elettronici con i gesti delle mani

google project soli

Quando Steve Jobs presentò l’iPhone, 12 anni fa, introdusse anche molti dei concetti dell’interfaccia utente multitouch. All’epoca il CEO di Apple sottolineò il vantaggio di usare “il dispositivo di puntamento con cui tutti siamo nati“: le nostre dita.

Ma c’è una cosa ancora più naturale: i gesti delle mani. Tutti gli umani usano i gesti delle mani per comunicare con altre persone. E ora Google vuole sfruttarli per farci comunicare con i dispositivi elettronici attraverso il Project Soli, che usa il radar per controllare dispositivi con i gesti delle mani.

Annunciato nella primavera del 2015, Soli consente movimenti in aria per controllare smartphone, computer, dispositivi indossabili e persino automobili. Il progetto ha recentemente conquistato le cronache perché la FCC ha appena concesso a Google la richiesta di utilizzare sensori radar Soli con potenze superiori rispetto a quelle attualmente consentite negli Stati Uniti. Inoltre ha dato il permesso di utilizzare i dispositivi Soli sugli aeroplani.

Soli è stato progettato dal gruppo Advanced Technology and Projects di Google (ATAP), che a sua volta è stato creato all’interno di Motorola Mobility dall’ex direttore DARPA Regina Dugan. Google ha acquisito ATAP con Motorola nel 2012, e lo ha tenuto quando ha venduto l’azienda a Lenovo due anni dopo.

ATAP si distingue da altri laboratori di ricerca per il fatto che tutti i suoi progetti dovrebbero passare dal concepimento al prodotto finito in due anni. Spesso questo obiettivo non viene raggiunto, ma il punto è muoversi aggressivamente verso la realizzazione finale.

Alcuni osservatori hanno paragonato la tecnologia con quella vista in Minority Report, il film di successo di 17 anni fa, o in Replicas, film più recente e meno di successo. (Nel trailer di Replicas è possibile vedere l’interfaccia utente in-the-air.)

Quelle interfacce utente immaginate a Hollywood implicano movimenti ampi e vistosi delle braccia e delle mani, mentre Soli consente l’interazione con leggeri movimenti delle dita. Per esempio, sfregare insieme i polpastrelli di pollice e indice (il gesto internazionale che corrisponde a “denaro”) può indicare a uno smartwatch di ruotare, o a uno smartphone di scorrere una serie di schermate.

Soli lavora con l’uso di uno speciale e minuscolo chip a stato solido (8 mm x 10 mm) che cattura il movimento 3D utilizzando il radar, quindi lo elabora con algoritmi di apprendimento automatico. Il radar passa attraverso i tessuti, quindi è possibile interagire con un telefono in tasca o uno smartwatch indossando i guanti.

ATAP è la divisione di ricerca che ha sviluppato Tango, Ara, Spotlight Stories, Jacquard, Abacus e Vault. Per inciso, tutti questi progetti sono stati cancellati o sono falliti dopo essere sbarcati sul mercato.

La differenza con Soli è che tutti i precedenti progetti ATP falliti o annullati miravano a creare un nuovo tipo di prodotto o una nuova piattaforma a cui il pubblico non era abituata. Per esempio Jacquard, lanciato come un’interfaccia utente di tessuto per il Levis Commuter Trucker Jacket with Jacquard by Google, è fallito non a causa del nome orribile o perché la tecnologia non fosse interessante, ma perché il pubblico non ha accolto bene l’idea di usare una giacca come interfaccia utente. O, almeno, il pubblico non voleva pagare 260 dollari in più per avere il controllo dello smartphone attraverso un capo d’abbigliamento.

Soli dovrebbe essere integrato su piattaforme già conosciute, come smartphone e PC portatili pur con un aumento di prezzo. Anche se gli utenti non si mostreranno subito interessati, probabilmente i prodotti che supportano Soli arriveranno in ogni caso sul mercato.

Detto in altri termini, Jacquard avrebbe avuto qualche probabilità di successo se fosse stato semplicemente aggiunto alla giacca Trucker da 90 dollari già esistente, anziché essere disponibile solo nella versione speciale da 350 dollari.

Soli potrebbe essere più simile all’Assistente Google, che può essere integrato in diversi tipi di dispositivi, specialmente quelli che fanno parte dell’Internet of Things.

Il supporto dei movimenti in-the-air significa che apparecchi e sensori generici non necessitano di schermi o pulsanti e possono essere progettati con controlli naturali e intuitivi. Immaginate un allarme che si ripete dopo il numero di minuti indicati con le dita, o le notifiche di uno smartphone che scompaiono grazie a un naturale gesto di “congedo” della mano.

Le applicazioni per la realtà aumentata

Un’applicazione di cui nessuno parla è la possibilità di interazione con oggetti in realtà aumentata. Per esempio, un termostato potrebbe mostrare un quadrante virtuale sospeso nell’aria e rilevare quando si gira la manopola verso destra o sinistra per regolare la temperatura.

Per Soli Virtual Tool Gestures sono già stati sviluppati strumenti come pulsanti, quadranti e cursori.

Immaginate gli operai con gli occhiali di sicurezza in realtà aumentata che potrebbero evocare tutti i tipi di controlli virtuali, quindi utilizzare la tecnologia Soli per manipolare quei controlli nell’aria.

Google sta collaborando con LG, Qualcomm, JBL e altri per integrare Soli in prodotti già esistenti. Soli SDK potrebbe essere utilizzato da produttori di dispositivi di ogni tipo, purché tali dispositivi siano basati su Android, Chrome o sul sistema operativo di nuova generazione di Google, denominato Fuschia.

Anche gli scienziati usano Soli. I ricercatori dell’Università di St. Andrews, in Scozia, hanno pubblicato a dicembre un report in cui espongono dettagliatamente il loro lavoro, esplorando le possibilità dell’hardware Soli. Con il loro progetto RadarCat hanno dimostrato che Soli è così preciso da poter contare con precisione il numero di carte da gioco in un mazzo, capire l’orientamento della bussola e mappare l’esatta configurazione dei mattoncini LEGO.

Soli può identificare oggetti o materiali. I ricercatori hanno mostrato come Soli possa identificare mele, arance e hard disk, capire se gli oggetti sono fatti di vetro, rame o acciaio, o che tipo di bevanda viene versata in un bicchiere. Può anche stabilire come l’utente sta tenendo uno smartphone o con quale parte del corpo tocca il telefono.

Google ha fatto un ottimo affare con Immersion Corporation

L’attenzione verso Project Soli ha fatto passare in secondo piano un’altra notizia importante. Questo mese Google ha stretto un accordo pluriennale con Immersion Corporation, il leader della tecnologia aptica.

Immersion è la società indipendente che consente ai controller di gioco e agli smartphone di emettere suoni e vibrazioni per dare un feedback sensoriale agli utenti.

L’accordo conferisce a Google il diritto di utilizzare o essere protetta da alcuni o tutti i 3000 brevetti di Immersion.

Ciò è importante perché Motorola/Google ha perso una causa per violazione di brevetti contro Immersion sette anni fa, e quella causa era incentrata su “Basic Haptics”, che rappresenta un semplice ronzio. Immersion ha vinto cause legali anche contro aziende del calibro di Apple, Microsoft, Samsung, Sony e Fitbit.

La causa Motorola/Google riguardava solo telefoni con marchio Motorola, non telefoni Pixel o Android, ne’ prodotti hardware attualmente realizzati da Google.

I termini dell’affare non sono stati divulgati, ma è ragionevole credere che un accordo di licenza su tutti i brevetti Immersion debba essere stato estremamente costoso per Google

Ed è altrettanto ragionevole immaginare che l’accordo sia legato a Soli.

Il feedback aptico è una caratteristica necessaria di Soli, perché altrimenti i gesti “in-the-air” non fornirebbero il feedback psicologicamente necessario per capire che qualcosa è realmente accaduto sul dispositivo. Per esempio, mentre si ruota un quadrante immaginario nello spazio si potrebbe avere una sensazione di “clic” sullo smartwatch per confermare che qualcosa sta davvero accadendo.

Le notizie su Project Soli e sull’accordo con Immersion si sommano alle mosse aggressive di Google per reinventare l’interfaccia utente touch togliendo il “touch” dall’equazione.

Il cambiamento di interfaccia utente è nell’aria.