Ecco come iPhone 12 potrà dare impulso alla sfera professionale

Apple ha presentato la sua nuova gamma di iPhone 12 (l’iPhone 12 mini, l’iPhone 12, l’iPhone 12 Pro e l’iPhone 12 Pro Max) e un HomePod mini (che per ora non uscirà in Italia). Conosciamo benissimo i trascorsi successi dell’azienda e quindi è certo che anche questi suoi nuovi smartphone saranno all’altezza delle aspettative. Ma esattamente cosa dovrebbero aspettarsi i professionisti aziendali?
Ora è il momento di entrare nel 5G
Non c’è dubbio che il miglioramento dell’iPhone 12 che molto probabilmente interesserà i professionisti aziendali sarà l’introduzione del 5G, che fornirà una connettività più sicura e, forse, più affidabile per portare a termine il lavoro ovunque si trovino. Ciò che è più importante è che questa mossa di Apple accelererà l’innovazione nello spazio 5G. Le aziende vorranno infatti esplorare come il 5G potrà essere sfruttato accanto agli altri strumenti di Apple per offrire nuove esperienze e generare nuovo business, mentre le aziende early-adopter inizieranno finalmente a portare a un pubblico più ampio i primi servizi su cui hanno lavorato.
Chip U1
Come Apple Watch Series 6 e iPhone 11, HomePod mini e l’intera famiglia di iPhone 12 sono dotati del processore Apple U1 ultra-wideband. Gli usi iniziali di questo chip sembrano piuttosto modesti: condivisione di file, sostituzione delle chiavi dell’auto con lo smartphone (o l’orologio) e strumento per il rilevamento di prossimità. Apple ha però chiarito in modo netto che la sicurezza fa parte del suo piano generale per lo standard e ha senso pensare che la grande idea di fondo non sia limitata a ciò che si potrà fare in casa, dato che sia gli iPhone, sia l’Apple Watch hanno questo chip.
Sappiamo comunque che Apple sta creando una piattaforma attorno a questo chip. Al momento, sembra che stia lavorando al seeding su larga scala, il che significa che gli sviluppatori stanno capendo cosa poter fare con il chip ora per essere pronti a entrare nel mondo business una volta che Apple fornirà nuove API. In che modo, ad esempio, questo si collegherà agli strumenti di imaging di Apple, in particolare il LiDAR? (Light Detection And Ranging, un sistema che misura la distanza da un oggetto illuminandolo con una luce laser e permettendo quindi una visione digitale tridimensionale).
Le aziende sfrutteranno il Neural Engine?
Tutti gli iPhone disponibili ora utilizzano il nuovo processore Bionic A14 di Apple e ciò che potrebbe interessare di più alle aziende (e agli sviluppatori aziendali) è la misura in cui la potenza comprovata del suo motore neurale multi-core potrà essere sfruttata per soddisfare una gamma più ampia di esigenze di intelligenza artificiale. Questa intelligenza di imaging computazionale può essere sfruttata con successo per supportare cose come RPA o monitoraggio della sicurezza della rete edge? Apple fornirà API per consentire agli sviluppatori di innovare in tali spazi? O il suo modello si basa sull’implementazione di tale capacità solo all’interno del suo MDM Apple?
Cosa porterà LiDAR?
Qualcun pensa che LiDAR sia una soluzione fantastica a un problema che non abbiamo ancora identificato. In una certa misura questa tecnologia ha sempre avuto senso come parte di un sistema di rilevamento delle collisioni per veicoli autonomi, ma come può aiutare nella vita di tutti i giorni?
Leggi anche: Sensori Lidar, gli “occhi” delle macchine che misurano distanze e riconoscono oggetti
Una dimostrazione di come la tecnologia può migliorare la modalità notturna è stata combinando sensori avanzati con la fotografia computazionale, ma cos’altro porta LiDAR oltre all’uso come strumento per abilitare soluzioni 3D e l’interior design? Al momento, gli usi principali probabilmente riguarderanno la creazione di nuove esperienze di realtà aumentata, facendo uso della capacità del sensore di misurare la distanza percorsa dalla luce tra oggetti esterni e la fotocamera stessa.
Il miglior processore disponibile?
Apple afferma che la CPU e la GPU dell’A14 Bionic sono significativamente più veloci dei processori disponibili nell’attuale gruppo di smartphone concorrenti (il 50%). I punti salienti di questo nuovo SoC sono:
- Acceleratori machine learning più veloci del 70%
- Motore neurale più veloce dell’80%
- GPU a 4 core
- CPU a 6 core
- Motore neurale a 16 core
- 8 miliardi di transistor
- 11 trilioni di operazioni al secondo sul Neural Engine
La prossima grande domanda è: quanto la versione Mac di questi chip (supponendo che una cosa del genere esisterà) accelererà le prestazioni dei Mac con a bordo Apple Silicon? Presto ne scopriremo di più.