Ogni futurista e analista con cui ho parlato è convinto che la tecnologia trasformativa dei prossimi sette anni sarà l’intelligenza artificiale. Sembra che tutti parlino di AI ma, sfortunatamente, la maggior parte di queste conversazioni non porta alla creazione di valore o a una maggiore comprensione. E, in qualità di leader IT, potete scommettere che queste stesse conversazioni si riverberano in tutta la vostra organizzazione, in particolare nella C-suite.

I CIO devono tuffarsi in questo vortice di parole, capire quali parti interessate stanno parlando di intelligenza artificiale e cosa stanno dicendo, rimediare a pericolosi malintesi e guidare la discussione verso progetti e processi che creano valore.

Una breve storia dell’hype e dell’impatto dell’AI

L’intelligenza artificiale fa parte della conversazione sull’IT da quando il termine è stato coniato nel 1956 da John McCarthy, matematico e informatico della Stanford University. L’interesse per l’AI è caratterizzato da ondate di entusiasmo e momenti di delusione per la tecnologia. Nel 1983 l’opinione prevalente sull’intelligenza artificiale era “sta arrivando, sta arrivando!” grazie in parte a The Fifth Generation: Artificial Intelligence and Japan’s Computer Challenge to the World di Edward Feigenbaum e Pamela McCorduck. Solo un anno dopo, nel 1984, un gruppo di startup specializzate in intelligenza artificiale nella Silicon Valley è crollato, inaugurando un periodo noto come “l’inverno dell’AI”. A quel punto, se si parlava di intelligenza artificiale, in genere la conclusione era “non ci siamo ancora“.

Verso la fine del secolo siamo entrati – la maggior parte di noi inconsapevolmente – nell’era dell’intelligenza artificiale ristretta (ANI, artificial narrow intelligence), a volte indicata come “AI debole”, ovvero un’intelligenza artificiale specializzata in un’area specifica. In A Citizen’s Guide to Artificial Intelligence, John Zerelli sostiene che “tutte le principali AI esistenti oggi sono specifiche del dominio“, ovvero ANI.

Il percorso generale per una intelligenza artificiale debole è che si focalizza in un determinato dominio e circa 7/10 anni dopo diventa impossibile competere/eseguire quel particolare compito/attività senza l’intelligenza artificiale. I manager devono avere conversazioni tattiche su quali domini e aree di attività – ovvero, nel linguaggio dell’AI, su quali problemi definibili e obiettivi misurabili – lavorare con l’intelligenza artificiale.

Nel 2009 eravamo circondati da AI deboli invisibili, sotto forma di consigli per gli acquisti, la visione e l’ascolto; diagnostica medica; ammissioni all’università; collocazione lavorativa, e così via. Oggi l’ANI è onnipresente, invisibile e fondamentalmente fraintesa. Ray Kurzweil, informatico, futurista e direttore dell’ingegneria di Google, ripete continuamente che se i sistemi di intelligenza artificiale andassero in sciopero “la nostra civiltà sarebbe paralizzata“.

Oggi, in generale, le persone non parlano in modo sostanziale di AI, nonostante il fatto che gli high performer abbiano concluso che non si potrà mai superare la concorrenza di coloro che utilizzano l’AI in modo efficace.

In The Age of AI: And Our Human Future, Henry A. Kissinger, Eric Schmidt e Daniel Huttenlocher ci dicono che “l’AI introdurrà un mondo in cui le decisioni vengono prese in tre modi principali: dagli umani [il che è familiare]; dalle macchine [che sta diventando familiare] e dalla collaborazione tra umani e macchine”. Le organizzazioni devono avere confronti e discussioni che descrivono in dettaglio come verranno prese le decisioni critiche.

Fare passi concreti per trarre valore dall’AI

Le organizzazioni devono avere parlare con ogni dipendente per determinare le sue preferenze in merito al tipo di assistenza AI di cui ha bisogno per massimizzare le sue prestazioni/coinvolgimento.

Uno dei temi più importanti sull’intelligenza artificiale di cui oggi non parla ancora abbastanza è come dovrebbe essere regolamentata. Nel suo best-seller Future Shock, ancora oggi rilevante, il mio ex capo Alvin Toffler profetizzò correttamente un futuro ad alta intensità tecnologica e suggerì la necessità di un difensore civico tecnologico, “un’agenzia pubblica incaricata di raccogliere, indagare e agire sui reclami per una applicazione irresponsabile della tecnologia”.

Nel 2017, lo studioso di diritto Andrew Tutt ha scritto An FDA for Algorithms, in Administrative Law Review, spiegando la necessità di “un pensiero critico sul modo migliore per prevenire, scoraggiare e compensare i danni che causano” e di un’agenzia governativa appositamente creata per tale scopo.

Una delle conversazioni che ognuno di noi deve avere è con i nostri rappresentanti eletti, per capire qual è la loro posizione, qual è la loro comprensione dell’AI, degli impatti e dei potenziali danni.

Demis Hassabis, CEO di DeepMind Technologies, la società acquisita da Google che ha creato AlphaGo, il programma che ha battuto il campione mondiale di Go nel 2016, avverte che l’AI è ora “sul punto” di poter realizzare strumenti che potrebbero essere profondamente dannosi per la civiltà umana.

Elon Musk, Martin Rees – astrofisico, insignito del titolo Astronomer Royal e autore di On The Future: Prospects for Humanity – e il defunto Stephen Hawking hanno tutti messo in guardia contro l’uso improprio, l’incomprensione, la cattiva gestione e la sottoregolamentazione dell’AI.

John Brockman, che è stato agente letterario per la maggior parte dei primi pensatori nello spazio AI ed è editore di Possible Minds: Twenty-Five Ways of Looking at AI , sostiene che “l’AI è troppo grande per qualsiasi prospettiva“.

Il modo migliore per espandere la propria comprensione di questo argomento incredibilmente importante è impegnarsi in dialoghi e confronti. Anche all’interno della propria azienda. Non lasciate che la vostra organizzazione vada fuori strada a causa di un approccio sbagliato all’AI.

Thornton May