L’intelligenza artificiale (AI) e l’apprendimento automatico (ML) svolgeranno un ruolo sempre più vitale nello sviluppo della tecnologia aziendale e supporteranno un’ampia gamma di iniziative aziendali nei prossimi anni. La società di ricerca IDC prevede che il mercato mondiale dell’AI, inclusi software, hardware e servizi, raggiungerà i 341,8 miliardi di dollari quest’anno e crescerà a un tasso annuo del 18,8% per superare i 500 miliardi di dollari entro il 2024. Entro il 2026, inoltre, il 30% delle organizzazioni si affiderà regolarmente a insights supportati da AI/ML per guidare azioni che potrebbero comportare un aumento del 60% dei risultati desiderati.

Nonostante l’ottimismo i modelli di reti neurali profonde (DNN) che stanno guidando l’aumento dell’adozione del machine learning hanno uno sporco segreto: i ricercatori non capiscono esattamente come funzionano. Se i leader IT mettono in campo una tecnologia senza comprendere le basi del suo funzionamento, rischiamo una serie di risultati negativi. I sistemi potrebbero essere pericolosi nel senso che possono essere distorti, imprevedibili e/o produrre risultati che non possono essere facilmente compresi dagli operatori umani. Questi sistemi possono anche contenere idiosincrasie che potrebbero essere sfruttate dai competitor.

Quando il machine learning viene utilizzato in applicazioni mission-critical, i CIO e i loro team di progettazione si trovano di fronte a un paradosso: la scelta tra i risultati migliori che il machine learning può offrire e il rischio di risultati negativi. Questo può anche diventare un dilemma morale. Supponiamo che una rete neurale profonda utilizzata per elaborare immagini mediche possa riconoscere determinate forme di cancro meglio del medico specializzato. Siamo moralmente obbligati a utilizzare questa tecnologia, che può avere effetti positivi salvavita, anche se non sappiamo come raggiunge i suoi risultati?

Un obiettivo a lungo termine di alcuni ricercatori di ML è sviluppare una comprensione più completa delle DNN, ma cosa dovrebbero fare i professionisti da qui ad allora, specialmente quando risultati negativi possono comportare rischi per la vita e/o la proprietà?

Stabilire guard rail per l’apprendimento automatico

Gli ingegneri hanno affrontato situazioni simili in passato. Agli albori dell’aeronautica, per esempio, non avevamo una comprensione completa della fisica sottostante o la capacità di analizzare la progettazione degli aerei. Per compensare questa mancanza di comprensione, gli ingegneri aeronautici e i piloti collaudatori definivano il contesto operativo all’interno del quale l’aeromobile potrebbe essere pilotato in sicurezza. Quindi venivano adottate misure, attraverso sistemi di controllo di volo, addestramento dei piloti e così via, per garantire che l’aeromobile venisse utilizzato solo entro quel contesto sicuro.

Lo stesso approccio può essere applicato al machine learning, definendo una “cornice” sicura e prevedibile e creando guard rail che mantengono i modelli ML al suo interno e riducono al minimo la possibilità di output non sicuri e/o imprevedibili. Di seguito sono riportati alcuni approcci suggeriti per la creazione di sistemi ML con maggiore sicurezza e prevedibilità.

1. Identificare il range di output del modello considerati sicuri. Una volta identificato il range di output sicuri, possiamo tornare indietro nel modello per identificare un insieme di input sicuri i cui output rientreranno sempre nell’intervallo desiderato. I ricercatori hanno dimostrato che questa analisi può essere eseguita per alcuni tipi di modelli basati su DNN.

2. Installare i guardrail “davanti” al modello. Una volta che si conosce l’intervallo sicuro di input, è possibile installare un guardrail software davanti al modello per assicurarsi che non vengano mai mostrati input che lo porteranno in un luogo non sicuro. I guardrail, infatti, tengono sotto controllo il sistema ML. Anche se non sappiamo esattamente come il modello arriva a un output specifico, sapremo che gli output sono sempre sicuri.

3. Focalizzarsi sui modelli che generano risultati prevedibili. Oltre a mantenere gli output entro un intervallo di sicurezza, desideriamo anche che i modelli non producano risultati che oscillano selvaggiamente da un estremo all’altro dello spazio di output. Per alcune classi di DNN, è possibile garantire che se un input cambia solo di una piccola quantità, l’output cambierà proporzionalmente e non salterà in modo imprevedibile a una parte completamente diversa dell’intervallo di output.

4. Addestrare i modelli per essere sicuri e prevedibili. I ricercatori stanno trovando metodi per modificare leggermente la formazione delle DNN in modo che diventino suscettibili dell’analisi di cui sopra senza compromettere le loro capacità di riconoscimento dei modelli.

5. Mantenere l’agilità. Poiché si tratta di uno spazio in rapido movimento, la chiave è costruire guardrail nell’architettura ML, pur mantenendo l’agilità per evolversi e migliorarli man mano che diventano disponibili nuove tecniche.

Il compito dei leader IT è garantire che i modelli di machine learning che sviluppano e distribuiscono siano sotto controllo. La creazione di guardrail è un importante passo intermedio, mentre sviluppiamo una migliore comprensione di come funzionano le reti neurali profonde.