Governance dell’AI: ridurre il rischio con la giusta strategia

Con l'intelligenza artificiale che passa dai progetti pilota alla produzione, le aziende devono stabilire grazie alla governance dell’AI strategie di supervisione interdipartimentale incentrate sulla qualità dei dati, la conformità, l'etica e altro ancora.

Governance dell’AI

La governance dell’IA tocca molte aree funzionali all’interno dell’azienda: privacy dei dati, bias degli algoritmi, conformità, etica e molto altro. Di conseguenza, affrontare la governance dell’uso delle tecnologie di intelligenza artificiale richiede un’azione a molti livelli. “Non inizia a livello IT o di progetto” afferma Kamlesh Mhashilkar, responsabile della pratica di analytics e dati presso Tata Consultancy Services. “La governance dell’AI avviene anche a livello di governo, a livello di consiglio di amministrazione ea livello di CSO”.

Nell’assistenza sanitaria, ad esempio, i modelli di intelligenza artificiale devono superare controlli e ispezioni rigorosi. Anche molti altri settori hanno normative applicabili. “E a livello di board, si tratta di comportamenti economici”, dice Mhashilkar. “Che tipo di rischi corri quando introduci l’intelligenza artificiale?”

Per quanto riguarda la C-suite, le agende dell’AI sono guidate da uno scopo. Ad esempio, il CFO sarà in sintonia con il valore e la redditività degli stakeholder. Anche i CIO e i Chief Data Officer sono stakeholder chiave, così come i responsabili del marketing e della conformità. E questo per non parlare di clienti e fornitori.

adv
Cloud Communication Business

Nell’era digitale il centralino va in Cloud

La telefonia di nuova generazione è in software-as-a-service: non richiede di installare centralini hardware, gestisce fisso e mobile, e consente di attivare nuove linee o filiali con un clic, abilitando Smart Working e Unified Communication. SCOPRI DI PIÙ >>

Non tutte le aziende però dovranno agire su tutti i fronti per costruire una strategia di governance dell’AI. Le aziende più piccole, in particolare, possono avere poca influenza su ciò che fanno i grandi fornitori o gruppi regolatori. Tuttavia, tutte le aziende utilizzano o utilizzeranno presto l’intelligenza artificiale e le tecnologie correlate, anche se sono semplicemente incorporate negli strumenti e nei servizi di terze parti che utilizzano.

E se utilizzata senza un’adeguata supervisione, l’intelligenza artificiale ha il potenziale per commettere errori che danneggiano le operazioni aziendali, violano i diritti alla privacy, entrano in conflitto con le normative del settore o creano cattiva pubblicità per un’azienda. Ecco come le aziende lungimiranti stanno iniziando ad affrontare la governance dell’AI mentre passano dai progetti pilota alla produzione, concentrandosi su qualità dei dati, prestazioni algoritmiche, conformità ed etica.

Affrontare l’etica dell’AI

Poche aree oggi sono interessate da preoccupazioni di ordine etico come il riconoscimento facciale. Esiste un grande potenziale di abuso e le aziende che offrono tecnologie di riconoscimento facciale ricevono critiche dal pubblico e, a volte, dai propri dipendenti. È il caso di Xtract AI, una sussidiaria di Patriot One Technologies che utilizza il riconoscimento delle immagini per identificare le persone che trasportano armi.

La tecnologia può essere utilizzata anche in altri contesti, ad esempio per identificare le persone che non rispettano le linee guida sulla mascherina o sul distanziamento sociale, afferma Justin Granek, VP delle operazioni di Xtract. L’etica è uno dei principali argomenti di conversazione. “Nel nostro caso abbiamo assistito a un movimento proveniente dal basso verso l’alto, con il nostro staff che ha spinto fortemente la leadership a sviluppare la nostra politica di governance”.

I clienti hanno i propri requisiti e c’è un equilibrio che deve essere determinato. “Uno dei nostri clienti è il Dipartimento della Difesa canadese e alcuni dei nostri clienti sono nel settore sanitario. Guardano al fattore etico dell’AI da diverse prospettive. Ma ci sono anche problemi tecnici che devono essere affrontati e questi iniziano dai dati”.

Ottenere dati corretti

La principale fonte di bias algoritmico è nei set di dati. Per il riconoscimento facciale, ad esempio, i set di dati non sono stati storicamente rappresentativi della popolazione generale. “Sono prevenuti verso i maschi bianchi”, dice Granek. “È un aspetto in fase di correzione, ma c’è ancora molto lavoro da fare.” Gli esperti possono aiutare a risolvere i problemi di distorsione dei dati e i fornitori di dati commerciali stanno lavorando per colmare le lacune nei dati che forniscono. Ci sono anche modi per creare set di dati sintetici, ma spesso la soluzione è ottenere dati migliori, afferma Granek.

Per l’algoritmo di rilevamento delle armi di Xtract ciò significava allestire un laboratorio, riempirlo con un’ampia varietà di armi da fuoco scariche e portare molte persone a camminare in modi diversi, in luoghi diversi. “Un approccio ingenuo è quello di guardare a Hollywood per le immagini di persone che camminano con le pistole, ma questo non è rappresentativo del mondo reale”.

intelligenza artificiale

Xtract si è invece sforzata di raccogliere un’ampia gamma di individui per i propri dati di training. “Non esiste una ricetta per chi potrebbe portare un’arma. Abbiamo degli studenti, delle persone un po’ più anziane; abbiamo un sacco di individui diversi”.

Per alcune applicazioni di intelligenza artificiale, set di dati accurati e rappresentativi possono fare la differenza tra la vita e la morte e avere significative implicazioni morali ed etiche. Ma anche quando gli effetti di insiemi di dati errati non portano a disastri pubblici, possono comunque causare danni operativi o finanziari alle aziende o provocare problemi di regolamentazione o conformità.

Quest’ultima era la preoccupazione della messicana Cemex, uno dei maggiori distributori mondiali di materiali da costruzione. L’azienda ha più di 100 anni alle spalle e oggi si sta reinventando attraverso l’uso dell’intelligenza artificiale nella gestione e nelle operazioni della supply chain. Cemex ha iniziato circa tre anni fa a esaminare l’intelligenza artificiale e le tecnologie correlate per aumentare la quota di mercato, migliorare il servizio clienti e aumentare i profitti.

“L’anno scorso e quest’anno stiamo effettivamente vedendo il valore dell’AI su scala globale, non solo in un piccolo progetto pilota qua o là” afferma Nir Kaldero, chief AI officer dell’azienda. Con l’intelligenza artificiale saldamente inserita nel DNA dell’azienda, Cemex si è resa conto della necessità di inserirvi strutture di governance.

Tutto inizia con i dati. “Non esiste un’AI buona e affidabile senza una buona architettura delle informazioni”, afferma Kaldero. “Non si possono avere modelli validi e affidabili senza una buona informazione.” In Cemex, la governance dei dati abbraccia sicurezza, monitoraggio, privacy, conformità ed etica. L’azienda ha bisogno di sapere dove si trovano i dati, dove e come vengono utilizzati, se soddisfano i requisiti normativi e se sono privi di pregiudizi.

Cemex, che si affida alla piattaforma dati cloud Snowflake per gestire i propri dati e a Satori per gestirne l’accesso, ha un senior executive concentrato esclusivamente sui dati e un altro senior executive focalizzato sulla governance.

Ottenere i modelli giusti

Oltre alla governance dei dati, Cemex ha iniziato a creare una governance attorno ai modelli e ai risultati dell’AI. “Questo è qualcosa di nuovo”, dice Kaldero. “Non solo per Cemex, ma per il mondo.” Questa attività è condivisa tra il gruppo di intelligenza artificiale e scienza dei dati di Kaldero e il gruppo CIO. Cemex utilizza attualmente l’intelligenza artificiale per poter risparmiare denaro negoziando accordi migliori con i suoi fornitori.

Utilizza l’intelligenza artificiale anche per l’instradamento e la pianificazione dei camion, nonché per le vendite e i prezzi. Se uno qualsiasi di questi calcoli non è valido, la società rischia di perdere una grande quantità di denaro. Per proteggersi dai bias algoritmici, Cemex utilizza la tecnologia dell’azienda americana Algorithmia con sede a Seattle.

KenSci è un’altra azienda preoccupata per le conseguenze dei modelli di intelligenza artificiale. L’azienda utilizza l’AI per analizzare i dati sanitari, un’area in cui modelli di intelligenza artificiale accurati possono letteralmente essere una questione di vita o di morte. “Iniziamo sempre con la revisione degli obiettivi dei modelli di intelligenza artificiale con stakeholder diversificati” afferma Muhammad Aurangzeb Ahmad, principale data scientist dell’azienda. Per garantire che questi modelli siano trasparenti e responsabili, la “spiegabilità” è una componente fondamentale.

“Abbiamo persino rilasciato un pacchetto Python open source (fairMLHealth) che può essere utilizzato da chiunque per misurare l’equità dei modelli di machine learning”, afferma Ahmad, che raccomanda inoltre di controllare i modelli di intelligenza artificiale per le prestazioni tra diversi gruppi, per assicurarsi che le minoranze e altri gruppi vulnerabili siano trattati in modo equo. “La trasparenza e la spiegabilità dei modelli di intelligenza artificiale rendono più probabile che vengano utilizzati e considerati affidabili dagli utenti finali”.

AI ed etica

Un’altra area chiave da considerare nella definizione di una strategia di governance è l’etica dell’uso dell’AI. “La legislazione non ha tenuto lo stesso passo della tecnologia”, dice Ahmad. “È responsabilità dei creatori di sistemi di machine learning allinearsi agli obiettivi etici”. Joe Tobolski, CTO presso la società di consulenza per i servizi digitali Nerdery, vede le aziende diventare sempre più consapevoli dei possibili rischi etici dell’AI. “Ma sono completamente consapevoli di quali sistemi stanno utilizzando e di quali dati di training hanno a disposizione? Probabilmente no”, dice.

Poche aziende hanno un codice etico dell’AI chiaro da applicare ai loro progetti di intelligenza artificiale, fonti di dati e usi della tecnologia. Cemex è una società che ha deliberatamente limitato il suo utilizzo dell’AI per ridurre al minimo le potenziali complicazioni etiche. Ad esempio, sta dando la priorità ai progetti che migliorano i servizi e aiutano i clienti rispetto a quelli che ridurrebbero semplicemente l’organico.

trend tecnologici

“I dipendenti sono al centro dell’organizzazione, non la tecnologia”, afferma Kaldero. “Potremmo automatizzare tutti i nostri call center per i clienti, ma non è nel nostro interesse. Cemex è molto orgogliosa di essere un datore di lavoro che offre opportunità di lavoro alle persone. C’è qualcosa di bello in tutto questo”.

I progetti di AI vengono scelti per avere un impatto positivo sulla forza lavoro. Prendete la sicurezza, per esempio. “Questa è una grande iniziativa per l’intelligenza artificiale”, afferma Kaldero. “Cemex ha già ridotto gli incidenti in modo molto drastico, quasi a zero. E il modo per arrivare a zero è attraverso il riconoscimento delle immagini”.

Strategie di governance dell’AI

Per MassMutual, compagnia di assicurazioni sulla vita con sede a Springfield, la governance dell’AI si basa su una serie in continua evoluzione di principi di etica dei dati che guidano le azioni e il processo decisionale. “Abbiamo creato specificamente una serie di principi per l’utilizzo dell’intelligenza artificiale per far crescere la nostra attività in linea con i valori aziendali e gli interessi dei nostri titolari delle policy” afferma Sears Merritt, responsabile dei dati dell’azienda. “Abbiamo anche creato un team per supervisionare l’uso dell’AI attraverso la creazione di un quadro politico”.

MassMutual ha iniziato a esaminare l’etica e la governance dell’AI circa un anno fa, quando la società si è resa conto di assicurarsi di utilizzare l’intelligenza artificiale a vantaggio dei propri assicurati. Merritt ora supervisiona un team di sei persone, tra cui consulenti di etica e governance dell’AI, che controllano se gli algoritmi aderiscono ai principi di governance e come cambiano nel tempo, creando una struttura formale per gli approcci che l’azienda stava già seguendo.

“Riteniamo che il nostro lavoro abbia un enorme impatto su tutti i nostri stakeholder” afferma Merrit, che consiglia di iniziare con i principi fondamentali in linea con i valori aziendali e gli interessi dei clienti e di collaborare con partner in materia di legge, conformità, etica e affari per implementarli in modo coerente .

L’importanza dei guardrail

John Larson, SVP di Booz Allen Hamilton, afferma che molte delle migliori pratiche sulla governance dell’AI dovrebbero essere in qualche modo familiari. “Lo faccio da 25 anni”, dice. “Gli stessi principi su come si sviluppa il software, gli algoritmi, esistevano prima. Ma ciò che non esisteva era la velocità dei dati, la potenza del processo e gli algoritmi di apprendimento”.

I sistemi di intelligenza artificiale, affamati di dati di addestramento, in genere funzionano con set di dati più grandi che mai e, grazie alla digitalizzazione delle aziende odierne, i dati provengono da siti Web, sensori di rete, dispositivi IoT e altre fonti a velocità senza precedenti. La capacità di elaborare questi dati è elevatissima, grazie in gran parte alle risorse cloud che possono aumentare in modo quasi illimitato.

Infine, la natura di feedback di alcuni sistemi di intelligenza artificiale significa che, in effetti, imparano mentre procedono, da soli, e tali apprendimenti possono portarli in direzioni inaspettate a un ritmo troppo veloce perché gli esseri umani possano reagire.

A tal proposito gli sviluppatori possono impostare dei guardrail. Se l’accuratezza della previsione di un modello va oltre un obiettivo predefinito, o se il modello smette altrimenti di funzionare entro i parametri di progettazione, potrebbe essere necessaria una qualche forma di intervento. Allo stesso modo, se i dati in arrivo nel sistema non riflettono più le funzionalità richieste, potrebbe essere generato un avviso per rivalutare le origini dei dati o per scegliere un modello diverso che si adatti meglio ai dati in ingresso.

Infine, qualsiasi buon programma di governance dell’AI richiede proprietà e responsabilità. Non vi è alcuna garanzia che le aziende possano evitare conseguenze indesiderate dei loro algoritmi, pregiudizi o risultati discriminatori o altri danni, ma una governance efficace aiuta di certo.

Se questo articolo ti è stato utile, e se vuoi mantenerti sempre aggiornato su cosa succede nell’industria ICT e ai suoi protagonisti, iscriviti alle nostre newsletter:

CWI: notizie e approfondimenti per chi acquista, gestisce e utilizza la tecnologia in azienda
CIO:
approfondimenti e tendenze per chi guida la strategia e il personale IT
Channelworld: notizie e numeri per distributori, rivenditori, system integrator, software house e service provider

Iscriviti ora!