Intelligenza artificiale “Made in Europe”: la strategia dell’Unione Europea

La Commissione Europea sta lavorando per lo sviluppo di sistemi AI all’avanguardia e affidabili, per favorire lo sviluppo economico e la fiducia dei cittadini europei

europa intelligenza artificiale

In uno scenario in cui l’intelligenza artificiale (AI) è considerata un fattore chiave per lo sviluppo sociale ed economico, anche la Commissione Europea ha delineato una propria strategia d’intervento. L’obiettivo è unire gli sforzi di tutti i Paesi comunitari per sviluppare una intelligenza artificiale “Made in Europe”, che permetta al vecchio continente di rimanere all’avanguardia in questa rivoluzione tecnologica, mettendola al servizio dei cittadini e dell’economia europea.

L’approccio della Commissione Europea si basa su tre pilastri fondamentali: essere all’avanguardia nello sviluppo tecnologico, coinvolgendo sia il settore pubblico che quello privato; prepararsi per i cambiamenti socio-economici prodotti dall’intelligenza artificiale; garantire un appropriato contesto etico e legale per le applicazioni dell’AI.

La fiducia dei cittadini al centro dell’AI “Made in Europe”

La roadmap europea si sviluppa sul triennio 2018-2020 e prevede diverse iniziative, basate sulla collaborazione tra gli Stati membri, tra i quali l’Italia, che hanno aderito alla “Declaration of cooperation on Artificial Intelligence”.

Secondo la Commissione, tuttavia, lo sviluppo e l’adozione dell’intelligenza artificiale non possono prescindere da un contesto di fiducia da parte dei cittadini nelle applicazioni AI. E soprattutto in una gestione delle questioni morali ed etiche rispettosa dei valori europei.

Si tratta di uno scenario complesso e in continua evoluzione di cui si occupa l’High-Level Expert Group on Artificial Intelligence (HLGE), formato da 52 esperti indipendenti nominati dalla Commissione.

Dopo una prima bozza pubblicata nel dicembre 2018, a cui è seguita una consultazione pubblica, il gruppo HLGE ha elaborato un documento in cui sono raccolte le linee guida per lo sviluppo di una intelligenza artificiale sicura e affidabile.

Il documento, che introduce anche la definizione di intelligenza artificiale a cui fanno riferimento le linee guida, definisce i sette requisiti chiave che deve soddisfare un sistema AI per essere considerato sicuro e affidabile. I requisiti spaziano da questioni più tecniche, come la garanzia di trasparenza e protezione dei dati utilizzati, a questioni più ampie come il rapporto uomo-macchina, il rispetto delle diversità di qualsiasi genere, l’importanza di elaborare sistemi che favoriscono tutti gli esseri umani, senza discriminazioni.

Il documento completo elaborato dal gruppo HLGE è disponibile anche in lingua italiana: Orientamenti etici per un’IA affidabile.

Sara Brunelli
Attiva nel settore della comunicazione dal 2003, mi sono specializzata nell’editoria B2B, seguendo in particolare lo sviluppo di nuove tecnologie e della robotica.