Ancora non è finita la migrazione al cloud, che già in alcuni ambienti si comincia a parlare di “cloud repatriation”: il ritorno nei data center di proprietà dei carichi di lavoro precedentemente portati in cloud. La situazione è in grande fermento, e per molte aziende lo scenario più opportuno per il momento sembra essere quello ibrido, che permette di valutare cosa eseguire in cloud e cosa no in base al carico di lavoro e al tipo di applicazione.

Allo scenario non si sottrae il mainframe. Accanto a un fenomeno di migrazione dal mainframe al cloud – di cui abbiamo parlato anche di recente in questo articolo – negli ultimi anni si è riscontrata una sempre maggiore apertura del mainframe stesso al cloud, alle sue tecnologie e ai suoi modelli di flessibilità e scalabilità. “Le condizioni di mercato hanno imposto alle aziende di avere un’agilità, che oggi va perseguita per rendere competitiva l’azienda in qualsiasi scenario di business. Anche il mainframe ha riconosciuto questa necessità e si è dotato di strumenti per avvicinare il patrimonio storico dell’azienda, che è nel mondo on-prem, al mondo del cloud. IBM ha reso il mainframe parte di questa strategia”, dice a Computerworld Francesco Casa, Vice President della divisione zStack di IBM Technology per l’Italia.

Francesco Casa, Vice President zStack, IBM Technology, Italia

Francesco Casa, Vice President zStack, IBM Technology, Italia

Il timore però è che è molte aziende non abbiano percepito questa evoluzione, e vedano la migrazione al cloud come unica via di uscita verso il nuovo mondo digitale. Citando Gartner, che sostiene che per molte aziende gli investimenti nel mainframe sono simili a quelli fatti nel mercato immobiliare (dopo l’acquisto, non si fanno ulteriori investimenti per 15 anni), Casa afferma che “per tanto tempo nelle aziende non sono stati fatti investimenti su competenze, applicazioni e per far fruttare il patrimonio dei dati, rendendoli fruibili e integrabile con il resto di un mondo che avanza, con servizi che sono aumentati in numero e si sono diversificati. Non si può più pensare che una scelta fatta oggi non dovrà essere modificata entro cinque anni. La velocità non è più quella del passato”.

Il mainframe si è dotato di strumenti per avvicinare il patrimonio storico dell’azienda, che è nel mondo on-prem, al mondo del cloud

Ma cosa intende IBM per “modernizzazione del mainframe”? Quali sono le caratteristiche su cui si fa leva? La strategia di IBM è imperniata su tre punti: competenze, applicazioni e dati.

Lavorare sui mainframe con le competenze di oggi

Uno dei punti spesso citati quando si parla del futuro del mainframe è quello della carenza di risorse con competenze specializzate. Molti degli sviluppatori Cobol stanno andando in pensione, portando con sé non solo le competenze generali sul linguaggio, ma anche quelle specifiche sui processi e gli applicativi custom utilizzati all’interno dei sistemi aziendali. Anche per questo, in molte aziende, c’è un po’ di timore nel mettere mano a script e software che sono in uso da diversi lustri. Tra un “abbiamo sempre fatto in questo modo”, e un “se facciamo dei cambiamenti, che ne sarà del mio ruolo”, sono diverse le dinamiche aziendali che possono ostacolare un processo di innovazione.

oggi è possibile sviluppare, mantenere e modificare applicazioni mainframe senza avere competenze Cobol

Sicuramente nelle aziende si sarebbe potuto e dovuto fare di più per documentare e mantenere processi e software, e anche per coltivare nuove leve, ma secondo Casa “grazie agli strumenti software messi a disposizione da IBM, oggi è possibile sviluppare, mantenere e modificare applicazioni mainframe senza avere competenze Cobol”.

Casa sottolinea che la catena DevOps del mondo mainframe utilizza gli stessi strumenti che oggi un neo laureato conosce e utilizza, come GitHub, Jenkins o Ansible, e tool come ADDI (Application Discovery & Delivery Intelligence) permettono di mappare le applicazioni e le loro dipendenze, anche in termini grafici, produrre documentazione e suggerire pattern di modifica, stimando anche lo sforzo richiesto un determinato change, e i possibili fattori di rischio.

Applicazioni mainframe aperte al cloud

ADDI può anche valutare come fare interagire le applicazioni interne con il mondo che sta fuori dal mainframe, cosa che può avvenire principalmente in due modi:

  • Esponendo API attraverso zOS Connect, che permette alle applicazioni fuori dal mainframe di parlare in modo semplificato con le applicazioni interne;
  • Eseguendo applicazioni moderne e containerizzate direttamente dentro al mainframe.

“Oggi il mainframe può far girare Container zCX, sia in ambienti OpenShift (con Red Hat come elemento trasversale tra on-prem e cloud) sia in Docker nativamente: l’architettura Emperor 4 con LinuxOne può far girare direttamente carichi di lavoro Linux ”, afferma Casa.

Far girare Linux su mainframe può sembrare un controsenso, ma IBM prevede per quei workload una crescita del 20 percento all’anno fino al 2029, spinta da motivi di consolidamento e ottimizzazione dei carichi, dell’occupazione di spazio e dei consumi energetici “Un mainframe può viaggiare costantemente al 90 percento del carico, contro una media del 30% dei sistemi x86, e il mainframe consente risparmi sull’energia fino al 70 percento, e dell’86 percento in termini di spazio fisico. Anche per questo – afferma Casa – vediamo una crescita esponenziale dei carichi di lavoro che interessano i processori ZIIP” (dei moduli di calcolo che operano parallelamente e in modo asincrono rispetto alle applicazioni mainframe, e adatti quindi a ospitare nuovi carichi di lavoro, container, processi di analisi e interfacce per il cloud ibrido, senza impattare, NdR).

Riguardo ai workload nativi zOS, invece, Casa sottolinea l’opportunità di utilizzare la soluzione Wazi as-a-Service per sviluppare e testare applicazioni su un’infrastruttura virtualizzata in cloud, senza esporre il mainframe a rischi, per poi mettere in produzione modifiche o nuovi sviluppi una volta raggiunti gli obiettivi stabiliti.

Mettere a frutto i dati dei mainframe, in sicurezza

Le applicazioni vivono di dati, e un altro motivo per decidere la posizione da cui erogare le applicazioni per il cloud ruota attorno al concetto di “data gravity”, che suggerisce di tenere le applicazioni il più vicino possibile ai dati per ottimizzare le prestazioni. “Molti clienti hanno provato a copiare i dati dei mainframe su ambienti distribuiti, ma questo ha generato problemi con la duplicazione dei dati, il loro disallineamento, la governance e il controllo”, commenta Casa.

La soluzione di IBM per rendere i dati mainframe disponibili al cloud passa attraverso il Data Virtualization Manager, che permette di esporre a sistemi fuori dal mainframe i dati in modo virtualizzato e mascherato. Ai dati si può quindi accedere usando la sintassi e la forma del cloud. “Il Data Virtualization Manager può funzionare anche con sistemi basati su Data Lake e Data Lakehouse, permettendo la visibilità sui dati senza replica e senza rinunciare alla governance”.

E a proposito di sicurezza, Casa ricorda che i sistemi z16 già implementano meccanismi di crittografia “quantum proof” progettata per resistere agli attacchi abilitati dal quantum computing, che si prevede metteranno presto in crisi tutti gli attuali sistemi crittografici. “Anche se la minaccia è ancora nel futuro, è qualcosa di cui le aziende devono cominciare a occuparsi oggi, avvisa Casa: i processi di certificazione possono richiedere anni, non mesi, ma il problema principale è cosa si potrà fare un domani con i dati che vengono rubati oggi. Il rischio non può essere azzerato solo dopo che si è presentato”.

il problema è cosa si potrà fare un domani con i dati che vengono rubati oggi

È di questi giorni l’annuncio di un nuovo approccio di IBM per la gestione del Quantum Safe, la cassaforte di dati a prova di attacchi quantistici, basato su un’analisi degli asset da proteggere lungo tutta la filiera crittografica (Cryptographic Bill of Materials).

Mainframe e cloud: diverse strade aperte

Per IBM quindi, le possibilità di apertura del mainframe al mondo cloud sono molteplici, e una migrazione radicale dovrebbe essere considerata molto attentamente. “Il progetto di migrazione al cloud di DHL ha impiegato 10 anni: quale cliente può fare un progetto di così lungo respiro e ottenerne i benefici attesi, considerata la velocità di cambiamento? Modernizzare il mainframe è la strada più veloce”, afferma Casa.

Per IBM, quindi, in un’ottica di riduzione dei costi, alcuni carichi di lavoro non critici possono essere spostati sui processori ZIIP senza impattare sulle risorse computazionali classiche dei mainframe. Le tecnologie native del cloud possono essere eseguite in ambiente LinuxOne, mentre API e virtualizzazione dell’accesso ai dati permettono l’integrazione protetta con i servizi in cloud.