Evoluzione del data center, tra Edge e hyperscale

Il data center del futuro sarà sempre più come una fabbrica di dati: integrerà machine learning ed Edge e verrà acquistato in modalità in pay per use

Il mercato italiano dei data center sta vivendo una fase di accelerazione, anche trainato da una rete internazionale. Si ritiene che questa accelerazione riduca fortemente il gap con altre aree geografiche, migliorando la situazione generale di aziende e cittadini.

Sia la maggior coesione tecnologica in ambito europeo, sia la ristrutturazione nei confini nazionali, potrebbero infatti dare forma adeguata a quella parte di debito pubblico permessa dal Recovery Fund e dettagliata nel PNRR, in Piano Nazionale di Ripresa e Resilienza.

Il contesto attuale è altamente competitivo su tecnologie, organizzazioni, competenze professionali e reali proposte di business, tutti punti in continuo cambiamento.

ADV
HP Wolf Security

Il perimetro aziendale oggi passa dalla casa dei dipendenti

Metà dei dipendenti usa il PC anche per scopi personali e il 30% lascia che venga utilizzato da altri famigliari. La tua cybersecurity è pronta per le sfide del lavoro remoto? LEGGI TUTTO >>

A questo argomento Vertiv, insieme a numerosi altri player di settore, ha dedicato un incontro di approfondimento, il Tomorrow’s Data Center Forum. Nel mondo di datacenter classici e hyperscale, l’ospite d’onore è oggi l’Edge Computing: sullo sfondo, non molto lontani da noi, si vedono avvicinarsi nuovi modelli organizzativi.

Se i dati sono soldi, l’edge server è la filiale della banca

“La crescita attesa del business dei datacenter è del 18% annuo”, valuta Sherif Rizkalla, Ceo di Supernap Italia. L’uptime del centro deve essere del 100% e deve comprendere la valutazione di quattro componenti: energia, raffrescamento, sicurezza e connettività.

Supernap Italia è un datacenter da 42.000 mq in un’area da 100.000 mq in Siziano, a Pavia.

Nel 18% di crescita sono compresi anche gli Edge Server, che eseguono un mix di attività diverso da quello dei datacenter tradizionali e hanno quindi una loro specificità.

Per meglio spiegare la situazione dell’informatica si fa spesso un un parallelo tra dati e denaro, indicando nei dati la moneta corrente di oggi. In questa descrizione gli hyperscale datacenter sono come le banche, mentre i server Edge sono come filiali di zona.

Oggi grazie agli standard si è fatta chiarezza ed “è chiaro che servono alte competenze su tutta la filiera, dice Alberto Caccia, Direttore di Lombardini22 che è un’azienda specializzata nella realizzazione di data center e parte del network Cap DC. La chiarezza permette una individuazione precoce del rischio in tutte le fasi, dalla scelta del sito alla costruzione, fino al rilascio.

Sul piano internazionale si opera con standard di performance e normativi (internazionali e locali) per Hyperscale ed Edge. Alla base troviamo i 4 tier dell’Uptime Institute, ma anche la TIA-942.

Uscendo dal data center classico, però, qualche differenza si riscontra. “Nell’Edge il rilascio dei siti è essenziale”, specifica Caccia. Il modello è quindi diverso da quello del data center e “il focus passa dal rischio al time to delivery: la filiera dev’essere più corta per un approccio fast track fin dall’inizio”.

Realtà aumentata e digital twin

Ipotizzando il futuro dei carichi di elaborazione, inoltre, uno spazio a parte va dedicato all’intelligenza artificiale. Soluzioni di Machine/Deep Learning as-a-Service sono sempre più richieste e a breve tutti dovranno fare i conti anche con loro.

Inoltre si è ormai fatto strada anche il digital twin del datacenter, grazie al quale le operazioni possono essere pianificate con attenzione e la manutenzione permette di ridurre i profili di rischio.

Tra le tendenze non specifiche del mondo ICT troviamo la modellizzazione 3D in realtà aumentata per mostrare al cliente l’impianto in tutte le fasi preliminari alla costruzione, sia in generale, sia per inserire specifici sottosistemi come è spesso il caso della refrigerazione.

Pay per use anche per il data center?

L’evoluzione del modello a consumo potrebbe giocare un ruolo molto importante in un futuro anche prossimo. Secondo Filippo Busato, Presidente AiCARR (Associazione italiana Condizionamento dell’Aria, Riscaldamento e Refrigerazione) bisognerebbe prendere ad esempio la proposta della britannica Rolls-Royce per i motori da aereo. L’azienda adatta molto la propria offerta con i clienti, arrivando anche ad un pay per use: il servizio di assistenza e il prezzo di acquisto del motore variano in proporzione al numero di ore di volo sostenute.

“Probabilmente stiamo andando in questa direzione anche per i data center”, con una incidenza sul totale dei contratti che potrebbe diventare predominante “nel giro di quindici, vent’anni”. Si tratta di una forma contrattualistica non esclusiva dei motori Rolls Royce, normalmente in vigore in tutti i settori degli impianti industriali. Il data center è quindi sempre più inserito nel contesto industriale classico.

Un tale cambiamento di approccio richiederà un diverso approccio alla comunicazione. Corrado Del Po, fondatore e Ceo di CDLAN, si attende molto da una “informazione corretta e trasparente verso il business di Co-Location”. Si tratta di un aspetto, quello della comunicazione, essenziale ad ogni innovazione della proposta al cliente.

Se questo articolo ti è stato utile, e se vuoi mantenerti sempre aggiornato su cosa succede nell’industria ICT e ai suoi protagonisti, iscriviti alle nostre newsletter:

CWI: notizie e approfondimenti per chi acquista, gestisce e utilizza la tecnologia in azienda
CIO:
approfondimenti e tendenze per chi guida la strategia e il personale IT
Channelworld: notizie e numeri per distributori, rivenditori, system integrator, software house e service provider

Iscriviti ora!

Leo Sorge
Collaboratore Leo Sorge è ingegnere elettronico e dal 1976 è un divulgatore su temi di scienza e tecnologia. Ritiene che business plan e singolarità siano interessanti spunti di science fiction. Ha collaborato con riviste che hanno fatto la storia dell’informatica in Italia, come MC Microcomputer e Byte, ed è stato caporedattore di Computer Shopper Italia e PC Upgrade. Ha organizzato spettacoli scientifici e tecnologici come Holt in Italia, Cloud Seed, Gamify your soul all’Università Luiss, RepRap Day alla Sapienza, Light '10 e Inv Factor presso il Cnr,, Più Blog/Digital Café alla Fiera del libro di Roma e Cloud Scene. Scrive libri sulla storia della vera tecnologia e della storia controfattuale, tra cui Le Macchie di Gutenberg (Olimpia, 2003), Senza Fili (Apogeo, 2007), From Dust to the MicroProcessor (Lulu, 2009). Ha curato Lavoro contro futuro, un'antologia di divulgazione della cultura di oggi alla luce dell'intelligenza artificiale (Lift 2020). Nel 2017 ha curato The Accidental Engineer (Lulu, 2017), la biografia di Ray Holt, l'uomo che ha inventato il microprocessore. Pubblica regolarmente su Linkedin , su Lulu e su Twitter come @leosorge