Quanto costa il downtime

80 mila dollari l’ora non è la tariffa del più prezioso dei consulenti, bensì la cifra persa mediamente da una grande azienda per colpa del downtime. A quantificare lo spreco che le infrastrutture IT delle società di categoria enterprise affrontano costantemente, ha pensato il report sull’high availability compilato annualmente da Vanson Bourne.
A commissionarlo è Veeam, multinazionale con sede in Svizzera, specializzata nel far rialzare nel minor tempo possibile server caduti sotto i colpi di attacchi, picchi imprevisti o malfunzionamenti. E la frequenza con cui simili eventi si verificano desta sempre più preoccupazione nelle imprese, che si ritrovano a fare i conti con attività online che assumono ormai un’enorme importanza strategica e d’immagine.
Così se fino a qualche anno fa le soluzioni per garantire l’high availability erano riservate a quel 10% di applicazioni definite come mission critical, ora diventa imperativo estenderle ad almeno il 50% degli ambiti di attività, valore destinato a crescere ancora, pena una rapida perdita di fiducia da parte non solo dei clienti, ma anche degli impiegati stessi dell’azienda.
Sedici milioni in fumo
La ricerca è stata condotta su un campione di 1140 decision maker di aziende global 2000. Si tratta di realtà con oltre mille dipendenti, che in Italia sono una rarità. Ciononostante l’analisi Vanson Bourne ha coinvolto anche una trentina di rappresentanti dello stivale, sufficienti a definire un trend poco incoraggiante, ancorché accompagnato da una sempre maggiore presa di coscienza da parte dei CIO. Il primo risultato ottenuto riguarda le proporzioni del fenomeno, in netta crescita rispetto all’anno precedente. Sono infatti 16 i milioni di dollari sprecati dalle grandi aziende nel 2015 per downtime o perdita di dati. Come detto, 80 mila per ogni ora di inattività forzata dei data center, a cui si aggiungono 90 mila dollari l’ora in caso di perdita di dati. Si tratta di 6 milioni in più di perdite rispetto alla stessa rilevazione effettuata nel 2014. Una crescita del 60% che si spiega con l’affollamento sempre maggiore delle reti, che devono far fronte a un traffico che nel 2020 sarà generato da 3,4 miliardi di esseri umani sempre meno tolleranti di fronte ai disservizi, e soprattutto 21 miliardi di macchine. Le richieste in termini di risorse online degli oggetti dell’IoT e degli smartphone, in mano a moltitudini che li usano giorno e notte, rendono necessario un accesso senza orari né andamenti ciclici facilmente prevedibili.
Quel che preoccupa non è quindi la cifra in sé, che pur assumendo un peso consistente, va rapportata agli ingenti fatturati di industrie delle dimensioni di quelle valutate, quanto il trend, che nei prossimi anni si prevede ulteriormente in crescita.
Le risposte dei CIO italiani
In questo scenario, condiviso anche da aziende ben più piccole di quelle intervistate, i CIO interpellati sono stati in grado di analizzare oggettivamente le condizioni della propria azienda, concludendo che nell’84% dei casi le prestazioni risultavano al di sotto dei valori ottimali.
In Italia, in particolare, il 63% degli intervistati ammette che gli utenti vorrebbero più efficienza di quella che il loro sistema, per quanto aggiornato, è in grado di garantire. Inoltre 7 aziende su 10 riscontrano fino a 10 episodi di downtime nel corso dell’anno, con una perdita media oraria di 76 mila dollari per le applicazioni mission-critical e 42 mila per quelle che non lo sono.
Il costo ammonta a 80 mila per ogni ora di inattività forzata dei data center, a cui vanno aggiunti 90 mila dollari l’ora in caso di perdita di dati
Valori superiori alla media internazionale si riscontrano invece nel costo dei dati persi in assenza di un valido backup, che incidono per 104 mila dollari l’ora. Complessivamente, le interruzioni di servizi informatici costano, alle più grandi imprese del nostro Paese, circa 8,6 milioni di dollari.
Per i responsabili IT interpellati, la preoccupazione maggiore (70%) resta comunque l’impatto negativo del downtime sulla fiducia dei clienti, seguito dalla perdita di brand reputation (53%). E non manca nemmeno chi teme ripercussioni legali per non aver rispettato obblighi di continuità dei servizi.
Con lo smart working andrà peggio
Stando alla ricerca, le ragioni più importanti che spingono le aziende a modernizzare i data center pensando al disaster recovery e all’always on, riguardano le attività tra sedi distanti, magari a differenti fusi orari, che il sistema dovrebbe mantenere costantemente connesse e sincronizzate, pena gravi perdite di efficienza. Si fanno strada però anche ragioni legate alla progressiva scomparsa del perimetro aziendale, fenomeno che riguarda l’accesso ai servizi delle grandi aziende da parte di sempre più numerosi soggetti esterni, come partner e clienti, ma anche la crescente adesione a modelli di smart working per i dipendenti.
Per fare un esempio si potrebbe pensare a quali conseguenze può portare un downtime dei servizi online a Barilla, che ha già concesso modalità di lavoro fuori sede a più di 1600 dipendenti, che si ritroverebbero improvvisamente tagliati fuori da ogni attività.
Questo vale, a maggior ragione, anche per aziende di dimensioni piccole e medie, con forte propensione all’innovazione, come quelle che costituiscono l’ossatura del sistema produttivo italiano. Guardando a come si evolvono in fretta gli scenari, nessuno che voglia competere nei prossimi anni può permettersi di ignorare il problema.