Per molti il cloud è la rivoluzione capace di ridisegnare l’IT e i flussi aziendali in genere. Come al solito si tratta di un problema di percezione che ripone nella tecnologia aspettative non ancora realizzabili o potenzialità che non le competono. Il cloud, in tutte le sue forme, è ben lungi dall’essere arrivato a destinazione, sono molte le sfide tecnologiche, di infrastruttura e di utilizzo che la nuvola deve ancora vincere. Lo sta facendo a un ritmo significativo, come attesta anche Gartner che prevede una cifra d’affari mondiale a fine 2016 pari a 208,6 miliardi di dollari, con una crescita del 17,2% rispetto ai 178 miliardi del 2015. E nei prossimi 5 anni sono previste crescite a doppia cifra. L’universo del cloud è complesso, e ha molte ramificazioni, creare e consolidare standard che lo rendano universale è ambizioso e complicato, ancorché non impossibile.
L’obiettivo è quello di rispondere a tutte le esigenze, anche istantanee, degli utenti finali, a prescindere dalla loro natura privata o personale, per un periodo di tempo che varia da poche ore all’indefinito. Tra queste esigenze possono esserci la necessità di acquistare singolarmente o opportunamente combinati potenza di calcolo, spazio di archiviazione, l’uso di un software o di un servizio, rendendo ogni combinazione accessibile da qualsiasi dispositivo, da qualsiasi sistema operativo tramite internet fissa e mobile, garantendo l’accesso controllato ai dati, nel rispetto delle policy di chi ne fa uso. Un self-service on demand che deve potersi intersecare tra più infrastrutture, aggiungendo un grado di difficoltà.
Che ci si stia spostando da anni in questa direzione lo suggerisce Amazon Web Services (Aws) che nel 2009 ha lanciato con successo quello che all’epoca era un nuovo modello di cloud, il Virtual private cloud (Vpc), una soluzione in grado di collegare l’infrastruttura IT del cliente al cloud pubblico, in questo caso offerto da Amazon. Il ponte tra le due strutture è garantito da una rete privata virtuale che permette di applicare alla parte pubblica le politiche di sicurezza e riservatezza decise dall’organizzazione che vi accede. E se tutto ciò ancora non rendesse l’idea della complessità, ci sono altri parametri di cui tenere conto. Tra questi la rapidità con cui il cloud nel suo insieme deve dimostrarsi elastico e permettere a chi ne fa uso di acquistare in tempo reale più risorse o, al contrario, diminuirle con altrettanta disinvoltura. I provider devono garantire la raggiungibilità di servizi e piattaforme e uno stato di servizio che non deve conoscere sosta. Gli sforzi per la manutenzione costante dell’infrastruttura deve prevedere una politica di disaster recovery efficace, non sempre di facile realizzazione tenendo conto del numero di macchine, fisiche e virtuali, dell’eterogenea versione dei sistemi operativi e della quantità di applicazioni installate sui server dei datacenter, strutture che devono dimostrarsi elastiche nella configurazione, sia per rispondere alle necessità del mercato sia per dare seguito a eventuali leggi (nazionali o sovranazionali) che possono imporre una diversa organizzazione, anche geografica, dei dati ospitati la cui consistenza e disponibilità non devono variare.
Le utenze devono di norma provvedere alla sicurezza dei dispostivi che usano per connettersi alle risorse cloud, i provider devono farsi carico della sicurezza delle proprie strutture, considerando che ogni risorsa esposta sul web presta il fianco a minacce e vulnerabilità. Essere vittima di attacchi che compromettono la stabilità dei servizi erogati ha ripercussioni su parte o su tutto il parco clienti, motivo che rende evidente la necessità di non lesinare sulle misure di protezione, che devono essere costantemente aggiornate. Tutto ciò va garantito a prezzi vantaggiosi, tenendo conto del numero dei provider che si contendono il mercato e quindi della concorrenza.
Il cloud migliora e si sviluppa in modo trasparente mentre gli utenti lo usano, i provider non contemplano interruzioni di servizio per implementare o testare aggiornamenti e funzionalità. Questa condizione ha contribuito allo sviluppo del Service-Oriented Computing (Soc), una generazione recente di calcolo distribuito per lo sviluppo di applicazioni incentrate sulla composizione di servizi. Gli obiettivi del Soc sono rappresentati da una rete planetaria composta da servizi che possono essere assemblati per rispondere alle esigenze più disparate. Tali servizi, nella visione Soc, possono essere erogati da fornitori diversi e posizionati online diventando così parte di una struttura avanzata di calcolo distribuito che, a sua volta, diventa infrastruttura abilitante a supporto di nuove applicazioni che non vengono create con i tradizionali linguaggi di programmazione ma con linguaggi di specifica di alto livello, ovvero in parte comprensibili anche ai non addetti ai lavori, fino a comprendere parti di linguaggio naturale. Ciò a vantaggio soprattutto delle relazioni peer-to-peer fino a diventare una nuova sfida per ogni tipo di ricerca, condotta da una qualsivoglia comunità a prescindere dalla disciplina che esercita, non da ultimo a vantaggio di ambienti scientifici e ingegneristici.
La lista delle sfide più importanti che il cloud deve affrontare vede, nell’ordine, la sicurezza, le performance, la continuità di servizio e la facilità di integrazione tra cloud pubblico e privato. A seguire la capacità di lasciare agli utenti la maggiore possibilità di parametrizzazione di applicazioni e servizi e, in fine, conferire ai clienti finali il diritto di staccarsi senza perdite di dati dalle soluzioni cloud per ritornare a quelle in-house.
Nel 2009 Michael Nelson, nel libro Building an Open Cloud, prospettava una lunga serie di difficoltà che avrebbero ostacolato l’ascesa della nuvola, la cui diffusione sarebbe stata spinta solo da una flessibilità pressoché totale. Molti dei problemi elencati da Nelson sono stati risolti, altri lo sono stati solo a livello concettuale e ancora non sono applicabili a tutti gli ambienti, a tutti i sistemi operativi e a tutti i dati. Lo dimostra il fatto che le soluzioni IaaS, SaaS e PaaS sono ancora separate tra di loro mentre, nell’intento primigenio del cloud, una sola nuvola fornisce servizi senza necessità di utilizzare sigle ed etichette.
In cima a questa piramide vanno posizionati SaaS e PaaS che stanno guadagnando interoperabilità, soprattutto per ciò che riguarda Erp, Cms e Crm. A seguire si cominciano a intravvedere i risultati della standardizzazione degli strumenti cloud di data mining, guidata dal Predictive Model Markup Language (Pmml), un linguaggio aperto e basato su Xml che l’anno prossimo compirà 20 anni e, solo in tempi più recenti, si è imposto come riferimento comunemente accettato per lo scambio di dati tra i diversi strumenti software. Il tempo impiegato per essere eletto a standard insegna che sulla nuvola trovare l’uniformità è un processo lento e delicato.
I prossimi 5 anni, secondo Gartner, segneranno un’evoluzione nevrotica e rapida del cloud e dell’IT aziendale tant’è che, sempre stando a quanto riporta l’azienda di analisi e soluzioni strategiche, una compagnia su quattro non riuscirà ad adeguarsi al ritmo e potrebbe scomparire. Entro il 2017, il 75% delle aziende adotterà una struttura cloud ibrido che verrà sfruttata per interagire meglio con i propri clienti per la raccolta, l’archiviazione e l’analisi dei dati e per garantire un’esperienza di navigazione (e acquisto) personalizzata. Anche dal punto di vista delle soluzioni tecnologiche a vantaggio del cloud il prossimo lustro sarà denso di novità. Ciò che sembra apparire un freno è la mentalità dei manager, come sostiene Gartner, che riversa sulle spalle dei leader d’azienda la responsabilità di comprendere il peso che il cloud ha sulle strategie di vendita e sulla creazione di opportunità.