Infrastrutture ICT: scenari presenti e futuri
Per ottimizzare la gestione di reti infrastrutturali eterogenee, composte da data center tradizionali, in cloud e siti edge, le tecnologie di intelligenza artificiale e machine learning sono fondamentali, e lo saranno ancora di più in futuro.
Valorizzare e indirizzare l’evoluzione delle infrastrutture IT non è mai stata impresa facile, ma oggi la necessità di salvaguardare gli investimenti effettuati nel corso del tempo e, nel contempo, incrementarne agilità, efficienza, sicurezza e resilienza la rende ancora più complessa. I data center stanno infatti attraversando una fase di profonda trasformazione generata da una parte dal crescente appetito aziendale per le nuove applicazioni che, disegnate in modo diverso rispetto al passato, richiedono un cambiamento sostanziale nella gestione dell’infrastruttura, dall’altra dalla necessità di continuare a supportare e modernizzare il mondo legacy.
Questa trasformazione, come sottolinea IDC, andrà a invertire uno dei trend più evidenti degli ultimi anni: quello della concentrazione in grandi strutture. La trasformazione digitale sta capovolgendo questa tendenza. L’enorme quantità di dati generati da più fronti sta creando grandi repository di informazioni che sempre più spesso risiedono in mega data center cloud gestiti da fornitori IaaS e SaaS o in strutture più piccole posizionate più favorevolmente, a livello geografico, in termini di latenza e risposta di servizio. Già nel corso del 2019 IDC prevede che il 25% delle aziende abbandonerà il consolidamento di grandi data center a favore della modernizzazione di data center di più piccole dimensioni posizionati più strategicamente. Questa previsione fa il paio con una seconda, che IDC proietta al 2020, che afferma che l’esigenza di conservare e gestire il volume crescente di dati generati all’edge porterà il 40% delle aziende a istituire e servirsi di uno strato intermedio di ‘data vault’. L’enorme flusso di dati che nei prossimi anni sommergerà le aziende dovrà essere immagazzinato e reso accessibile per essere analizzato, e niente di ciò è probabile che avvenga vicino agli attuali data center aziendali. Per gestire questa proliferazione di dati, molte organizzazioni adotteranno una strategia di data vaulting che permetterà loro di consolidare i dati in siti sicuri intermedi, spesso gestiti da co-locator, senza bisogno di costruire nuove facility. In questi siti, presso i quali si potrà accedere a consumo a ‘pacchetti’ di spazio, connettività, capacità di storage e sicurezza, le aziende potranno avviare processi di pulizia e gestione dei dati immagazzinati, servendosi dell’aiuto dei co-locator per gestire la rete dei vari data vault e lo spostamento dei dati tra i data vault, i data center interni e i cloud data center.
Questa progressiva granularizzazione porterà a una terza fase: l’aumento dell’impiego di tecnologie di intelligenza artificiale e machine learning per ottimizzare la gestione infrastrutturale della rete di data center, data vault e siti edge. Entro il 2022, IDC prevede che il 50% degli asset IT dei data center aziendali potrà operare autonomamente grazie a tecnologie di IA. A livello centrale, intelligenza artificiale e machine learning porteranno a una maggiore automazione delle operazioni per aumentare la resilienza e ottimizzare le prestazioni. Questa tendenza sarà ancor più evidente all’edge, ove il presidio umano risulterà più limitato, se non addirittura assente. Naturalmente ciascuna organizzazione affronterà questi cambiamenti in base alle proprie specifiche esigenze e, per capire a che punto sono le aziende in questo percorso di trasformazione abbiamo posto le seguenti domande ad alcuni attori del mondo dell’offerta.
1
Data center tradizionali, in cloud ed edge data center: dove sta andando il mercato italiano?
2
Sostenibilità, resilienza, performance: che contributo danno le tecnologie di IA?
3
Infrastrutture ICT: dove state indirizzando i vostri investimenti in R&D?
•1. Le aziende sono sempre più consapevoli del fatto che ogni applicazione, settore e infrastruttura ha una sua configurazione preferita. Non si sceglie a priori, ma in base al contesto e questo denota una crescita nella maturità del mercato. L’espansione vertiginosa dell’IoT sta facendo aumentare in maniera esponenziale la necessità di disporre di data center vicini ai dispositivi: la latenza in alcuni ambiti è un elemento chiave. Proprio per venire incontro all’industria sono nate le tecnologie di edge computing e di edge data center, che hanno iniziato ad avvicinare ai dispositivi una buona parte della capacità computazionale che prima era messa di default sul DC. Contestualmente stiamo assistendo ad un crescente livello di consapevolezza di quello che un’infrastruttura fisica o cloud deve garantire in termini di compliance.
•2. L’intelligenza artificiale sta entrando a piccolissimi passi nella vita personale e lavorativa di ognuno, aiutata sia dalle tecnologie cloud, che consentono enormi capacità di elaborazione dati, sia dall’IoT che a modo suo sta ‘dando voce’ a oggetti che prima non l’avevano. Resilienza e IA si incontrano tipicamente sul tavolo della cyber-security. Uno dei punti che mette più a dura prova la capacità di resilienza di un’infrastruttura è quella di saper reagire rapidamente agli attacchi informatici, in continua evoluzione. Il mondo IoT, ad esempio, ha fatto crescere in maniera esponenziale le superfici di attacco. L’IA interviene in maniera importante nell’identificazione delle intrusioni, sulla parte di behavioural analysis, dando quindi una spinta importante alla facilità di riconoscimento dell’attacco.
•3. L’ultimo progetto, ufficializzato da poco, è Aruba Enterprise, una divisione interamente dedicata a progetti complessi in ambito Data Center, Cloud e Trust Services; una business line che nasce come partner di aziende e Pubblica Amministrazione per essere di supporto, attraverso servizi avanzati e sviluppi ad hoc, nei loro processi di digital transformation. Parlando di infrastrutture, intendiamo continuare a investire sui nostri data center, da un lato il Data Center Campus di Ponte San Pietro e dall’altro Data Center di prossima apertura a Roma. Il primo, Global Cloud Data Center, è ormai attivo da un anno e mezzo, ed abbiamo già cominciato i lavori di ampliamento per la realizzazione di un auditorium di quasi 500 posti e due nuovi Data Center (DC-B e DC-C) che andranno ad affiancarsi all’esistente DC-A e ad altri spazi per uffici. Parallelamente, continuano gli investimenti per la nostra nuova avventura, quella di Hyper Cloud Data Center che verrà costruito nell’area del Tecnopolo Tiburtino a Roma su una superficie complessiva di 74.000 mq.
•1. Il Piano Nazionale Impresa 4.0 (PNI 4.0) ha potenziato la ricerca e gli investimenti nelle nuove tecnologie per le aziende di tutte le dimensioni e di ogni settore. L’iniziativa promuove un’archiviazione e una gestione dei dati più intelligente attraverso l’utilizzo dei sistemi cloud. Dall’innovazione, però, deriva una maggiore complessità, con un numero crescente di dispositivi connessi a Internet e, quindi, potenzialmente vulnerabili. Ecco perché la sicurezza del cloud non è mai stata più importante. I provider cloud si adoperano per rendere i propri servizi compatibili con la cyber IA in modo da affrontare questa sfida. La tecnologia di IA applicata alla cyber difesa, infatti, è in grado di individuare anche deviazioni infinitesimali indicative di un possibile attacco, contrastandolo in modo autonomo.
•2. L’attuale clamore e interesse nei confronti dell’IA sono giustificati dal fatto che, per la prima volta, i computer possono svolgere una serie di compiti che in precedenza potevano essere svolti solo dagli esseri umani. Attraverso il machine learning e la robotica la società può ottenere una comprensione più chiara di come consumiamo e produciamo energia, permettendoci di prevenire ulteriori danni a livello ambientale. L’intelligenza artificiale è anche in grado di gestire importanti compiti aziendali ripetitivi in modo più efficiente rispetto agli umani, consentendo loro di dedicarsi ad attività più strategiche e creative. Oggi sono migliaia i leader aziendali che si affidano all’intelligenza artificiale in tutto il mondo per rafforzare la propria resilienza nei confronti degli attacchi informatici.
•3. Le aziende italiane si stanno impegnando nel digitalizzare la propria infrastruttura critica, innovando in settori come la robotica industriale autonomatizzata, i sensori integrati, la realtà aumentata per la manutenzione e l’Industrial Internet of Things. Questo ha causato un aumento consistente dell’adozione di Darktrace Industrial per la difesa dei sistemi critici. L’aeroporto di Orio Al Serio è uno dei tanti esempi di organizzazioni che utilizzano l’intelligenza artificiale di Darktrace per proteggere la propria infrastruttura digitale da minacce informatiche sofisticate. Man mano che gli attacchi diventano più rapidi e più aggressivi, e lo skill gap in ambito informatico diventa più ampio, notiamo che proprio l’intelligenza artificiale ci aiuta a superare i limiti di ciò che è possibile ottenere. Il nostro reparto R&D lavora quotidianamente per sviluppare nuovi modi con cui l’intelligenza artificiale possa potenziare il ruolo dell’essere umano. Che sia attraverso la partnership con AIG che utilizza la nostra tecnologia per la cyber insurance, o attraverso l’uso della cyber IA per condurre le opportune verifiche durante le fusioni e le acquisizioni, stiamo impegnandoci per estendere l’applicazione dell’IA a tutti gli ambiti aziendali.
•1. In Italia, come in altre parti del mondo, l’interesse e l’adozione per il modello cloud aumenta di continuo sotto la spinta a velocizzare lo sviluppo di applicazioni moderne. I servizi legati all’IoT o abilitati dall’aumento dell’offerta di connettività richiedono spesso capacità computazionale diffusa sul territorio per stare vicino ai device da servire (edge computing). Il nuovo data center possiamo immaginarlo, oltre le sue mura tradizionali, come un insieme di sistemi cooperanti e dispersi su vari siti: public cloud, data center privati o data center edge. Il data center privato è orientato a esigenze specifiche di data privacy o di apparati particolari. I data center edge tendono a essere numerosi, distribuiti e non necessariamente presidiati. In ogni caso i data center devono evolvere verso livelli di efficienza e di funzionalità sempre più alti e richiedono un nuovo approccio di integrazione e gestione. Questo insieme dà vita all’ecosistema dell’hybrid cloud.
•2. L’hybrid cloud è di fatto una ‘service composition’, ovvero l’integrazione di servizi tradizionali, IaaS, PaaS, SaaS e di Container aaS che concorrono a supportare i processi business. Gestire un’applicazione geograficamente distribuita e basata su containers, però, è molto più complesso che gestire un’applicazione tradizionale. Per sostenere questa crescita di complessità, garantire la resilienza e le performance ottimali è necessario introdurre nuovi modelli e tecnologie di gestione. È qui che viene in soccorso l’IA agendo su due direttrici: prevenire e reagire. Sfruttando generalmente un data lake popolato da dati di funzionamento dei data center e dei sistemi ad esso legati, con l’IA diventa possibile addestrare i sistemi basati sul machine learning a riconoscere la causa di un disservizio, suggerire una soluzione oppure scatenare un insieme di operazioni che risolvono il problema stesso.
•3. Investiamo su tutta la catena: i data center, i suoi contenuti e la gestione. Per i data center la focalizzazione è perseguire un programma di ottimizzazione e miglioramento continuo delle caratteristiche dei siti. Per quanto riguarda il contenuto, continuiamo a sostenere il percorso di ottimizzare, velocizzare e semplificare il ciclo di vita delle applicazioni e dei dati. Lo facciamo con piattaforme consumabili da cloud pubblici e cloud privati, offrendo un insieme crescente di IaaS e PaaS e Container aaS, tecnologie di DevOps per sviluppo di microservizi, software proprietari e open source. Per la gestione risaltano in particolare i progressi nell’automazione e gestione multi cloud. L’automazione è largamente basata sui sistemi di IA e sulla applicazione di ‘robot’ software in grado di svolgere operazioni a supporto del lavoro umano.
Sergio Crippa, IOT, OEM, Industry 4.0 Program Manager di Hewlett Packard Enterprise
•1. Aziende di ogni dimensione stanno adottano modelli di cloud ibrido. Come HPE abbiamo iniziato a parlarne e a crederci molti anni fa. In ottica di ottimizzazione dei costi, sono poi sempre più apprezzate le soluzioni a consumo e diventano fondamentali elementi come ottimizzazione e scalabilità. I Software Defined Data Center (Sddc), ad esempio, semplificano e accelerano i processi e la gestione ordinaria delle risorse di rete, storage ed elaborazione permettendo di raggiungere elevati standard di efficienza operativa. In forte ascesa anche il flash storage, ambito dove la nostra proposta Nimble Storage sfrutta la potenza dell’analisi predittiva per offrire un accesso veloce e affidabile ai dati. HPE InfoSight prevede e previene i problemi per offrire un’affidabilità garantita del 99,9999%.
•2. Tra le possibilità aperte dall’IA, sono molto interessanti le potenzialità dell’apprendimento automatico e dell’analisi predittiva. Grazie, ad esempio, ai sistemi di monitoraggio predittivi è possibile la pianificazione della produzione in funzione delle richieste del mercato in real-time, ma anche ridurre i guasti o addirittura rivedere i propri prodotti e modelli di business. Un esempio che in HPE conosciamo molto bene è quello di un’azienda tedesca specializzata in aria compressa, che grazie a IoT e IA ha ridotto del 60% dei tempi di fermo macchina, ha quasi totalmente eliminato i fermi macchina imprevisti e ha ottenuto un servizio di assistenza clienti meno oneroso per sé e per i clienti. Dall’analisi della grande mole di dati raccolta ha poi sviluppato un modello di business air-as-a-service: l’azienda mantiene l’asset per tutto il suo ciclo di vita, facendo pagare il cliente in base al consumo d’aria.
•3. La scommessa per il futuro è rendere disponibile il dato giusto nel posto, momento e formato giusto: occorrono quindi architetture veloce ed efficiente, in grado, nella maggior parte dei casi, di gestire il dato là dove è stato raccolto, sull’edge. Secondo Gartner il 75% dei dati generati nel prossimo futuro non giungeranno mai a un data center o sul cloud. È dunque su un edge intelligente che si fonderanno gli ambienti hybrid IT del futuro, a loro volta indispensabili per creare le imprese del futuro. Per questo abbiamo lanciato un piano quadriennale che prevede investimenti per 4 miliardi di dollari in tecnologie e servizi per l’Intelligent Edge. Questo investimento strategico sarà focalizzato nell’aiutare i clienti a trasformare tutti i loro dati – dall’edge al cloud – in intelligence capace di promuovere interazioni trasparenti tra persone e cose, creare user experience personalizzate, e sfruttare l’IA e il machine learning per agire e reagire in tempo reale.
Raffaele Pullo, Distinguished Engineer & CTO IBM Services per l’Italia
•1. Come in altri Paesi, anche in Italia assistiamo a una crescita esponenziale della quantità di dati generati nelle aziende, moltissimi di questi saranno generati ai margini della rete. Questa tendenza porta con sé l’esigenza da parte delle aziende di elaborare e gestire in casa questi dati, vicino alle fonti che li generano, attraverso l’edge computing, e in questo contesto il 5G assume un ruolo fondamentale. Un esempio pratico di applicazione dove l’edge computing sarà vitale è l’informatizzazione degli impianti produttivi, oppure nel settore medicale, dove ci saranno sempre più dispositivi applicati a pazienti da monitorare. Il processo di trasformazione digitale richiede quindi alle aziende di dotarsi di infrastrutture a supporto che siano in grado di gestire maggiori risorse di calcolo, sia in cloud che on premise, ma anche in edge computing. In linea con questo approccio, Lenovo ha recentemente annunciato il server Edge ThinkSystem SE350, caratterizzato da dimensioni e peso ridotti, ma dotato di una grande potenza di calcolo per l’utilizzo in condizioni ambientali estreme.
•2. L’Intelligenza Artificiale ha un ruolo chiave nella trasformazione delle aziende. In questo senso le può aiutare a prendere decisioni informate con maggiore efficacia, utilizzando i dati a disposizione per ridurre i costi, migliorare l’efficienza dei processi e, in ultima analisi, incrementare il fatturato e ottenere un vantaggio competitivo grazie alla possibilità di portare nuove offerte al mercato più rapidamente. Lenovo declina questo concetto come ‘Intelligent transformation’. Si tratta di raccogliere e rispondere alle esigenze di diverse funzioni all’interno dell’organizzazione e la soluzione ottimale deve riunire prestazioni e flessibilità nello stesso pacchetto. Pensando a questo, Lenovo ha progettato il proprio server ThinkSystem SR670 con le prestazioni necessarie a gestire carichi di lavoro IA, unita alla versatilità necessaria a gestire HPC, desktop virtuali, elaborazione video, etc.
•3. Oltre ai propri Centri di Innovazione – negli Stati Uniti, in Germania e in Cina – Lenovo investe in partnership strategiche come quelle con lo University College London e la North Carolina State University, sostenendo ricerche verso i campi di applicazione dell’IA per la risoluzione di complesse problematiche. Si spazia dall’ottimizzazione delle risorse idriche all’analisi della fisica delle particelle, passando per importanti progressi nel campo della diagnosi medica fino a progetti di gestione delle irrigazioni in agricoltura. Risolvere le più grandi sfide dell’umanità è una delle massime priorità di Lenovo ed è per questo che per noi è importante supportare la ricerca scientifica.
•1. Alcuni analisti prevedono che entro il 2021 il traffico data center cloud rappresenterà quasi la maggior parte del traffico totale. È innegabile come anche nel nostro Paese si stiano registrando notevoli passi avanti nella diffusione dei servizi cloud, ma rimangono ancora molte le applicazioni gestite tramite i data center tradizionali dalle grandi aziende italiane. La scelta è sempre governata da diversi fattori: la sicurezza delle informazioni (anche se sono stati fatti significativi passi avanti dai cloud provider in questo senso) e soprattutto le prestazioni che si desiderano ottenere nell’accesso ai propri dati. Quindi il mercato italiano continua a prediligere una scelta ibrida che prevede l’utilizzo del cloud per alcune tipologie di applicazioni (ad esempio ERP, collaboration o analytics) e del data center on-premise o in outsourcing (ovvero il modello tradizionale) per i servizi core.
•2. Infinidat contribuisce a rendere più semplice questa scelta offrendo una soluzione storage che, grazie allo schema di Capacity on Demand utilizzato, si avvicina al modello del cloud, pur basandosi su storage di proprietà del cliente, con elevatissima resilienza (99,99999% di disponibilità) e prestazioni superiori a quelle dei sistemi All-Flash senza doverne subire i costi. Tutto ciò è reso possibile dall’architettura software defined alla base delle soluzioni di Infinidat: 140 brevetti software che utilizzano algoritmi di Artificial Intelligence e Machine Learning in grado di ottimizzare l’uso della cache ed ottenere performance elevatissime (fino a 1.3 milioni di IOPS). Nell’innovativa architettura di Infinidat non sono quindi più necessari i vari tiering classici in quanto il modello di distribuzione dei dischi, basato su tre livelli (DRAM, Flash e dischi standard), permette di ottenere performance All-Flash su tutta la capacità del sistema, facendo largo uso di media capacitivi a basso costo.
•3. Dal 2011, anno della nostra fondazione, abbiamo sempre focalizzato tutte le risorse R&D nello sviluppo di soluzioni software altamente innovative basate su IA e Machine Learning che siano in grado di rispondere alle esigenze di storage attuali e future per servizi di livello enterprise. Nel mondo dei Big Data e dell’Internet of Things è sempre più necessario disporre di soluzioni storage che possano erogare prestazioni di altissimo livello per volumi di dati che crescono in maniera spesso incontrollata e soprattutto imprevedibile, mantenendo livelli di affidabilità superiori con una flessibilità paragonabile a quella del cloud.
Andrea Sappia, Solutions Architect Italy di Infinidat
•1. Continua, secondo un andamento in costante crescita, l’espansione del business dei servizi in cloud che sposta verso i fornitori di servizi di data center as-a-service e i colocators i maggiori investimenti necessari alla implementazione e al mantenimento dei grandi data center. Emerge però, con un trend in forte crescita, anche il nuovo paradigma dell’edge computing che richiama investimenti in piccoli data center decentralizzati e più vicini alla fonte dei dati da gestire. In effetti l’edge computing completa un’infrastruttura capillare che consente la gestione e l’utilizzo di tutti i dati nei confronti di tutti gli applicativi sulla base di regole legate alla latenza, alla sicurezza e alle performance di calcolo. In un contesto come quello italiano, secondo Paese manifatturiero in Europa e contraddistinto per lo più da piccole e medie industrie, l’edge computing rappresenta una chiave strategica che si connota nell’ambito della digitalizzazione del mondo industriale e del manufacturing come un driver trainante per gli investimenti. La forte presenza di Rittal nel mondo industriale ci consente di valorizzare la nostra posizione di trend-setter in un mercato che, tra le applicazioni industriali e le infrastrutture per le telecomunicazioni, è sempre più integrato e convergente. Per questo motivo, il nostro offering per i settori ed i modelli di data center più tradizionali si integra con una nuova piattaforma denominata Smart Package, contraddistinta da soluzioni bundle flessibili e integrate, veicolabili semplicemente anche attraverso il canale, che garantiscono un time-to-market efficace e numerosi vantaggi competitivi.
•2. Senza dubbio sono innumerevoli le applicazioni dell’intelligenza artificiale e se le decliniamo nell’ambito delle infrastrutture fisiche rappresentano senz’altro un mezzo attraverso il quale ricercare un contributo sostanziale. Nel senso della sostenibilità posso citare la nostra nuova piattaforma in cloud che sarà lanciata nei prossimi mesi e che permette un monitoraggio di tutte le unità di climatizzazione installate sul territorio integrando servizi a valore come la manutenzione predittiva e l’augmented reality per il processo di assistenza. Nel senso, invece, della resilienza e delle performance posso fare riferimento al nostro software DCIM per il governo del data center che prevede l’introduzione on top di servizi a valore basati su IA.
•3. I nostri investimenti in ricerca e sviluppo sono indirizzati verso un continuo rinnovamento delle nostre soluzioni in termini di performance e sostenibilità, insieme all’introduzione di innovazioni tecnologiche che ci permettano di affermarci tra i protagonisti del settore. In particolare, la digitalizzazione e il cloud sono tra i driver più importanti.
Alessio Nava, Direttore Divisione IT & Telecomunicazioni di Rittal
•1. I trend tecnologici che influenzeranno sempre più l’evoluzione del data center sono almeno due: da un lato l’espansione della gestione dell’IT in un mondo multi cloud, dall’altro l’evoluzione delle architetture software-defined attraverso una sempre maggiore adozione di soluzioni convergenti e iperconvergenti.
•2. Sono tutti e tre elementi fondamentali. Le tecnologie di IA necessitano di performance a tutti i livelli architetturali: a livello computazionale, di storage e di protocollo di comunicazione. Come evoluzione ulteriore è già oggi possibile accedere a tecnologie come le Storage Class Memories. Nuove applicazioni come l’intelligenza artificiale, il machine learning, il deep learning, l’analisi in tempo reale e l’Internet of Things, che richiedono una grande quantità di memoria e sono alimentate da dataset enormi, complicano questa sfida. Utilizzando questo nuovo e promettente livello di memoria, NetApp aiuta le aziende a sfruttare al massimo i dati di cui dispongono senza dover ridisegnare le applicazioni. Ovviamente l’architettura oltre a garantire performance deve essere in grado di assicurare resilienza e protezione del dato. Sul fronte delle performance NetApp ha sviluppato una reference architecture denominata ONTAP AI in collaborazione con Nvidia, in grado di sfruttare la potenza delle GPU. Insieme a Cisco ha anche sviluppato la Converged Infrastructure FlexPod AI; sul fronte dello storage, oltre ad aver sviluppato la tecnologia All Flash leader in molti mercati, tra cui quello italiano, NetApp ha introdotto lo scorso anno la prima unità storage All Flash NVMe ready in grado di supportare le opportunità offerte da questo protocollo. Infine, con riferimento alle Storage Class Memories è recentissimo l’annuncio del supporto della Intel Optane DC persistent memory. Max Data è la prima soluzione di storage aziendale che utilizza la Intel Optane DC persistent memory nei server per memorizzare dati in maniera permanente.
•3. Il 50% degli investimenti di NetApp in R&D riguarda il cloud, e la strategia dell’azienda è Cloud First. Adottare un approccio Cloud First non significa migrare l’IT aziendale tutto sul cloud, ma avere libertà di scelta. In quest’ottica NetApp ha investito in diverse direzioni: lato software con l’apertura del sistema di data management proprietario ONTAP; lato hardware, entrando nel mercato dell’iperconvergenza con una appliance HCI dedicata; lato multi-cloud attraverso partnership strategiche con i principali cloud per offrire ai clienti la libertà di gestire i dati su qualsiasi public cloud. NetApp, inoltre, ha investito nello sviluppo di algoritmi che riducono i tempi di latenza nelle comunicazioni fra data center e cloud multipli.