Le nuove sfide delle infrastrutture ICT
Dai sistemi core all’edge computing, l’evoluzione del concetto di data center apre diversi scenari per il mercato italiano. I protagonisti del settore indicano la strada per affrontarli superando gli ostacoli tuttora presenti nel nostro Paese.
Un ritardo strutturale e culturale. Un’inerzia, nell’abbracciare le opportunità derivanti dall’evoluzione delle infrastrutture ICT che oggi con l’edge computing propone soluzioni capaci di analizzare e correlare i dati in periferia, lì dove vengono prodotti. Se lo sviluppo dei moderni modelli di data center rappresenta un’occasione per il mercato italiano, la consapevolezza su questo fronte nel nostro Paese necessita di un importante ‘boost’. A dirlo sono i fornitori di tecnologie in grado di realizzare e ottimizzare le attuali infrastrutture ICT, in tutte le sue componenti, con architetture chiamate a sopportare diverse tipologie di ambienti e sistemi di rete a cui è richiesto di agevolare una trasmissione dei dati che deve essere sempre più veloce e a latenza zero. Infrastrutture in cui garantire un alto livello di sicurezza, elemento centrale in uno scenario di interconnessione continua che assume un ruolo primario nella trasformazione digitale delle aziende, in tutti gli ambiti.
L’evangelizzazione, termine che ricorre spesso ma che ben rispecchia il lavoro che i player di settore portano avanti in Italia, non potrà più essere rivolta solamente al mercato, ma coinvolgere anche le Istituzioni. Un impegno da assolvere per spingere il Legislatore alla predisposizione di un contesto normativo favorevole allo sviluppo dei moderni data center, mettendo in luce i benefici che piani di incentivi come Industria 4.0 possono riservare a questo ambito. Il tutto, senza dimenticare un tema profondamente attuale: la sostenibilità ambientale che si manifesta con una sensibilità crescente a livello mondiale e che coinvolge anche il settore, al quale è richiesto l’utilizzo di tecnologie green e a basso impatto sul fronte energetico.
Le soluzioni per sostenere questi processi ci sono, ma affinché siano implementate in modo pervasivo è necessario superare il digital divide che caratterizza il nostro territorio e far comprendere al mercato i vantaggi di disporre di architetture ICT scalabili, modulari, flessibili e monitorabili da remoto, anche in ottica predittiva. Sono queste le qualità tecnologiche di cui le aziende necessitano per sostenere processi di business sempre più data driven.
È emerso anche questo durante la Tavola Rotonda “Presente e futuro del Data Center: dai sistemi Core ai nuovi Edge Data Center” organizzata da Soiel International, che ha riunito alcuni dei principali fornitori di tecnologia e servizi: BTicino, DATA4, EAE, ETA, Leviton, Panduit, Riello, Rittal, Rosenberger-OSI, Schneider Electric, Siemens e Vertiv.
1 . Secondo l’Uptime Institute a causa dell’aumento della densità di potenza nei rack nei prossimi anni molti data center risulteranno obsoleti. Le aziende italiane hanno consapevolezza di questo scenario e come si stanno orientando?
2. Quali sono oggi le qualità tecnologiche che devono essere soddisfatte per realizzare un data center moderno, efficiente e pronto per il futuro?
3. Che cambiamenti porta l’affermarsi dell’edge computing per un fornitore di infrastruttura? Cosa state predisponendo per soddisfare questa nuova domanda?
Floriano Monteduro, Responsabile Legrand LDCS – BTicino
•1. Negli ultimi dieci anni abbiamo visto uno stravolgimento del settore. In molti pensavamo che il cloud computing e i grandi colocator avrebbero catalizzato il mercato del data center. In parte è stato così, e la tendenza in un certo senso continua a essere questa. Nello scenario attuale, però, l’edge computing rappresenta un binario parallelo positivo per tutti gli operatori, sia per un discorso di sicurezza ma soprattutto per la latenza che le applicazioni all’interno delle aziende attualmente richiedono. In questo contesto di evoluzione, che interessa anche le medie imprese, un argomento che spesso ci troviamo ad affrontare con i clienti è: quanto ristrutturare delle infrastrutture già esistenti e quanto invece realizzare da zero? Alcune aziende, consce del fatto che le tecnologie attuali impattano in modo positivo sulla riduzione dei consumi, preferiscono implementare soluzioni ex novo; altre, invece, faticano a percorrere questa strada. Una peculiarità del mercato italiano, figlia anche del ritardo sul fronte degli investimenti rispetto ad altri Paesi, come gli Usa che ormai rappresentano quasi il 40% del fatturato globale di Legrand, sicuramente un passo avanti rispetto non solo all’Italia ma anche all’Europa.
•2. Il termine data center, come sappiamo, racchiude in sé un mondo fatto di diverse soluzioni. Legrand LDCS, così come altri operatori attivi in questo settore, è sempre più impegnata nella proposta di soluzioni tailor-made per i propri clienti, nel comprendere cioè l’esigenza dell’azienda al fine di sviluppare attorno a essa un’offerta adeguata ed efficiente con prodotti di alto livello tecnologico. Un aspetto, questo, di cui siamo particolarmente orgogliosi, perché ci consente di non definire il data center come una commodity. La qualità da garantire nella realizzazione delle moderne infrastrutture IT dal mio punto di vista è proprio questa: mettere al centro la necessità dei clienti dai quali negli ultimi anni abbiamo registrato una crescente attenzione alle evoluzioni in questo settore. Una crescita favorita anche da Industria 4.0, un piano che ha dato una grande spinta all’innovazione tecnologica nel nostro Paese, anche in ambito data center, ma che purtroppo nel mese di aprile ha subito uno stop.
•3. Nel nuovo modello dell’edge computing un ruolo di primo piano sarà ricoperto dagli applicativi e dalla loro modalità di fruizione. I produttori di apparati attivi sono attualmente impegnati nel seguire queste richieste e anche Legrand LDCS è attenta alle evoluzioni in questo ambito per adattare al meglio la propria offerta. Sicuramente registriamo molto interesse da parte delle aziende nei confronti dell’edge computing, soprattutto da quei grandi player, come Dell, IBM e Cisco, che guardano con attenzione a queste evoluzioni anche con lo sviluppo di nuovi prodotti. A livello di scenario e soluzioni, a mio parere il box potrebbe essere il primo step del prossimo futuro, anche se la domanda al momento si sta parcellizzando con la richiesta di diversi sistemi, come cabinet preconfigurati e modelli leggermente più grandi. Tutto è in funzione delle esigenze dei clienti. Non esiste in questo momento una chiave di lettura unica del mercato, ma tante piccole possibili letture a seconda delle necessità delle aziende, della produzione e dei software.
Davide Suppia, Country Manager di DATA4
•1. Se consideriamo che il mercato italiano è composto da oltre cinque milioni di imprese e che oltre il 40% di queste sono partite IVA, la small e medium company rappresenta il tessuto economico finanziario del nostro Paese che bisogna in qualche modo supportare ed evangelizzare verso la possibilità di migrare le proprie infrastrutture in un ambito più sicuro e performante rispetto a tenere l’IT in casa propria. Un compito non semplice, soprattutto per quelle piccole imprese per le quali spostare le infrastrutture informatiche, il cuore pulsante dei processi aziendali, è ancora più complicato. Noi di DATA4 realizziamo data center dall’inizio alla fine e vediamo un cambiamento di tendenza soprattutto nel momento in cui mostriamo ai clienti che le nuove infrastrutture sono pronte ad accogliere le loro applicazioni informatiche mantenendole al sicuro. Riteniamo che questo sia l’approccio giusto per far crescere la consapevolezza nel mercato: prendersi cura di un mestiere che non è proprio della PMI, in cui a volte non vi è un responsabile IT dedicato. Il tutto, tenuto conto degli aspetti di connettività, con molte aziende che purtroppo non hanno accesso sul territorio alla stessa qualità di servizio. L’Italia, rispetto ad altri Paesi, è un po’ più indietro su diversi fronti, ma quando parliamo alle aziende delle possibilità offerte dalle nuove infrastrutture IT, o della densità sopra i 10 kW per rack che i data center (non tutti) già oggi possono raggiungere, notiamo un grande interesse. I clienti iniziano a chiederci: cosa possiamo fare con potenze così elevate?
•2. Quattro anni fa DATA4 ha inaugurato i nuovi Next Generation data center in Francia e il 12 di giugno il primo in Italia con l’obiettivo di garantire la massima efficienza, modularità e flessibilità delle infrastrutture. Per realizzarli, abbiamo lavorato insieme ai nostri partner tecnologici, come Scheinder Electric, Siemens, Engie Caterpilla e BTicino, e uno degli aspetti più importanti che ci siamo ritrovati ad affrontare è stato definire il parametro PUE (Power Usage Effectiveness). Il data center DC 04 di Cornaredo, in provincia di Milano, inaugurato l’anno scorso ha un livello PUE davvero molto basso, ma molto dipende anche dall’ottimizzazione carico IT dello stesso. Il nostro obiettivo è ottimizzarlo ulteriormente. Per farlo, stiamo investendo molto in ricerca e sviluppo e adottando innovazioni tecnologiche che ci consentono di aumentare la qualità dell’infrastruttura. Per esempio, utilizziamo un sistema denominato Three Supply Chain per ogni rack installato. Questo consente una ripartizione dei carichi che permette agli UPS di lavorare al più alto livello di efficienza: non troppo sotto il massimo carico, non troppo sopra. Grazie a questi e altri accorgimenti, riusciamo a ottimizzare il data center, non solo da un punto di vista delle prestazioni, ma anche a livello di impatto ambientale, rendendolo maggiormente silenzioso e sostenibile.
•3. Come detto, i next generation data center di DATA4 rappresentano infrastrutture di ultima generazione, con una dimensione di circa 5mila metri quadrati dove coesistono diversi sistemi di supporto in massima ridondanza e oltre 5.500 sensori. Questi sensori rilevano diverse tipologie di informazioni che vengono riportate a un sistema BMS (Building Management System) che controlla il funzionamento dello stesso data center in modalità automatica. L’obiettivo per il futuro è garantire un alto livello di monitoraggio delle infrastrutture. In quest’ottica, la nostra società ha sviluppato anche prodotto chiamato DCIM, una finestra virtuale nel data center focalizzata sulle infrastrutture IT in colocation del cliente ospitato che consente al cliente finale di verificare lo stato dei propri server e dei sistemi, di analizzare la situazione, a livello di consumo e temperatura, e di valutarne la capacità ai fini di una possibile espansione della stessa infrastruttura in base alle esigenze di business. Tramite questa soluzione di smart data center le aziende possono così monitorare in modo semplice e flessibile i loro sistemi e farlo anche in un’ottica di edge compunting, tenuto conto che all’interno delle nostre infrastrutture è possibile ricavare data center di dimensioni minori che grazie al DCIM (finestra virtuale) possono essere facilmente controllabili e gestibili.
Claudio Nicolo, Sales Manager di EAE
•1. Nella robotica nei prossimi 10 anni si prevede una densità di macchine inimmaginabile. Vediamo Microsoft che testa data center nell’oceano, in profondità. Vediamo lo sviluppo della biogenetica, del computer con frammenti di DNA. E poi vediamo l’Italia, che è una nazione attenta, indietro ma sempre attenta, il cui tessuto industriale è composto da tante piccole e medie imprese. Un Paese ancora non proiettato a realizzare progetti giganteschi, come in Usa, ma pronto comunque a recepire gli spunti che vengono dalle grandi esperienze per poterli valorizzare. In quest’ottica, l’edge nei prossimi cinque anni può rappresentare una buona opportunità per il nostro Paese, in quanto rappresenta l’anello mancante nella storia industriale legata al data center. Per sfruttarla, è necessario il supporto di tutto il Paese Italia, chiamato a costruire strade, campi normativi e strutturali in cui far muovere il mercato per cogliere le occasioni che verranno dall’evoluzione delle infrastrutture IT.
•2. Flessibilità e modularità: per un produttore di ‘condotti sbarre’ come EAE sono questi i concetti fondamentali. E lo sono a tal punto che la nostra società ha recentemente sviluppato un condotto sbarre per i data center ancora più modulare e flessibile rispetto ai modelli precedenti. Elementi centrali nel futuro dei data center, così come centrale sarà il ruolo ricoperto dal legislatore ai fini di un’adeguata regolamentazione del settore. Se vogliamo sostenere uno sviluppo lineare del mercato, noi produttori siamo chiamati a spingere sulle tematiche legate ad aspetti chiave per questo ambito, come l’energia e il green. Puntare sul green significa infatti ottimizzare qualsiasi tipo di processo industriale. Vuol dire essere attenti alla ricerca e allo sviluppo di nuove soluzioni. Un argomento, questo, che ci vede da sempre impegnati in modo significativo: la nostra società investe il 5% del proprio fatturato annuo in ricerca e sviluppo, per studiare gli sviluppi della robotica, del monitoring, per soddisfare grandi e piccole esigenze provenienti dal mercato.
•3. Per un fornitore di infrastrutture, l’edge computing porta sicuramente diversi cambiamenti. Quello che vediamo emergere con più preponderanza, però, è la richiesta di una maggiore customizzazione delle soluzioni da parte delle aziende. Una tendenza dimostrata anche dalla nostra esperienza. EAE riceve infatti numerose richieste particolari da parte dei clienti e lavora quotidianamente per soddisfare questa domanda con prodotti all’avanguardia e di valore. Un esempio di questo impegno è proprio il nuovo condotto sbarre lanciato sul mercato un anno fa e che è stato sviluppato con questo obiettivo: rispondere in modo puntuale alla richiesta di customizzazioni estreme da parte del mercato. EAE produce tap of boxes (TOB), cassette di derivazione ad hoc che consentono di alimentare ogni singolo rack esattamente nel modo voluto e richiesto dallo specifico utilizzatore. In queste cassette di derivazione (TOB) oggi è possibile inserire molteplici oggetti tecnologici, non solo interruttori e analizzatori di rete come in passato. Seguiamo da vicino le evoluzioni del settore con soluzioni in linea con le tendenze di mercato, consapevoli del fatto che in futuro il trend potrà cambiare: il cliente, a mio parere, opterà sempre più per l’adozione di prodotti ad hoc. Lo standard diventerà quindi la pluralità di soluzioni che un’azienda versatile sarà in grado di proporre.
Massimo Berti, Responsabile Business Unit Data Center di ETA
•1. Le PMI, che costituiscono il tessuto imprenditoriale del nostro Paese, hanno consapevolezza di questo scenario, ma fino a un certo punto. ETA, da sempre specializzata sul fronte dell’automazione, gode di una particolare visibilità sul mondo industriale, e in questo ambito registriamo che le aziende medio-piccole hanno molte remore nell’esternalizzare i propri data center. Non solo per problemi di latenza, ancora vivi a causa di barriere di connessione presenti in alcune zone del Paese. A bloccarle è spesso un concetto antico ma tuttora palese in molte realtà, soprattutto in quelle di dimensioni minori: “I dati sono miei e non li condivido. Al massimo utilizzo il data center di un service provider per il disaster recovery”. Questo significa sostanzialmente che, sia in caso di rinnovamento che di costruzione di un nuovo data center, le richieste saranno orientate sempre più sulla scelta di infrastrutture interne di dimensioni limitate, con una sempre maggiore attenzione, in particolare, da parte delle PMI.
Un ruolo centrale nell’accrescimento della consapevolezza a livello generale, però, può e deve essere ricoperto da aziende come la nostra, capaci di aiutare i clienti a comprendere esigenze che spesso non sanno di avere, rispondendo al tempo stesso alle loro necessità presenti e future con un’offerta adeguata.
•2. Scalabilità, modularità, efficienza. Sono questi i principali aspetti da garantire nella realizzazione di un moderno data center. Per ETA, però, la prima qualità tecnologica da soddisfare in ottica futura è la flessibilità: i data center devono essere pronti a modificarsi, a crescere o a contrarsi in base, non solo alle esigenze dei clienti, ma anche all’evoluzione della tecnologia. Un aspetto fondamentale anche per le soluzioni edge e per le piccole server room, con sistemi di dimensioni ridotte che devono essere capaci di offrire la massima disponibilità dei dati che al momento le attuali connessioni hanno difficoltà a garantire. Un elemento centrale, quest’ultimo, soprattutto per quei data center a servizio della produzione industriale che devono garantire latenza zero. A livello di scenari evolutivi, ritengo interessante lo sviluppo di soluzioni ‘smart’, con la realizzazione in fabbrica di ‘contenitori’ attorno all’infrastruttura IT per ottenere un’architettura finita da trasferire e installare in modo semplice direttamente sul sito del cliente finale.
•3. Gli edge data center, essendo di proprietà del cliente, rappresentano soluzioni che richiedono molte personalizzazioni, su vari livelli. In questo senso, noi di ETA abbiamo un vantaggio, in quanto siamo in grado di utilizzare la nostra flessibilità di produzione per andare incontro a queste personalizzazioni. È quello che stiamo cercando di mettere in campo con la nostra offerta, per rispondere il più possibile alle richieste dei clienti ed essere pronti a soddisfare anche le più piccole customizzazioni. Essendo degli attori nuovi nel mercato dei data center, da questo punto di vista, sulla base delle esperienze sviluppate precedentemente dagli altri operatori, abbiamo la possibilità di realizzare soluzioni nuove che si adattano meglio alle richieste delle aziende con meno vincoli. Lavoriamo per fornire al mercato prodotti aperti all’edge, realizzando diverse tipologie di personalizzazioni che ci possono consentire di creare configurazioni replicabili abbastanza facilmente in base alle diverse situazioni.
Gianluca Musetti, Specification Sales Engineer di Leviton
•1. Il mercato è consapevole di quello che sta accadendo? Alcune aziende sì, altre completamente no. È necessario evangelizzare i clienti e da questo punto di vista Leviton ha un vantaggio: è una società americana che nel 2015 ha acquisito Brand-Rex, un’azienda di stampo europeo, con sede nel Regno Unito.
Un’operazione importante che oggi ci consente di avere una doppia veste: di tastare il polso e trarre il meglio dal mercato Usa, che è in espansione, per essere esaustivi nell’offerta in quello europeo e soddisfare una domanda ancora latente ma che ha necessità di evolversi. Un processo che nel nostro Paese purtroppo incontra diversi ostacoli, con la burocrazia che spesso limita gli investimenti nel settore. Negli ultimi anni, però, dalla PA sono arrivati segnali positivi, come le ultime direttive dell’Agenzia per l’Italia Digitale che per il prossimo triennio prevede un profondo ridisegno dei data center presenti nella pubblica amministrazione. Innovazione tecnologica vuol dire rispondere, prepararsi oggi alle esigenze di domani. Questo deve essere un must per le aziende come Leviton per essere in grado di supportare le evoluzioni che verranno.
•2. Leviton si occupa di infrastruttura passiva, l’ossatura nevralgica di qualsiasi evoluzione tecnologica. Il concetto alla base di un progetto di cablaggio è garantire l’espandibilità della rete, il supporto dei protocolli presenti e futuri. In questo senso, qualità, modularità e flessibilità devono essere concetti centrali, così come la conformità alle norme. I sistemi devono essere certificati da laboratori di terze parti, per essere conformi anche alle normative più stringenti. All’interno di un data center l’interoperabilità deve consentire infatti la condivisione di mezzi trasmissivi che possono essere diversi per marca ma non per tecnologia, chiamata a seguire standard internazionali che impongono la qualità di prodotto e di test. Soluzioni di IoT, edge e micro data center sono supportate da soluzioni di cablaggio che necessariamente devono garantire determinate prestazioni. Se questi sistemi peccano di qualità, viene meno la possibilità di espandere l’infrastruttura e di supportare le evoluzioni e i protocolli di domani.
•3. Il mercato IT si sta muovendo in modo randomico. Siamo partiti dal mainframe centralizzato, poi ci siamo mossi verso il client server decentralizzato per tornare al mobile cloud centralizzato. Ora andiamo verso l’edge che significa nuovamente decentralizzare le risorse.
L’idea del monitoraggio predittivo di queste nuove infrastrutture è importante, anche nell’ottica di analizzare la qualità e la quantità dei mezzi trasmissivi presenti nella rete. Un compito non semplice, per il quale Leviton ha sviluppato una soluzione di intelligent patching: una suite software di interconnessione tra le componenti passive e attive degli apparati che consente di effettuare analisi predittive, mostrando per esempio quante porte degli switch sono occupate e quanti accessi del cablaggio strutturato sono liberi.
Un sistema innovativo che ci consente di adottare le soluzioni e i correttivi necessari ad accogliere l’arrivo di un nuovo cliente oltre che per rispondere in modo proattivo a un’evoluzione tecnologica.
Enrico Caronti, Territory Account Manager DC di Panduit Italia
•1. La maggior parte delle aziende italiane è sensibile all’imminente problema e cerca di ottimizzare le risorse di cui dispone, minimizzandone l’impatto economico. Esistono però delle variabili in funzione delle dimensioni e caratteristiche di ogni impresa.
Se da un lato l’azienda medio-piccola preferisce optare per le citate soluzioni di colocation, quella medio-grande preferisce mantenere il controllo diretto dei propri asset aziendali. Quegli asset che sono soggetti ad ottimizzazioni, così come opportunamente uniformati e integrati al comparto proprio produttivo, data center più edge computing.
Un approccio che si palesa maggiormente nel settore industriale, ma non meno in altri ambiti come il settore finanziario o quello sanitario, nei quali la gestione delle informazioni è orientata a velocizzare la trasmissione e la sicurezza del dato.
•2. Come in fase di realizzazione di un edificio, che nasce dalla corretta progettazione delle sue fondamenta, anche nella realizzazione dei moderni data center gli aspetti legati alla progettazione ricoprono e ricopriranno sempre più un ruolo cruciale.
È sicuramente necessario progettare solide e modulari infrastrutture che durino nel tempo. Oggi esistono tecnologie e soluzioni che incontrano questi canoni, ma spesso gli utilizzatori meno sensibili e preparati ne sottovalutano l’importanza.
È pertanto altrettanto importante continuare a fare cultura, standardizzando tecniche e sistemi che favoriscano l’utilizzo di modelli di riferimento facilmente replicabili sul mercato.
Altrettando fondamentale è e sarà il poter misurare costantemente l’efficienza delle infrastrutture, attraverso il costante utilizzo di soluzioni di monitoraggio di tutti gli elementi che le compongono. Un data center efficiente e performante, come già evidenziato, nasce dalle sue basi e prima della progettazione è sempre necessario condurre audit e assessment, attraverso i quali poter raccogliere informazioni e conoscere in dettaglio le esigenze degli utilizzatori del data center, garantendo a regime quella indispensabile modularità, scalabilità e flessibilità che i sistemi informatici sono sempre di più chiamati ad assicurare.
•3. Con l’affermarsi dell’edge computing sarà importante garantire l’analisi e il costante monitoraggio delle infrastrutture, convergendo verso un’unica tipologia di collegamento di rete. Spostandoci verso il comparto produttivo-industriale, aumentano le postazioni dalle quali prelevare segnali e dati.
Proprio nelle filiere produttive sarà sempre più fondamentale identificare quelli che potranno essere segmenti della rete che possono essere la causa di un’interruzione di servizio. Poterli identificare in modo tempestivo e intervenire prontamente con i necessari correttivi, sarà fondamentale.
Per farlo, è necessario offrire soluzioni che aiutino sia gli installatori che gli utenti finali a intervenire in maniera predittiva, anticipando l’insorgenza del problema.
Partendo da questa convinzione, Panduit ha sviluppato uno strumento software di diagnostica, che l’utente può utilizzare per mappare la sua rete industriale e Lan, consentendogli attraverso un monitoraggio continuo di rilevare eventuali malfunzionamenti.
Attraverso questo strumento di analisi sarà possibile intervenire preventivamente, sia dal punto di vista progettuale che realizzativo, incrementando la qualità delle prestazioni e contribuendo sensibilmente al fattore sicurezza, grazie alla possibilità di rilevare eventuali intrusioni sulla rete. Il nostro obiettivo resta sempre quello di aiutare i nostri interlocutori nel realizzare soluzioni lungimiranti e nel pieno rispetto degli standard in essere, che contribuiscano in maniera tangibile all’efficienza e alla produttività dei sistemi e del personale.
Claudio Gatti, Responsabile Canale IT di Riello UPS
•1. È vero che l’Italia è in ritardo, che le aziende sono attaccate al dato, che le PMI hanno particolari dinamiche. Dal mio punto di vista, però, è in corso un’evoluzione. L’evoluzione sarà maggiormente tangibile quando i ragazzi nati dopo il 2000, come i miei figli, entreranno nel mondo del lavoro. In quel momento l’imprenditore dovrà dare una risposta a un cambio di marcia che sarà palese. Il mondo lavorativo di oggi è fatto di persone che ragionano ancora in modo datato: quando entreranno sulla scena i Millennial si modificherà l’approccio, non solo all’impiego, ma soprattutto ai dati e agli strumenti. Le infrastrutture e le tecnologie sono pronte, ma non sempre le persone a utilizzarle. Lo notiamo tutti i giorni: se ci interfacciamo con un imprenditore e cerchiamo di trasmettere i benefici di determinate soluzioni, comprende ma fino a un certo punto. Se invece parliamo con un ragazzo di 18 anni il discorso cambia. Coloro che avranno la possibilità di cambiare le cose saranno le persone capaci di pensare in modo diverso. Noi come aziende dobbiamo essere pronti e fare in modo che le infrastrutture IT possano reggere questi cambiamenti e accompagnare gli sviluppi che verranno con le nostre soluzioni.
•2. Modularità, scalabilità, supervisione ed efficienza. Sono questi i concetti alla base dei moderni data center. E sono gli stessi da tanti anni. In questi termini non c’è stata una vera evoluzione. Il reale cambiamento è quello legato alla qualità dei prodotti, da realizzare per rispondere a esigenze che si modificano continuamente. La vera domanda è: in che modo svilupparli? La risposta non dipende quasi mai solamente dal produttore, ma anche dagli intermediari presenti tra l’impresa che realizza le infrastrutture IT, la società che fornisce i prodotti e l’azienda che li esegue. È questo il punto fondamentale. Se tutte le componenti dei data center sono ottime, ma il progetto non è realizzato nel modo idoneo e chi lo mette in produzione non tiene conto di determinate specifiche, l’infrastruttura lavora in modo totalmente differente da come era stata pensata. A mio parere, in molti casi esiste ancora uno scollegamento tra la fase di progettazione e quella di esecuzione di queste soluzioni. Per colmarlo, i fornitori di tecnologia devono essere in grado di operare in sinergia con i partner di sviluppo, da seguire e formare costantemente. Un approccio necessario per realizzare sia le piccole che le grandi infrastrutture IT.
•3. Riello UPS negli ultimi anni ha rinnovato la propria gamma di prodotti su tutti i fronti. Un rinnovamento che, nel mondo edge, ha portato le soluzioni di fascia bassa a raggiungere le stesse performance di quelle di fascia alta, con la medesima possibilità di modularità per coprire le diverse esigenze dei clienti.
La scalabilità delle infrastrutture IT sarà infatti un elemento fondamentale per rispondere a una domanda che sarà sempre più variegata. In questo senso, Riello UPS è impegnata nello sviluppo di prodotti capaci di adattarsi a diverse tipologie di soluzioni e applicazioni, dall’ambito industriale a quello navale. La specificità di queste soluzioni deve infatti seguire da vicino i filoni di attività in cui devono essere implementate: una necessità primaria, che la nostra società oggi affronta con un portfolio di sistemi in grado di adattarsi a tutti i settori di riferimento e che sta riscuotendo un impatto positivo sul mercato e sui clienti.
Alessio Nava, Direttore Divisione IT & Telecomunicazioni di Rittal
•1. Rispondo alla domanda facendo un esempio: Rittal sta ultimando la realizzazione di una fabbrica in Germania, seguendo tutti i criteri del modello Industria 4.0 in tema di robotica e automazione. Un progetto importante che prevede l’investimento di diverse centinaia di milioni di euro e che in Italia sarebbe senz’altro più complesso da realizzare a causa del ritardo normativo, tecnologico, di specializzazione che nel nostro Paese ritarda i possibili investimenti in questo senso da parte degli imprenditori.
Un’inerzia che rallenta il sistema e che porta a un ritardo anche nell’utilizzo di nuovi paradigmi, come l’edge computing. Vorrei mettere però al centro anche un secondo tema. Tra gli elementi che nel prossimo futuro potranno incidere in modo significativo sulla nostra proposizione e sulla nostra offering, assegnerei un ruolo di primo piano anche all’efficienza e al risparmio energetico. Vedo una rinnovata attenzione al green spinta dalla Germania e dalla politica, che influenzerà anche il mercato data center che come sappiamo è molto energivoro. Gli investimenti legati a questo argomento nei prossimi anni dovranno rientrare nella strategia delle aziende e tornare a essere un focus centrale nello sviluppo dei moderni data center.
•2. Per la realizzazione di data center efficienti e a prova di futuro, è necessario garantire in primo luogo la differenziazione delle infrastrutture per segmenti verticali e per applicazione. Nel mercato industriale, per esempio, in cui sono presenti esigenze specifiche in tema di normative e severità ambientali, così come nel segmento enterprise dove le applicazioni nascenti si dirigono verso paradigmi distribuiti. Una diversificazione da garantire attraverso una semplificazione delle infrastrutture, con una diminuzione degli errori in fase di progettazione ed esecuzione. I nuovi paradigmi dell’edge implicano lo sviluppo di un’offerta differenziata in base alle richieste di segmenti differenti, perché le caratteristiche e le esigenze di densità, spazio e potenza sono diverse da settore a settore, da organizzazione a organizzazione. Il tutto, senza dimenticare il time-to-market.
Il data center, nelle sue diverse tipologie e dimensioni, dovrà sempre più essere operativo in poche settimane. L’insieme di queste qualità tecnologiche si traduce in una riduzione dei costi e in una maggiore efficienza e competitività delle infrastrutture.
•3. Rittal ha un forte focus nel mondo manufacturing ed è in questo settore che prevediamo investimenti significativi in ambito edge. Nella nostra visione, i sistemi devono essere preingegnerizzati e questa convinzione è oggi condivisa anche dal nostro ecosistema di alleanze strategiche globali con società come HPE, Siemens Atos e IBM che già si stanno preparando a fornire soluzioni OEM preingengerizzate per la computazione locale in linea nel comparto produttivo. Rittal è in prima fila nel seguire questa evoluzione con un’offerta innovativa di bundle pre-ingegnerizzati sulla base di prodotti standard, disponibili a magazzino, di smart services legati alla manutenzione predittiva e alla failure analysis. Un impegno che l’anno prossimo ci porterà a lanciare una nuova soluzione in cloud, attualmente in beta test, che ci consentirà di monitorare tutti i sistemi di climatizzazione installati sul mercato europeo. A medio termine, Rittal intende sviluppare ulteriormente la propria catena del valore con un progetto che si sta già concretizzando in Germania e che abbiamo definito German Edge Cloud.
Si tratta di un network di infrastrutture edge installate nei distretti produttivi e nelle aziende del Paese al fine di creare un collegamento, un ponte, tra il calcolo locale e quello in cloud. Il nostro obiettivo è trasformare questo sistema in una best practice da divulgare in altri Paesi a livello europeo.
Paolo Parabelli, Sales Manager & Business Development di Rosenberger-OSI
•1. Il tessuto commerciale italiano è composto da tante micro imprese, piccole realtà in cui il processo di migrazione verso soluzioni innovative, come il cloud, fatica a prendere piede. Una situazione figlia della mentalità di alcuni imprenditori e che porta l’Italia a essere un passo indietro rispetto ad altri Paesi nel contesto europeo. Se in Germania, Francia e Regno Unito l’evoluzione delle infrastrutture IT sta prendendo forma in modo abbastanza rapido, da noi esistono ancora dei freni, anche strutturali. Un ostacolo, in questo senso, dal mio punto di vista è rappresentato anche dal costo dell’energia, che in Italia è più elevato rispetto che altrove e che spinge molti operatori ad andare in colocation in altri Paesi, come l’Inghilterra.
Credo che le imprese italiane siano chiamate a guardare al futuro, superando le barriere culturali ancora presenti in diverse realtà, per abbracciare i cambiamenti che verranno anche nella direzione di una gestione sempre più green delle infrastrutture. I data center possono essere ottimizzati in un’ottica sostenibile, le tecnologie per farlo ci sono. Il problema, però, è sempre il solito: convincere le aziende a impegnarsi su questo fronte dimostrando, a fronte di un costo iniziale, il ritorno dell’investimento.
•2. Il data center deve garantire performance elevate, e lo deve fare anche dal punto di vista del cablaggio, dell’infrastruttura passiva, per offrire le massime velocità. Affinché questo accada, non è sufficiente l’utilizzo della fibra ottica monomodale, ma è necessario installare cavi preconnettorizzati in fabbrica. È questo l’approccio di Rosenberger-OSI, il cui standard è offrire cavi realizzati e certificati in fabbrica, non in campo, garantendo al tempo stesso il massimo livello di scalabilità e densità delle soluzioni che propone.
Nello sviluppo dei moderni data center bisogna ragionare guardando al possibile utilizzo che i clienti potrebbero farne in futuro. La nostra società, per rispondere a questa esigenza, dispone di cavi che riescono ad assicurare 96 connettori LC Duplex per unità e soluzioni capaci di supportare le applicazioni fino a 400 Gb/s. Le infrastrutture IT devono essere realizzate con questa logica per evitare problemi di spazio e fare in modo che i sistemi riescano a supportare in modo flessibile ogni sviluppo ed evoluzione futura.
•3. L’edge computing e lo svilupparsi di micro data center chiede ai fornitori di infrastruttura di offrire soluzioni idonee, non solo al loro utilizzo nel presente, ma anche agli sviluppi futuri. Garantire l’elaborazione dei dati in periferia, vicino al cliente, significa predisporre infrastrutture monitorabili da remoto, scalabili, adatte agli ambienti in cui verranno installate, anche quelli più piccoli. Il lavoro di Rosenberger-OSI è volto proprio in questa direzione: proporre al mercato prodotti capaci di rispondere a queste nuove esigenze con un portfolio di soluzioni flessibili. Un impegno che ci vede e vedrà in prima fila anche in Italia, dove l’edge computing può rappresentare un’opportunità per le tante piccole e medie imprese che compongono il tessuto imprenditoriale del nostro Paese. È questo il messaggio che vogliamo portare al mercato italiano, chiamato a superare le barriere culturali, normative e strutturali che ancora frenano un’evoluzione delle infrastrutture IT strategica per la competitività delle aziende in tutti i settori.
Enrico Bertoli, Data Center Solution Architect IT di Schneider Electric
•1. La consapevolezza è presente ed è indotta dalle esigenze che nel tempo le aziende hanno dovuto fronteggiare. Spostarsi in cloud, piuttosto che sull’edge o verso carichi ad alta densità, in questo senso è qualcosa che sta già avvenendo. Vorrei però mettere al centro un altro tema: oggi si può parlare di carichi fino a 10 kW per rack, ma per assurdo già molte delle infrastrutture IT realizzate cinque anni fa erano in grado di supportare carichi di questo tipo. Per un problema di mancanza di visibilità dell’infrastruttura fisica, le aziende italiane continuano a utilizzare soluzioni potenzialmente efficienti, ma non al 100% delle loro possibilità. In molti casi i data center realizzati in passato attualmente lavorano ancora al 30/40% delle loro capacità. Le tecnologie per supportare al meglio la trasformazione digitale ci sono, e in alcuni casi sono già state implementate. Ora occorre dotarsi si strumenti che consentano di verificare il livello di capacità realmene utilizzato e che consentano così di sfruttarne appieno tutte le risorse a disposizione. Questi strumenti sono le piattaforme software DCIM con i livelli che consentono di fare data analysis dell’infrastruttura fisica. Questo layer è cruciale per poter sfruttare appieno le risorse fisiche del data center e assicurare l’efficienza energetica, argomento sul quale l’attenzione da parte delle aziende non è mai svanita.
•2. Le qualità tecnologiche da soddisfare sono le medesime degli attuali data center, quindi affidabilità, scalabilità e flessibilità. A queste se ne aggiunge però un’altra: garantire nel tempo un alto livello di efficienza energetica e visibilità dell’utilizzo delle risorse fisiche. Come accennato precedentemente, è quindi necessario una piattaforma non solo di monitoraggio, ma anche di controllo e data analysis dell’infrastruttura per avere una visione chiara di ciò che accade all’interno del data center. Per realizzarla, secondo Schneider Electric è necessario mettere a disposizione del cliente una suite software che consente all’infrastruttura di dialogare anche con il mondo esterno al fine di implementare una pianificazione predittiva delle azioni da compiere in funzione dei banchmark di riferimento, con l’obiettivo di traguardare le esigenze immediate e future legate al business specifico di ogni azienda. La nostra società con la piattaforma integrata EcoStruxure ha puntato in modo significativo su questo tema, già da diverso tempo, e oggi è in grado di proporre soluzioni che aiutano le aziende nel monitoraggio, nel controllo e nell’analisi predittiva di quello che nel tempo potrà accadere nei data center, il tutto supportato dai banchmark specifici grazie alle migliaia di data center connessi in tutto il mondo. Un supporto utile per comprendere se l’infrastruttura necessiterà di modifiche, intervenendo in anticipo su eventuali aspetti, o se invece sarà in grado di supportare i processi di business che i clienti decideranno di realizzare in futuro.
•3. Al fine di supportare l’edge computing, Schneider Electric ha realizzato una serie di soluzioni specifiche per diversi ambienti applicativi che prendono il nome di micro data center. Questo non è però sufficiente, soprattutto in determinati settori come il retail o l’industria 4.0 dove, tipicamente, i livelli di servizio delle soluzioni IT hanno classi di servizio di 24×7 e non sono presidiati da personale IT con competenze specialistiche. Per colmare questo vuoto, Schneider Electric si è mossa in anticipo e con EcoStruxure IT Expert e Asset Advisor già offre alle aziende la disponibilità di una piattaforma in cloud collegata al nostro Service Bureau. Il servizio, attivo in Italia da un anno e mezzo, garantisce un monitoraggio 24 ore su 24, sette giorni su sette, sull’infrastruttura fisica del cliente che viene costantemente aggiornato in caso di necessità sugli eventi tramite avvisi precisi e puntuali. Avere in cloud questo tipo di informazioni consente di definire in modo aggregato la verifica funzionale dei diversi elementi che compongono il data center. Un supporto fondamentale che in futuro ci consentirà di svolgere analisi di tipo predittivo anche su prodotti singoli, come per esempio gli UPS o i condizionatori di precisione, oltre che di programmare azioni idonee per risolvere eventuali problematiche in modo proattivo e tempestivo.
Giuseppe Leto, Global Portfolio Manager Data Center di Siemens
•1. Siemens ha sviluppato un modello ibrido per l’erogazione dei servizi: opera direttamente alcuni data center di primaria importanza – il più noto dei quali si trova in Germania – e il resto dei servizi è erogato da Atos, leader globale in managed services. Nel mercato enterprise, dove le aziende sono maggiorente focalizzate sugli aspetti a valore per il proprio business, questo tipo di approccio è stato accolto positivamente. L’attenzione nei confronti dell’outsourcing in colocation che molte organizzazioni hanno è sicuramente interessante. Allo stesso tempo, però, alcune società di consulenza suggeriscono che non è necessario andare in questa direzione. Il loro consiglio è di sfruttare direttamente il cloud per saltare uno step intermedio nel quale, anche se in colocation, le aziende sarebbero comunque chiamate a gestire un’infrastruttura IT. La volontà di migrare direttamente in cloud da parte delle aziende non è un aspetto negativo per il mondo colocation, perché di fatto anche i fornitori cloud sono chiamati ad appoggiarsi a qualche infrastruttura. In questo senso, abbiamo notato una crescente domanda anche dai principali operatori a disporre di un modello ibrido.
•2. Modulare, scalabile, disponibile. Sono queste le qualità tecnologiche che devono essere soddisfatte da un moderno data center, chiamato ad accrescere il livello di automazione dei processi e ridurre il presidio on-site in un’ottica di smart e autonomus data center. Il tutto, senza dimenticare la cybersecurity, da assicurare con un approccio di ecosistema. Una priorità per Siemens, che in questo senso ha recentemente lanciato un’iniziativa dedicata, The Charter of Trust: un documento ufficiale in cui le aziende partner accettano di sviluppare prodotti con un’attenzione specifica al tema della sicurezza, un aspetto fondamentale da garantire anche in un’ottica di compliance alle normative. Il data center, infine, deve essere sostenibile. Deve assicurare cioè un utilizzo corretto dei beni primari come l’acqua, mediante politiche di riduzione, riuso e riciclo. La tecnologia, in questo senso, esiste già e può aiutare ed essere un supporto utile anche in ottica di efficientamento energetico, come abbiamo fatto in questi anni, consentendoci di ridurre il PUE (Power Usage Effectiveness).
•3. La risposta di Siemens segue tre ambiti di azione. Nel settore industriale, la nostra società ha sviluppato l’industrial edge, una famiglia di sistemi di automazione che agevolano la produzione e l’elaborazione dei dati in loco tramite una suite di management. In ambito building, abbiamo realizzato sistemi edge gateway che aiutano le aziende a trasferire nel cloud i dati che richiederebbero ulteriori analitiche, fornendo al tempo stesso servizi a valore aggiunto attraverso le nostre piattaforme cloud. Per quel che riguarda più specificatamente i data center, Siemens ha progettato invece un sistema prefabbricato di ‘fire safety’: una soluzione innovativa e modulare, rivolta sia al canale OEM che ai clienti finali, che consente di proteggere un volume tra i 30 e i 130 metri cubi. Sempre in questo ambito è stato sviluppato un sistema di controllo accessi mobile che consente alle aziende di effettuare l’autenticazione del personale tramite smartphone senza l’utilizzo di chiavi fisiche. Soluzioni, queste, che hanno un importante impatto sull’efficienza dei processi e che consentono ai nostri clienti di ridurre in modo significativo i costi operativi.
Emiliano Cevenini, Vice President Sales Mobility & Critical Energy di Vertiv
•1. Vertiv, leader globale che progetta, realizza e fornisce soluzioni e servizi per le applicazioni mission critical, ha visibilità su diverse tipologie di clienti a livello internazionale ed è in grado di concentrarsi su molteplici settori. Non esiste ancora una soluzione capace di coprire qualsiasi tipo di esigenza, in quanto l’evoluzione della digitalizzazione è talmente veloce che sta sorpassando anche la capacità delle aziende di capire le loro reali necessità. Un ruolo di primo piano, in questo senso, deve essere ricoperto da aziende come la nostra, capaci di trasmettere la giusta consapevolezza ai clienti nel comprendere quali sono le infrastrutture da adottare a sostegno dei loro processi. In questo momento, l’edge rappresenta una soluzione idonea a supportare diversi ambiti di sviluppo, basti pensare a quanto sta accadendo nelle reti ferroviarie che richiedono servizi ‘totalmente intelligenti’ non solo nello smart ticketing per migliorare il flusso dei passeggeri, ma anche per un monitoraggio a distanza delle condizioni dell’infrastruttura, che favorisca una manutenzione sicura e proattiva. Tra qualche anno, però, potranno emergere altri temi. Disporre di un’infrastruttura ibrida oggi è forse la soluzione vincente per affrontare gli scenari futuri.
•2. Vertiv è impegnata su due filoni di sviluppo, per i quali ha realizzato strutture dedicate: uno legato ai data center ad alta potenza, l’altro all’edge computing. Nel primo ambito, la nostra società è in grado di fornire apparecchiature e servizi di diagnostica e monitoraggio per assicurare alle applicazioni mission critical dei clienti continuità operativa e ottime performance, con un’offerta ampia che comprende sistemi innovativi di freecooling, adattabili a diversi ambienti, e, in un’ottica di efficientamento energetico, soluzioni di storage flessibili che consentono ai clienti di ridurre e ottimizzare i consumi. Nello sviluppo dell’edge, la nostra società si è concentrata invece nella realizzazione di prodotti modulari, scalabili e di piccole dimensioni. E lo ha fatto in perfetta sintonia con il proprio canale commerciale grazie a un Partner Program completamente rinnovato. Per soddisfare le richieste del mercato, per noi è fondamentale disporre, non solo di tecnologie idonee, ma di un ecosistema al servizio dei clienti capace di raggiungere in modo puntuale le loro esigenze.
•3. Come detto, Vertiv ha predisposto una struttura aziendale dedicata specificatamente all’edge computing. La configurabilità dei micro data center è fondamentale ed è strettamente collegata all’utilizzo che i clienti vogliono realizzare con queste infrastrutture, che sono adattabili a diversi ambienti: dalla corsia di un ospedale, allo smart transport oppure ai servizi per il settore del retail. In quest’ottica, se l’interno delle infrastrutture può convergere verso un certo tipo di soluzioni storage, la tipologia di armadio da configurare si modifica in base agli ambienti in cui il micro data center deve operare. Vertiv, in questo senso, è in grado di rispondere a diverse situazioni con una varietà di configurazioni: da quelle classiche dedicate agli ambienti di ufficio, a quelle chiamate a sopportare contesti maggiormente ostili. Il tutto, garantendo un’ampia gamma di servizi che massimizzano l’intero ciclo di vita delle infrastrutture IT, riducendo i tempi di fermo e mantenendo sempre un livello di performance ottimale. In particolare, Vertiv Life Services è il nostro servizio di assistenza remota che fornisce diagnostica e monitoraggio preventivo per UPS e unità di condizionamento. L’approccio ai servizi, in questo senso, a mio parere dovrà essere sempre più di tipo predittivo e in perfetta sinergia con i nostri partner sul mercato, al fine di intervenire in modo puntuale per assicurare la continuità delle infrastrutture IT in tutte le sue componenti.