Opportunità e sfide nella gestione del data center

Tematiche e spunti emersi da una tavola rotonda organizzata a Milano da Milestone Systems in collaborazione con Office Automation.

I data center rappresentano oggi un pilastro dell’intero ecosistema digitale. Il crescente volume di dati che passa attraverso queste infrastrutture, la richiesta di capacità computazionali sempre più elevate, la necessità di garantire la disponibilità e la sicurezza dei dati, la sostenibilità ambientale e sociale impattano sulle scelte costruttive e tecnologiche di chi progetta, realizza e gestisce i data center.

Queste tematiche sono state al centro della tavola rotonda organizzata da Office Automation in collaborazione con Milestone Systems, produttore a livello globale di software di gestione video (VMS) a piattaforma aperta. L’incontro, moderato dalla giornalista Claudia Rossi, si è svolto a Milano lo scorso luglio e ha visto la partecipazione di aziende che si sono confrontate su sfide e opportunità del settore.

Le domande che hanno fatto da spunto alla tavola rotonda:

– Quali sono le principali sfide che state affrontando? Come riuscite a modernizzare e mantenere tecnologicamente allineati i vostri data center con le richieste di mercato?

– Qual è l’impatto dell’intelligenza artificiale?

– Quali iniziative sono state avviate nell’ambito della sostenibilità ambientale?

– Le competenze necessarie per gestire il data center sono disponibili sul territorio?

– Come si stanno evolvendo le esigenze in termini di sicurezza?

Antonio D’ortenzio, Senior Manager Solution Architecture di AWS

AWS conta su una infrastruttura globale estesa su 108 zone di disponibilità, 34 regioni geografiche con piani di espansione già annunciati per altre 18 zone e 6 regioni, un’offerta di oltre 200 servizi. Quest’anno AWS compie 18 anni e fa compiere 18 anni al cloud computing inteso a livello commerciale e non solo come concetto accademico. Un grande cambiamento che abbiamo visto in questi anni è la consapevolezza dei clienti verso la data strategy, fondamentale per prendere decisioni informate e trasformare il modello di business.

Oggi la nostra sfida è traghettare i clienti dall’hype dell’intelligenza artificiale alla sua vera applicazione all’interno del data center, sfruttandone tutta la potenza. Il 2023 viene definito come l’anno dell’AI perché è l’anno in cui è arrivata a tutti, ma AWS aveva già un’offerta molto ampia basata sull’implementazione di modelli di machine learning.

Rispondiamo alle richieste del mercato dando continuità ai nostri principi guida, senza stravolgere completamente l’approccio. L’esperienza maturata in questi 18 anni rappresenta un messaggio di consistenza, che è poi confermata dell’esperienza operazionale. Siamo riconosciuti per la cultura dell’innovazione e la velocità nel time to market, per esempio nel realizzare processori specializzati su workload specifici, tra i quali quello dell’intelligenza artificiale, che hanno caratteristiche specifiche, anche nel rispetto di un miglioramento dei consumi energetici.

In questo momento contiamo su 108 availability zone, dietro alle quali ci sono i data center discreti. Le availability zone sono raggruppate in region; una region nasce tipicamente con almeno tre availability zone, seguendo il principio per cui devono essere sufficientemente vicine, per permettere ai clienti di distribuire le componenti architetturali all’interno della stessa region, grazie ad interconnessioni a bassa latenza, ma sufficientemente lontane perché la eventuale failure di una di esse non abbia impatti sulle altre due e il rischio sia minimizzato. Questo ci ha permesso di essere pronti all’impatto dell’AI, perché questo tipo di meccanismo ha una ridondanza e una elasticità tali da poter sostenere nuove quantità di dati e la diversa necessità computazionale. Abbiamo individuato i due workload tipici dell’AI – addestramento e inferenza – per sviluppare CPU specializzate sull’uno e sull’altro, quindi abbiamo continuato a seguirne gli sviluppi, prevedendo le richieste del mercato.

Importante è anche la possibilità di scelta: continuiamo a offrire al cliente tanti modi “per andare da A a B”, così che possa scegliere tra diversi servizi e combinazioni il percorso migliore, nel rispetto delle sue particolari esigenze. Questo aspetto ha sempre caratterizzato l’approccio di AWS e continuiamo a svilupparlo, anche per quanto riguarda il tema dell’AI.

Fondamentale poi è la rete di partner con i quali collaboriamo per offrire ai clienti affidabilità e presenza capillare sul mercato, anche su competenze specifiche che potrebbero mancare internamente, soprattutto nelle aziende più piccole.

Sul tema della sostenibilità ambientale, oltre alla riduzione dei consumi di acqua, stiamo lavorando a monte sull’accensione, instradando il traffico in modo da tenere accesi meno server possibili. Inoltre, lavoriamo allo sviluppo di processori specifici con un profilo di consumo più basso.

L’intelligenza artificiale ha acuito la sensibilità dei clienti sulla tematica della sicurezza. La preoccupazione principale è come agisce l’AI sui dati aziendali affidati ai servizi di AWS. Il nostro impegno, formalizzato anche a livello contrattuale, è garantire che il modello scelto su AWS, e corroborato con i propri dati aziendali, rimarrà sempre in uno spazio privato al quale accede soltanto il cliente.

Brian Turnbow, Circle Lead Technology di CDLAN

Nata nel 2000 come società di consulenza IT, nel corso del tempo CDLAN si è evoluta come operatore di telecomunicazioni e ha realizzato reti proprietarie in fibra ottica. Nel 2015 è entrata nel settore dei data center e oggi vanta un ecosistema tecnologico avanzato, costruito su due data center Tier IV Compliant interconnessi tra loro.

La sfida più importante per noi è offrire soluzioni personalizzate ai nostri clienti stando al passo con l’evoluzione delle tecnologie, ma senza farsi condizionare dall’hype del momento. Le esigenze dei clienti variano molto a seconda delle dimensioni dell’azienda, ma negli ultimi anni abbiamo visto che anche le PMI iniziano a confrontarsi con temi come il risparmio energetico, la sostenibilità, le competenze. Si pongono il problema di server e macchine che hanno in ufficio e dell’opportunità di trasferirli in un data center esterno.

Noi siamo proprietari di data center, ma il data center deve anche essere gestito e questo crea nuove opportunità. I nostri due data center si trovano a Milano e a Roma e nelle grandi città è più facile trovare personale. Nelle città più piccole serve personale sul territorio, e questo crea un indotto di aziende e figure specializzate che si occupano della gestione del data center.

Fin dall’inizio della realizzazione dei nostri data center sono state fatte scelte progettuali come, per esempio, un particolare sistema antincendio a basso consumo d’acqua. La cosa più importante per la sostenibilità è che deve essere un processo continuo. Ogni giorno all’interno del data center i consumi cambiano, quindi ci deve essere un monitoraggio costante che permette di spostare e bilanciare i carichi di lavoro, e quindi ridurre i consumi energetici, oltre che di rinnovare le macchine in termini di efficienza. È un fatto che il data center consuma energia e genera calore che va dissipato: il processo deve quindi essere costante, per avere sempre il controllo di quello che succede e poter intervenire per apportare miglioramenti.

Anche la sicurezza è un processo. Tanti anni fa c’era il badge per entrare, oggi non c’è più, ma esistono tecnologie che permettono di avere elevati livelli di conoscenza di quello che succede all’interno del data center. La sicurezza che si può fare nel sistema è a sua volta un sistema in evoluzione, e grazie all’automazione stiamo andando verso la possibilità di un controllo puntuale e molto efficace.

Marco Casaletta, Responsabile prevendita Italia e Carrier developer manager di Data4

Il Gruppo Data4 progetta, realizza e gestisce i propri data center. Pioniere nel modello di campus, attualmente Data4 gestisce 35 data center distribuiti in Francia, Italia, Spagna, Polonia, Germania e Grecia. A partire dal 2019 abbiamo visto un raddoppio delle richieste dei servizi che offriamo, in particolare da parte dei grandi hyper scaler che hanno necessità di sviluppare e scaricare a terra tutte le esigenze del mercato, in particolare relative all’intelligenza artificiale.

Le sfide del prossimo futuro sono legate soprattutto alla disponibilità di risorse come l’energia elettrica e di terreni su cui costruire, e soprattutto alla parte legislativa, che dovrà essere più snella e più veloce per permetterci di seguire le esigenze del mercato. A fronte del trend di crescita che stiamo vivendo, e del conseguente ampliamento di organico, facciamo fatica a trovare personale qualificato, perché il data center richiede un connubio di varie competenze. Ci impegniamo a sensibilizzare le nuove generazioni sulle opportunità che offre il settore e in quest’ottica abbiamo sviluppato il programma “Data4 people”, indirizzato in particolare alla ricerca di figure professionali nel mondo femminile.

In una visione a lungo termine di sostenibilità ambientale, l’impegno da parte nostra parte dalla selezione dei fornitori dei principali elementi per la realizzazione del data center, come i cementi e le strutture di costruzione. A fronte della massiva esigenza di incremento delle performance del data center – che impattano sui processi di raffrescamento e di consumo di energia elettrica -usiamo soluzioni basate sull’intelligenza artificiale per la gestione dei dati, con l’obiettivo di ottimizzare la costruzione e il mantenimento degli edifici.

Abbiamo istituito delle task force per studiare le nuove esigenze, soprattutto legate al raffreddamento a liquido, che richiede particolari caratteristiche dal punto di vista strutturale e tecnologico. Per esempio, serve una maggiore capacità di portanza dei pavimenti per ospitare infrastrutture rack sempre più dense, unitamente ad una sempre maggiore capacità energetica. Attualmente siamo in una fase transitoria in cui si passa da una situazione di progettazione ibrida e l’obiettivo è arrivare al full liquid cooling, che sarà la vera svolta nella progettazione dei data center. In questo senso abbiamo avviato una collaborazione con alcuni nostri partner del settore per la progettazione di un full liquid cooling data center nel nostro campus francese.

Un altro tema su cui stiamo lavorando è il riutilizzo del calore generato. Sempre nel nostro campus francese stiamo sviluppando un progetto di coltivazione di alghe, in serre posizionate sul tetto del data center, che possono essere destinate all’agricoltura o alla cosmesi.

Dal punto di vista della sicurezza garantiamo la sicurezza fisica delle strutture, compreso il controllo degli accessi, e l’adempimento a livello di building e di campus delle policy di sicurezza del cliente.

Tiziano Durante, Responsabile Data Center di Microsoft

Azienda storica del mondo IT, Microsoft offre servizi di cloud computing attraverso un’infrastruttura globale estesa su più di 60 region e oltre 300 data center in tutto il mondo. La nostra avventura con la piattaforma cloud pubblica Microsoft Azure è iniziata nel 2009 e, fino a cinque anni fa, la sfida era dare più servizi possibili ai clienti, che chiedevano funzionalità e performance. A partire dal 2020 le richieste si sono evolute verso riduzione della latenza, residenza e sovranità del dato, e questo ha rappresentato una forte spinta innovativa. Negli ultimi due anni il tema forte è l’intelligenza artificiale.

La sfida più difficile, che coinvolge tutta la filiera a livello globale, è trovare il giusto equilibrio tra l’esplosione dell’AI e la sua sostenibilità. In quest’ottica stiamo rivedendo l’architettura dei data center costruiti in proprio da Microsoft. I nuovi data center nasceranno con un design ottimizzato per l’intelligenza artificiale, ma flessibile per ospitare diversi tipi di servizi. Per i center esistenti stiamo sviluppando nostre GPU e nostri rack con l’obiettivo di gestire il raffreddamento a livello di rack e non di data center. Insieme a Open AI, di cui siamo partner, stiamo sviluppando modelli di training e inferenza, mentre internamente stiamo disegnando e producendo CP/GPU proprietarie da usare nei nostri datacenter, ma anche NPU da inserire nei nostri device Surface.

Oggi la gestione del data center richiede skill, oltre che su prodotti e tecnologie, anche in data privacy, compliance, residence sovereignty, legal. Possiamo contare su una struttura internazionale estremamente preparata, ma il problema si pone dovendosi confrontare con legislazioni nazionali e regionali, con il singolo territorio e il singolo cliente, che a sua volta ha policy interne. Riguardo alle giovani generazioni ci sono due aspetti da considerare: da un lato, ci sono giovani molto preparati a livello accademico che troverebbero il giusto riconoscimento in un team di ricerca e sviluppo. In Italia i posti sono pochi, e quindi spesso si indirizzano all’estero. Dall’altro, c’è una dicotomia tra una generazione cresciuta nel mondo fisico che fa fatica ad andare sul virtuale e una generazione che è cresciuta nel mondo virtuale e non è pronta a lavorare in un luogo fisico. In questo contesto la formazione offerta dagli ITS diventa fondamentale, perché permette di sviluppare competenze nel range intermedio, intercettando la curiosità dei giovani talenti.

Sul tema della sostenibilità aziendale abbiamo avviato diverse iniziative. In Italia abbiamo introdotto il raffreddamento ad aria e implementato la tecnologia adiabatica per gestire i periodi in cui la temperatura esterna supera i 30 gradi. In Danimarca, il calore generato da un data center viene immesso nella rete di teleriscaldamento del comune: è un tipo di progetto che richiede grande collaborazione con le autorità e particolari condizioni, come la presenza di un circuito di teleriscaldamento e la vicinanza ad aree residenziali. Microsoft ha sviluppato un design chiamato “circular center”, che prevede personale dedicato per disassemblare l’hardware a fine ciclo di vita con l’obiettivo di arrivare al 90 per cento di riutilizzo o riciclo delle componenti. Stiamo sviluppando anche iniziative per ridurre l’inquinamento acustico e visivo, due temi molto sentiti.

L’intelligenza artificiale sta creando nuove opportunità e nuovi rischi per la sicurezza fisica. Se prima il focus era sul livello d’accesso, oggi si sta provando a usare l’AI per capire quali azioni compie una persona all’interno del data center o per il riconoscimento facciale, temi che toccano la questione della privacy.

Sul tema della sicurezza dei dati, i nostri contratti si adeguano a mano a mano che cambia la legislazione. Per esempio, in Europa è entrato in vigore l’AI Act e ci sono norme sulla residenza dei dati. Per questo, garantiamo ai nostri clienti che l’inferenza AI e la computation avvengono nella stessa geografia e gestiamo attraverso il concetto di tenant tutto ciò che il cliente aggiunge ai modelli standard per trarre una migliore conoscenza dai propri dati aziendali.

Gianluca Bottaro, Responsabile marketing di prodotto di Netalia

Netalia offre un modello di Public Cloud che garantisce la residenza fisica, normativa e giuridica dei dati e delle applicazioni in Italia. Usiamo Data Center attualmente distribuiti su tre region: Milano, Roma e Palermo; tra i nostri clienti annoveriamo Pubbliche Amministrazioni, PMI e grandi aziende.

Una delle sfide più impegnative del nostro tempo, connessa allo sviluppo dell’Intelligenza Artificiale, è la crescita esponenziale della quantità di dati da trattare e dunque della necessità di memoria e potenza di calcolo. Per un Cloud Service Provider, questo significa avere la capacità di offrire ai clienti servizi commisurati a esigenze crescenti in termini di gestione, archiviazione, disponibilità, resilienza e monitoraggio dei dati. Il tutto a costi sostenibili e controllabili.

Noi ci occupiamo esclusivamente di sicurezza logica, su cui registriamo una sensibilità crescente da parte delle aziende. Occorre però fare una distinzione di base: le grandi imprese generalmente sono molto preparate dal punto di vista della compliance e soprattutto la vedono come un driver strategico di competitività, mentre per le PMI si tratta per lo più di assolvere a obblighi normativi, quindi queste delegano a noi la gestione, anche per mancanza di competenze interne. Questo per noi è uno stimolo a coprire diversi ambiti, ma cerchiamo sempre di avviare anche un percorso culturale che porti le aziende a comprendere l’importanza effettiva della conformità rispetto a sicurezza e protezione del dato. Per rispondere alle esigenze dei clienti abbiamo avviato iniziative come il percorso per la qualificazione QC4, dopo aver già ottenuto dall’Agenzia per la Cybersicurezza Nazionale (ACN) le qualificazioni di livello 3 che ci permettono di gestire i dati strategici della Pubblica Amministrazione.

Ma non è solo una questione di cultura aziendale. Il tema della sovranità e quindi della dislocazione dei Data Center sul territorio nazionale ha anche bisogno di un chiaro sostegno politico. Netalia si dichiara da sempre un’azienda “di sistema”, che collabora con i partner presenti sul territorio, che si tratti di attori operanti nelle varie fasi lungo la filiera o persino di competitor diretti. Una presa di posizione di politica industriale è fondamentale per fare passi avanti nella direzione dello sviluppo digitale e del rafforzamento della competitività del sistema Italia a livello internazionale.

Anche dal punto di vista della sostenibilità c’è un tema di tecnologie e di norme. Un cloud provider come Netalia presidia soprattutto il tema delle competenze, che spesso devono essere multidisciplinari. Le tecnologie producono CO2 e i Data Center consumano sempre più energia, questo è innegabile e non modificabile, almeno nel breve termine. Per non cadere nelle trappole del green washing, servono un nuovo approccio culturale e nuove figure professionali. Per esempio, ci sono aziende che si occupano in modo molto serio di compensazione, che però deve essere inquadrata –come ogni altra iniziativa- in un quadro strategico e non in un piano tattico, se non opportunistico.

Parlando di IA, il tema della sostenibilità per ora è una criticità da risolvere, essendo una tecnologia come noto particolarmente energivora. È molto plausibile, d’altra parte, che con i futuri sviluppi sarà la tecnologia stessa a proporre soluzioni di efficienza ad oggi impensabili (sempre che l’Intelligenza Umana sappia recepirle).

Daniele Proietti, Data Center Business Development Manager di Rai Way

Rai Way, società quotata dal 2014, gestisce la rete di diffusione del segnale radiotelevisivo della Rai e di broadcaster privati a livello regionale. Attraverso un progetto di diversificazione, la società intende sviluppare una rete nazionale e carrier-neutral di Hyper Data Center ed Edge Data Center per offrire servizi di colocation. Attualmente sono stati realizzati 5 data center di tipo Edge nelle città di Milano, Torino, Genova, Firenze e Venezia, pensati per soddisfare esigenze di prossimità e bassa latenza.

Con la nostra offerta cerchiamo di raggiungere aziende e imprese lontane dalle grandi città, dove si sono sviluppati e concentrati gli ecosistemi principali, con l’obiettivo di avvicinare elaborazione e archiviazione dei dati al cliente attraverso una presenza distribuita sul territorio. In alcune aree del Paese manca l’indotto di operation, tecnici e professionisti IT, il nostro obiettivo è rispondere a questa esigenza.

Dal punto di vista del coinvolgimento dei giovani c’è un gap importante: da un lato c’è un mercato in crescita, in cui gli addetti del settore vedono grandi opportunità, dall’altro tra i giovani non c’è la consapevolezza delle opportunità che caratterizzano questo settore, sia in termini di opportunità di lavoro che a livello retributivo. Per questo è importante sviluppare iniziative finalizzate a far conoscere ai giovani il settore, proprio per permettere loro di conoscere le opportunità che offre.

Il data center spesso viene visto come un impianto energivoro e ovviamente lo è ma, se prendiamo in considerazione gli effetti ad un livello più ampio, vedremo che è anche un ecosistema che “sottrae”: un data center infatti permette di spegnere molti dei dispositivi usati in un’azienda e trasferirli in un ambiente professionale estremamente più efficiente e sicuro. In termini di efficienza il potenziale è enorme, anche solo con il passaggio al cloud. Sono in corso studi per quantificare la differenza di efficienza tra un data center moderno e l’on premise, attualmente stimata intorno al 30/40 per cento.

In Rai Way puntiamo molto sulla sostenibilità, infatti alcuni componenti di costruzione dei nostri data center provengono da materiali riciclati e utilizziamo energia 100% green. Inoltre, la distribuzione dei data center fa sì che le infrastrutture della regione vengano utilizzate spostando i carichi su una struttura più efficiente e spegnendo data center on prem che consumano di più e non sono ottimizzati.

Una delle sfide principali che dobbiamo affrontare è la flessibilità. Il data center richiede investimenti pensati per durare 20/30 anni, però è complicato prevedere gli sviluppi tecnologici dei prossimi anni e capire in quale direzione investire.

Simone Biglia, Head of Cloud Operations di ReeVo

ReeVo è un provider italiano di Cloud & Cybersecurity con una presenza europea, che eroga servizi attraverso i suoi sei Data Center TIER IV e un mix di competenze specialistiche, esperienze e certificazioni. La crescita delle richieste degli ultimi anni ci porta alla sfida più urgente che stiamo affrontando; l’espansione in termini di reperimento degli spazi fisici, energia e competenze.
Tra le giovani generazioni non è sempre facile trovare persone interessate alla parte operativa del Data Center, mentre il tema della cybersecurity ha una maggiore attrattiva. I giovani hanno una grande curiosità e nel centro di eccellenza che abbiamo fondato a Catania abbiamo trovato riscontri positivi.

Come gestori di infrastruttura siamo molto legati alle scelte, decisioni e strategie dei costruttori di Data Center, ma mettiamo in atto diverse pratiche volte al miglioramento della sostenibilità ambientale. Da sempre rivediamo, anno dopo, anno le decisioni architetturali e migliorare la densità dei sistemi, non solo per un vantaggio economico, ma anche per anticipare e poi gestire i problemi legati all’energia e allo spazio, che diventano sempre più importanti. Se fino a qualche anno fa era più facile prevedere la crescita secondo determinati standard, oggi dobbiamo adeguare questi standard per migliorare la densità degli impianti che utilizziamo per erogare servizi Cloud, pensando a una crescita in espansione che sarà certamente accelerata. Questo include la configurazione e l’ottimizzazione del consumo elettrico delle macchine.

Un altro aspetto fondamentale su cui lavoriamo è coinvolgere Clienti e Partner nelle decisioni volte a massimizzare la sostenibilità dei loro progetti, cercando di far comprendere l’importanza di una progettazione corretta che, limitando l’utilizzo di risorse, comporta sia un vantaggio economico che una riduzione dell’energia utilizzata.

Siamo da sempre focalizzati sulla sicurezza del dato. All’interno dei servizi che offriamo, integriamo tutte le strategie possibili per la sicurezza dei dati, in un’ottica di “Security by design”. In termini di sicurezza volta alla protezione dalla perdita del dato, integriamo logiche di replica, tripla copia e immutabilità per evitare la corruzione dei dati e la perdita di operatività.
Riguardo alla sicurezza fisica, oltre a temi come la sorveglianza e il controllo degli accessi, è importante sottolineare che i parametri di sicurezza vengono definiti anche prima, in fase costruttiva. Per esempio, la scelta di dove costruire, lontano da zone con rischi naturali o pericoli fisici, è un elemento differenziante. L’impatto delle decisioni e delle procedure si traduce poi nella facilità di accesso alle strutture sia nei momenti di emergenza che nella quotidianità.

Laura Castagna, Group Director Datacenter & Technical Infrastructure di Retelit

Con 25 anni di storia e un network di 34 data center sul territorio nazionale, Retelit offre un’ampia gamma di servizi telco e ICT dedicati a pubbliche amministrazioni e aziende di diversi settori.

Uno dei servizi che offriamo ai nostri clienti è la colocation, sia per singoli rack che per cage dedicate e di conseguenza, i datacenter sono un assett fondamentale, da continuare a valorizzare sia in nuovi spazi che in spazi già esistenti. una delle principali sfide che stiamo affrontando è il riconoscimento del settore, un tema che ha ricadute sui permessi per la costruzione di data center, il superamento della burocrazia, la ricerca di personale. Insieme a IDA (Italian Datacenter Association), dove ci sono tavoli dedicati alla sensibilizzazione su questi temi, abbiamo lavorato con il Ministero dell’Ambiente, Regione Lombardia e altri enti per far capire che l’impatto del data center è certamente rilevante, ma positivo. La stessa cosa stiamo facendo con scuole, istituti tecnici e università, per far capire l’importanza della formazione e quali opportunità offre il data center. La comunicazione è importante anche per coinvolgere i cittadini e far comprendere che la presenza di un data center genera un indotto di posti di lavoro e di opportunità per il territorio.

Tornando ai nostri servizi, notiamo che tra i nostri clienti alcuni sono molto preparati e hanno già le competenze in azienda, mentre altri si affidano totalmente a noi per tutte le necessità, sia di audit su impianti ma soprattutto per la parte di sicurezza sia fisica che dei dati. Spesso i clienti stessi vengono a fare audit sui sistemi di sicurezza e devono avere personale specializzato, che conosce quel tipo di sistemi, e quindi anche se non partecipano direttamente alla costruzione del data center devono avere qualcuno che conosce le sue caratteristiche e come funziona. In questo ambito è importante la collaborazione tra i diversi attori che partecipano alla gestione del data center. Come fornitori di servizi di data center e protagonisti delle attività di costruzione coerentemente con i nostri piani di espansione dei data center Retelit, noi offriamo servizi di colocation, con impianti di sicurezza come controllo accessi e videosorveglianza, per esempio. In molti casi ci capita di dover rispondere ai clienti riguardo alle registrazioni e alla raccolta dei dati, e la sicurezza degli stessi dipende anche dal fornitore dei sistemi.

Altro tema molto importante è la sostenibilità. Qui è necessario distinguere tra data center vecchi e data center nuovi. Sul nuovo è più semplice: la certificazione Leed, che è quella ottenuta al livello massimo (gold) dal nostro ultimo data center a Milano Avalon3, permette di gestire la sostenibilità a partire dal design, dai processi di gestione dei cantieri e dalla scelta di materiali ecosostenibili, mentre la scelta di impianti (es condizionatori, ups, stazioni di energia) che rispettano tutte le normative e le indicazioni europee garantiscono performance alte e basso impatto ambientale. Sui data center già esistenti le possibilità di intervento sono più limitate, però si può migliorare l’efficienza progressivamente nel corso degli ammodernamenti tecnologici introducendo tecnologie più innovative ed efficienti. Si può ad esempio cominciare dalla scelta di energia green da fonti rinnovabili, cosa che Retelit ha fatto non solo per tutti i suoi data center ma anche per tutte le proprie sedi, e modificare dove possibile i sistemi, per esempio modernizzando i condizionatori e gli impianti antincendio con l’utilizzo di gas più innovativi a ridotto impatto ambientale.

Oggi è difficile trovare personale specializzato, sia su questo tema che in generale nel settore del data center. Per questo è importante che tutti i protagonisti della filiera, dai fornitori di hardware, software, piattaforme di gestione, ai costruttori di data center si impegnino per far capire alle scuole, ai ragazzi, alla popolazione che è un mercato attrattivo e può avere un futuro.

Luigi Bellani, Head of Data Center di TIM Enterprise

TIM Enterprise è la Business Unit del Gruppo TIM che offre alle aziende e alla Pubblica Amministrazione servizi digitali a 360 gradi. Guidata da Elio Schiavo, Chief Enterprise and Innovative Solutions Officer, si avvale di una squadra di oltre 5.000 persone, la più capillare rete di vendita sul territorio nazionale e la rete di Data Center – costruiti secondo i più alti standard di sicurezza, efficienza e sostenibilità – più grande d’Italia, con una capacità complessiva che salirà a 125 MW.

Recente l’annuncio dell’importante investimento di circa 130 milioni di euro per far crescere TIM Enterprise nel Cloud e costruire un nuovo Data Center di ultima generazione, operativo entro la fine del 2026 che si andrà ad aggiungere ai 16 già esistenti e dislocati su tutto il territorio nazionale.

Le sfide più importanti che stiamo affrontando sono da un lato formazione e competenze del personale in una area che sta evolvendo molto rapidamente, dall’altro gli aspetti tecnici legati alla realizzazione di nuovi data center.

I data center seppur molto automatizzati hanno necessità di personale specializzato che rimane un tema centrale. La presenza di un data center genera un indotto sul territorio per garantire l’operatività della struttura, da tecnici a informatici a professionisti che possano intervenire tempestivamente sulle macchine e sugli impianti, in accordo con SLA sempre più stringenti.

Il tema delle competenze si pone anche dal lato dei clienti. Gli hyperscaler sono strutturati e, di norma, hanno già al loro interno tutte le competenze e quindi processi e requisiti chiari. Con le piccole medie imprese, che rappresentano il 90% del mercato italiano, invece è necessario instaurare un dialogo per far comprendere prima i vantaggi di entrare su una piattaforma cloud o spostare le macchine in un data center più efficiente e poi come mettere a frutto l’investimento fatto.

Lo sviluppo dei data center in Italia deve confrontarsi anche con l’approvvigionamento dell’energia elettrica e la disponibilità delle pubbliche amministrazioni a fornire i permessi per la costruzione. Sono elementi che non vanno sottovalutati data la continua crescita della domanda da parte delle imprese. E’ una grande opportunità che l’Italia deve cogliere utilizzando tutti gli strumenti a disposizione per consolidare la propria attrattività in un mercato europeo che sta diventando sempre più competitivo.

TIM Enterprise già da molti anni si è dato obiettivi sfidanti sul tema della sostenibilità a livello di Gruppo. In linea con gli obiettivi aziendali, abbiamo scelto di far certificare Leed tutti i data center costruiti dal 2020 in poi, e uno ha ottenuto il livello Platinum v4 BD+C (ce ne sono solo 22 nel mondo). Dal punto di vista tecnico ci siamo concentrati su due temi principali, oltre all’energetico: risparmio dell’acqua e qualità dell’aria. Il tema dell’acqua fino a poco tempo fa non era particolarmente sentito, la precedente generazione di data center con le torri evaporative consumava decine di migliaia di litri d’acqua dell’acquedotto cittadino. Oggi sono state inserite nelle nostre progettazioni soluzioni che minimizzano il consumo di acqua potabile, che vanno dalla raccolta dell’acqua piovana a sistemi di consumo interno. Abbiamo investito sulla qualità dell’aria dei nostri data center usando, per esempio, vernici mangia smog e mangia batteri, capaci di catalizzare particelle organiche e inorganiche scindendole e riducendo quindi la loro presenza nell’aria. Nei nuovi dati center vengono utilizzate delle miscele per le pareti esterne che garantiscono un alto livello di isolamento.

Puntiamo inoltre sul riuso dei materiali, non solo nella fase di costruzione dei nuovi data center, ma anche nel quotidiano, recuperando e rinnovando tutto il materiale che si può rimettere nel circolo produttivo.

L’intelligenza artificiale sta portando ad applicazioni che permettono di migliorare il livello delle prestazioni di un data center da tutti i punti di vista, anche per i temi di sicurezza logica e fisica dei data center. Queste opportunità per alcuni specifici ambiti devono confrontarsi con i vincoli dettati dalla giurisprudenza italiana. Per chi gestisce i data center in Italia il tema è particolarmente importante, perché deve coniugare il rispetto delle leggi in vigore e le richieste sempre più sofisticate degli hyper scaler.

Ivan Piergallini, Sales Director Italy e Iberia di Milestone Systems

Fondata poco prima del 2000 in Danimarca, Milestone Systems è oggi leader globale nella produzione di software di gestione video (VMS) basati su una piattaforma aperta, progettata per offrire massima flessibilità e integrazione con la più vasta gamma di telecamere e soluzioni IoT presenti sul mercato. Grazie a questa apertura tecnologica, Milestone consente alle aziende di costruire soluzioni su misura, scalabili e al passo con l’evoluzione delle loro esigenze.

Nel contesto dei data center e della gestione dei dati, la nostra piattaforma rappresenta un punto di riferimento per affrontare le sfide di affidabilità, resilienza e sicurezza, temi oggi centrali in un mondo in cui la crescita esponenziale della mole di dati richiede soluzioni sempre più avanzate e performanti. Lavoriamo in stretta collaborazione con i nostri partner e clienti per garantire che ogni soluzione sia progettata con l’obiettivo di ottimizzare la riduzione della latenza, aumentare l’affidabilità e rispondere alle richieste sempre più pressanti in termini di protezione e gestione dei dati.

Uno dei valori distintivi di Milestone è la nostra attenzione alla sicurezza del dato. Nel mondo della videosorveglianza e delle prove video è essenziale garantire che i dati siano autentici, non manomessi e a prova di contraffazione. Con l’avanzata dell’intelligenza artificiale, queste esigenze diventano ancora più cruciali: come possiamo garantire che le politiche di sicurezza evolvano al passo con le tecnologie? Come possiamo assicurare che l’AI lavori in modo sicuro e trasparente con i dati raccolti? Queste sono le domande su cui costruiamo il dialogo con i nostri clienti, offrendo non solo tecnologia, ma anche competenza e supporto continuo.

Un altro aspetto fondamentale è la nostra capacità di rispondere al problema della discrepanza tra domanda e offerta di competenze tecniche. La crescente complessità tecnologica dei sistemi di videosorveglianza e data management richiede esperti in grado di progettare, installare e mantenere infrastrutture avanzate, come le telecamere o i server. In un panorama in cui la formazione spesso non prepara adeguatamente i giovani per le richieste del mercato del lavoro, Milestone si impegna attivamente a collaborare con le organizzazioni di settore per colmare questa lacuna, stimolando lo sviluppo di competenze tecniche indispensabili.

Infine, il messaggio chiave che vogliamo trasmettere ai nostri clienti è il valore di una partnership tecnologica strategica. In un mercato dove le tecnologie rischiano di essere percepite come semplici commodity, Milestone sottolinea l’importanza di scegliere un partner affidabile e lungimirante. Con oltre vent’anni di esperienza nello sviluppo software, consigliamo alle aziende di pianificare con attenzione i loro investimenti, evitando soluzioni che possano diventare rapidamente obsolete, e di crescere insieme a un partner tecnologico capace di adattarsi alle loro esigenze in costante evoluzione.

La nostra missione è chiara: fornire alle aziende una tecnologia avanzata e flessibile che non solo supporti le loro attività quotidiane, ma le aiuti a costruire infrastrutture resilienti e pronte per il futuro. Milestone non è solo un fornitore di tecnologia: è un partner per il successo a lungo termine.

Le competenze sono importarti anche lato cliente. Lavorando nell’ambito delle prove video un tema centrale è la sicurezza del dato: il dato deve essere certo, non contraffatto e non manomesso. Oggi, con lo sviluppo dell’intelligenza artificiale, questa tematica è ancora più attuale. Come si tramutano tutte le policy di protezione e sicurezza, principalmente fisica, del dato? Come viene assicurato? Come lavora l’AI con questi dati? Sono le domande che ci poniamo e su cui dobbiamo dialogare anche con i clienti. Per questo servono formazione e competenza.

Dalla nostra prospettiva di vendor di tecnologia, il rischio che vediamo è la banalizzazione delle tecnologie, perché spesso i clienti le considerano come commodity. Il messaggio che cerchiamo di far passare è che, dato che la tecnologia evolve così in fretta, è importante la scelta del partner. Come azienda che sviluppa software ed è presente sul mercato da più di vent’anni, quello che suggeriamo alle aziende è un’attenta pianificazione, affiancati da un partner tecnologico con cui si possa crescere nel tempo e in base alle proprie esigenze, evitando investimenti in soluzioni che possono diventare obsolete nel giro di pochi mesi.

 


Sara Brunelli

Giornalista professionista, dal 1997 si occupa dell’evoluzione delle tecnologie ICT destinate al mondo delle imprese e di quei trend e sviluppi infrastrutturali e applicativi che impattano sulla trasformazione di modelli e processi di business, e sull'esperienza di utenti e clien...

Office Automation è il periodico di comunicazione, edito da Soiel International in versione cartacea e on-line, dedicato ai temi dell’ICT e delle soluzioni per il digitale.


Soiel International, edita le riviste

Officelayout 199

Officelayout

Progettare arredare gestire lo spazio ufficio
Ottobre-Dicembre
N. 199

Abbonati
Innovazione.PA n. 58

innovazione.PA

La Pubblica Amministrazione digitale
Novembre-Dicembre
N. 58

Abbonati
Executive.IT n.6 2024

Executive.IT

Da Gartner strategie per il management d'impresa
Novembre-Dicembre
N. 6

Abbonati