L’intelligenza artificiale e la trasformazione delle infrastrutture ICT
Le tecnologie di IA possono orchestrare e governare in maniera sempre più automatizzata e intelligente qualunque infrastruttura, dai data center tradizionali all’edge, al data vault. Prima di tutto, però, bisogna avere chiari obiettivi e strategie.
Digital transformation significa innanzitutto rendere le infrastrutture ICT, e quindi in primis i data center (DC), in grado di erogare servizi con la massima rapidità e flessibilità garantendo adeguati livelli di sicurezza e resilienza. Come evidenzia IDC, il data center del futuro quindi sarà sempre più una infrastruttura agile, distribuita e automatizzata, in grado di erogare servizi al business come, dove e quando richiesti. Ma come si sta evolvendo il data center, e che ruolo ha l’intelligenza artificiale nell’ambito di questa trasformazione?
Core, edge e data vault
I percorsi di trasformazione, secondo IDC, sono essenzialmente tre: DC centralizzati sempre più potenti (core), DC distribuiti vicini ai luoghi in cui i dati vengono generati (edge) e uno strato intermedio identificato nel data vault. Il consolidamento dei DC core non è certo una novità: la proliferazione dei DC ha sempre rappresentato una sfida per le organizzazioni sia private che pubbliche, e la soluzione negli ultimi anni è stata quella di realizzare facility sempre più grandi e complesse eliminando quelle periferiche. Oggi però l’enorme quantità di dati generati da una sensoristica sempre più diffusa e sofisticata sta accelerando l’adozione di infrastrutture più agili distribuite geograficamente. Secondo proiezioni IDC, circa il 25% delle aziende sta già abbandonando il consolidamento dei grandi DC a favore di strutture più piccole posizionate in maniera strategica. Ma a tendere, l’esigenza di conservare e gestire il volume crescente di dati generati dall’edge porterà molte aziende a istituire e servirsi di uno strato intermedio di ‘data vault’, ossia, semplificando al massimo, un repository a lungo termine di dati storici provenienti da sorgenti eterogenee. Secondo IDC quindi per gestire una mole di dati in crescita esponenziale molte organizzazioni adotteranno una strategia di data vaulting che permetterà loro di consolidare e normalizzare i dati, in particolare quelli raccolti dall’edge, in siti sicuri intermedi, in genere gestiti da co-locator che offrono pacchetti a consumo di capacità elaborative, spazio, connettività, storage e sicurezza.
Cresce il ruolo dell’intelligenza artificiale
Questa progressiva parcellizzazione porterà inevitabilmente all’aumento dell’impiego di tecnologie di intelligenza artificiale e machine learning per armonizzare, orchestrare e automatizzare la gestione infrastrutturale della rete di data center, data vault e siti edge. IDC prevede infatti che entro pochissimi anni il 50% degli asset IT potrà operare autonomamente grazie proprio a queste tecnologie. A livello centrale, IA e ML porteranno a una maggiore automazione delle operazioni per aumentare la resilienza e ottimizzare le prestazioni, una caratteristica ancora più evidente nell’edge, dove il presidio umano sarà sempre più limitato, se non addirittura inesistente. Non stupisce quindi che stiano suscitando sempre maggiore interesse le piattaforme in gradi di monitorare in tempo reale e in maniera sempre più granulare tutte le componenti tipiche di una infrastruttura, dall’alimentazione al raffreddamento, dal cablaggio alla messa a terra sino ad arrivare alla sicurezza fisica e logica. Algoritmi sempre più sofisticati sono in grado di correlare tutti questi dati per efficientare al massimo l’intera infrastruttura, instradare correttamente gli eventuali incidenti e programmare al meglio gli interventi di manutenzione.
Arriva il digital twin
L’iper-automazione di una infrastruttura può portare – e in alcuni casi sta già portando – alla creazione di un digital twin della stessa che consente di visualizzare come le diverse funzioni, i processi e gli indicatori chiave di performance interagiscono fra loro. Il digital twin consente di ottenere una comprensione più approfondita delle risorse infrastrutturali, diventando quindi parte integrante del processo di iper-automazione a auto-apprendimento abilitato dalle più avanzate tecnologie di intelligenza artificiale. L’obiettivo è un utilizzo ottimizzato di tutti gli asset IT, oggi più che mai fattore strategico di successo per qualunque organizzazione.
Fare le scelte giuste
Core, edge, data value, digital twin… Come orientarsi? Naturalmente non esiste una risposta univoca. La prima cosa da fare è quella di dimensionare i progetti in base alle reali esigenze dell’organizzazione, evitando entusiasmi dettati solo dalle mode. Bisogna sempre tenere presente che il punto di partenza è la normalizzazione, la modellazione e lo spostamento dei dati da un ambiente all’altro, tutte operazioni che algoritmi di intelligenza artificiale e machine learning possono aiutare a efficientare e automatizzare; senza un disegno armonico dei processi di gestione e governance, però, anche progetti di questo tipo possono fallire, come qualsiasi altro progetto IT. Non a caso le esperienze migliori si hanno quando l’IA viene introdotta gradualmente, in genere nell’ambito di progetti pilota, e solo dopo aver dimostrato un reale valore di business estesa in altri ambiti. La necessità di disegnare percorsi di innovazione coerenti, condivisi e tracciati correttamente è dettata anche dall’esigenza di evitare, all’interno delle organizzazioni, la tentazione, da parte dei vari dipartimenti, di bypassare il dipartimento IT. Sfruttando l’elevata automazione e la semplicità di utilizzo messe a disposizione oggi dalle tecnologie di IA, infatti, i responsabili di funzione (marketing, HR, CRM ecc.) possono essere tentati di approvvigionarsi autonomamente, senza pensare ai rischi che comporta l’implementazione di una soluzione senza averne prima valutato l’impatto sull’infrastruttura nel suo insieme.
Le competenze necessarie
Un’altra convinzione abbastanza diffusa è che le soluzioni basate sull’intelligenza artificiale ‘facciano tutto da sole’. È vero che oggi l’industria è impegnata a semplificare e ‘democratizzare’ l’IT, ma per introdurre tecnologie di IA all’interno di una infrastruttura, nuova o pre-esistente, è necessario un duro lavoro, che parte dall’identificazione degli obiettivi che si vogliono raggiungere, prosegue con l’identificazione dei set di dati necessari e, soprattutto, continua anche dopo il rilascio, con l’integrazione di sempre nuovi dati e nuove tecnologie per alimentare il ciclo di apprendimento delle macchine. Servono quindi professionisti con nuove competenze in grado non solo di governare al meglio piattaforme e sistemi ma anche, e soprattutto, di evidenziarne il valore di business. Non a caso, come evidenzia l’Osservatorio delle Competenze Digitali 2019 il mercato del lavoro nel settore informatico non conosce crisi, con offerte ampie e diversificate, ma non sempre domanda e offerta si incontrano. Per far fronte alla carenza di skill adeguati si sta assistendo all’ampliamento dell’offerta formativa da parte delle università attraverso corsi e insegnamenti specialistici anche in ambito IA (machine learning, computer vision, IoT, solo per citarne alcuni), spesso organizzati in collaborazione con i vendor. Le organizzazioni più lungimiranti investono nell’aggiornamento permanente sia dei nuovi talenti che delle risorse già presenti in azienda, che conoscono a fondo i processi aziendali e il mercato di riferimento ma restano spesso ancorate a tecnologie e modelli organizzativi tradizionali.
Conclusioni
Per quanto l’intelligenza artificiale sia in grado di migliorare l’efficienza operativa del data center e garantirne l’espansione continuativa nel tempo, il fattore umano resta dunque fondamentale. L’infrastruttura IT, insomma, resta il cuore pulsante attorno a cui si sviluppano piani e strategie, e non è ancora diventata una commodity.