I data center alla prova dell’AI

L’intelligenza artificiale è diventata vera grazie al cloud. Ma come la usano i data center, i luoghi fisici del cloud?

Dormiva da decenni in attesa di grandi potenze di calcolo, si è svegliata una decina di anni fa, quando solo il cloud poteva fornirla e gli specialisti utilizzarla. Ora l’AI generativa permette a tutti noi di accedervi. In qualsiasi data center o solo nelle infrastrutture dei grandi hyperscaler mondiali? In realtà, ovunque. Dal 2022, anno del cloud sovrano e di ChatGPT, è possibile infatti ragionare di AI e data center, le fabbriche di calcoli e dati dove il cloud scende sulla terra.
Ma come viene usata oggi l’intelligenza artificiale nei data center? Quando ha senso usare un data center anziché il cloud per un servizio di intelligenza artificiale? Gli operatori dell’ecosistema italiano cominciano a rispondere proprio ora.

L’intelligenza artificiale per i data center: come usarla per farli funzionare

Tutti i principali software di monitoraggio e protezione delle infrastrutture digitali si stanno dotando di capacità basate sull’intelligenza artificiale. Alcuni chiamano “observability” proprio quel qualcosa in più che l’AI permette loro di offrire rispetto alle soluzioni tradizionali. I gestori di data center sono tra i principali operatori di infrastrutture digitali: naturale che siano tra i primi a usare le versioni di questi prodotti che usano l’AI. Interessante, se mai, che alcuni operatori nazionali e locali abbiano preferito tacere. Ci staranno ancora lavorando?

Ecco chi ha voluto condividere la sua esperienza.

ARIA Spa, che gestisce decine di data center per Regione Lombardia e sue aziende sanitarie, usa strumenti di AI sia per correlare eventi sia per aiutare gli specialisti del supporto a trovare nella knowledge base le risposte più pertinenti e aggiornate per ogni quesito. Kyndryl serve in questo modo ben 1.200 clienti in tutto il mondo, oltre 40 in Italia, con la piattaforma aperta basata su AI Kyndryl Bridge che ha potuto sviluppare in autonomia con motori open source e i dati dei suoi stessi data center grazie alla sua scala mondiale.

Secondo IDA – Italian Data Center Association, i grandi gestori globali di data center che sono tra i suoi soci ne fanno un uso ben più esteso: monitorano migliaia di parametri, dai sistemi di raffreddamento a quelli di alimentazione e illuminazione, per identificare anomalie di funzionamento, prevedere e prevenire guasti, ottimizzare la gestione dei carichi di lavoro, prevedendone le variazioni. L’AI aiuta persino a progettare data center con caratteristiche innovative, paradossalmente necessarie proprio per soddisfare le esigenze delle macchine dedicate all’AI stessa.

Più sfumata la prospettiva di VIRTUS Data Centres, storico operatore britannico, che entra in Europa da Berlino: stanno sviluppando molte delle best practice qui descritte. Scelgono di usarle come contributo alla decisione di professionisti altamente specializzati e di non automatizzare completamente le azioni suggerite per mantenere il pieno controllo sui livelli di servizio che offrono ai clienti.

Vicino a noi, in Campania, dove le infrastrutture di data center moderne sono meno diffuse, lavora Convergenze Spa SB, che si differenzia per servizi a bassissima latenza e le moderne connessioni in fibra tra i suoi clienti e i grandi hub nazionali e internazionali. Usa servizi di AI generativa di mercato per ottimizzare l’accesso del customer support alla knowledge base e per la ricerca di minacce su tutti i pacchetti trasmessi sulla rete. Sta valutando di realizzare un proprio inference server per migliorarne l’efficacia e offrirne i servizi ai clienti.

Un operatore nazionale dedicato alle pubbliche amministrazioni, CSI Piemonte, sta sviluppando sistemi di gestione infrastrutture e sicurezza, prima per sé stesso e poi per i suoi clienti, mentre ha inserito già nelle sue soluzioni come Città Facile “Camilla”, un agente meta-umano basato su un bot generativo per l’assistenza agli utenti.

Molte di queste applicazioni per il supporto ai clienti usano RAG – Retrieval-Augmented Generation: integrano i risultati di una AI generativa con informazioni ricavate da un corpus di testi esclusivo dell’organizzazione che lo usa: knowledge base, procedure, regolamenti interni.

Un fornitore di piattaforme dati come MongoDB, per esempio, vede i propri clienti scegliere queste soluzioni grazie alla capacità della piattaforma di supportare insieme architetture on premise e cloud ibride: caratteristica che ha portato ad adottarla molti di quei gruppi di data center specializzati come i cloud sovrani nazionali europei, tra cui figura il Polo Strategico Nazionale italiano.

L’intelligenza artificiale nei data center: come la usano i clienti

Partiamo dal concreto. L’investimento minimo di solo hardware necessario per ospitare un’applicazione AI in un data center è di centinaia di migliaia di euro, più altre centinaia di migliaia all’anno tra costi di gestione e costi progettuali per usarla bene. Per addestrare un grande modello linguistico (LLM) in una lingua nuova si parla di decine di milioni.
Le grandi e grandissime aziende che usano AI in un data center, per esempio per analizzare dati di produzione o di vendita, prevedere andamenti futuri e magari far guidare da quelle analisi le proprie decisioni quotidiane (organizzazioni data-driven), lo fanno per proteggere quei dati da concorrenti e criminali, o semplicemente dai grandi modelli linguistici che potrebbero assorbirli e riproporli a tutti noi.

HPE è in una posizione speciale per offrire servizi di AI nei data center: da anni con la sua offerta GreenLake propone servizi cloud privati e ibridi più che grandi elaboratori da installare in casa dei clienti. Al suo evento annuale Discover 2024 ha annunciato una partnership con Nvidia (imprescindibile oggi per chi aspira a un ruolo nelle infrastrutture AI globali) e soprattutto una nuova offerta di servizi per i partner imperniata proprio sull’AI con nuove HPE AI Solutions e cloud ibrido HPE Compute, Storage e Data Services. Concentrarsi sui partner oltre che sulle soluzioni è uno dei modi per aiutare clienti e mercato a compiere rapidamente e con successo una svolta complessa come quella dell’adozione dell’intelligenza artificiale.

SMC Treviso, system integrator di soluzioni AI nel gruppo DGS, ha progetti con imprese e pubbliche amministrazioni medie, oltre a quelle grandi. Progetti basati su modelli open source verticali e specializzati che trovano posto anche in data center tradizionali. Tra i casi d’uso: OpenK9, un motore di ricerca cognitivo che applica AI generativa a dati riservati, assistenti virtuali che aiutano assicurazioni a presentare prodotti innovativi, anomaly detection (es. antiriciclaggio) e strumenti di gestione dei macchinari e governance dei loro dati per imprese manifatturiere.

Cloud Provider con un’offerta di soluzioni IT dal 1998, Seeweb dispone oggi di una famiglia di prodotti utile alle aziende e ai team di sviluppatori che hanno bisogno di realizzare soluzioni full stack per l’AI. Dal training dei modelli al fine tuning, il suo servizio di GPU as a service consente di realizzare progetti di private AI, mettendo a frutto (e al contempo preservando) il patrimonio di informazioni delle aziende.

Netalia, invece, è un public cloud service provider italiano e indipendente che attraverso servizi IaaS e PaaS supporta le applicazioni di intelligenza artificiale proponendo un’architettura studiata per essere scalabile, multi-tenant, a consumo, sicura by design. L’infrastruttura e i servizi Netalia sono qualificati QI3 e QC3 con ACN. Tutto è predisposto per minimizzare i rischi per la protezione dei dati, ovvero la base che alimenta gli algoritmi delle piattaforme di AI.

Equinix, grande gestore mondiale molto attivo in Nord Italia e membro di IDA, offre molti strumenti ai clienti che vogliano gestire in maniera sostenibile e confidenziale i propri servizi di AI privata: possono ospitare in spazi privati le GPU necessarie, immagazzinare i dati più sensibili dei modelli AI vicino al cloud e trasferirli tramite reti private. Soprattutto, condividono i benefici degli investimenti che continuano a fare per ridurre il consumo energetico e massimizzarne la quota rinnovabile, grazie anche all’uso di soluzioni software basate su AI: già nel 2023 hanno mantenuto il 96% di copertura di energia rinnovabile su tutto il portafoglio per arrivare al 100% entro il 2030.

Un altro caso d’uso oggi emergente in Italia è legato ai Large Language Model che alimentano le AI generative. Diversi operatori stanno cominciando a costruire o addestrare LLM nati da corpora di testi italiani o almeno versioni dei modelli internazionali addestrate su testi italiani, cosa che costa molto meno.

Del primo tipo conosciamo ad oggi solo Minerva della Università della Sapienza. Sul modello francese di Mistral AI si basa per esempio il LLM italiano di Fastweb, che mira a “democratizzare” l’AI, rendendola meglio accessibile a operatori italiani a partire da impieghi molto specialistici come la preparazione di risposte a gare pubbliche.

L’obiettivo di questi LLM è naturalmente quello di produrre risposte più coerenti con elementi della cultura, della storia e della società italiane. Avremo sempre “allucinazioni”, ossia affermazioni false o discutibili, ma almeno saranno più vicine ai nostri bias cognitivi locali. Siamo naturalmente ancora lontanissimi dalla possibilità che un assistente virtuale addestrato sulle nostre normative possa farci da consulente legale, fiscale o edilizio; forse un po’ più vicini ad aiutare specialisti umani, esperti in grado di verificare con grandissima attenzione quanto una AI esperta può produrre ben più in fretta di loro. I primi risultati ci aiuteranno a capire cosa si possa ottenere realisticamente con investimenti dell’ordine di decine di milioni, rispetto alle centinaia di milioni o ai miliardi che annunciano gli operatori globali, e in Europa la stessa Mistral AI.

L’altra grande difficoltà dell’ospitare servizi AI in un data center è data dalla fortissima densità di potenza delle macchine ad alte prestazioni necessarie. Per questo, nuovi operatori che si affacciano ora in Italia, come AQ Compute, che stanno ancora sviluppando servizi di gestione basati su AI come i giganti citati prima, sottolineano di costruire data center “pronti per l’AI” grazie a tecniche di raffreddamento moderne e costose a cui gli impianti più tradizionali ancora diffusi in tutta Italia non possono neppure aspirare e di farlo in maniera “sostenibile” grazie all’attento recupero del calore generato e al circuito chiuso dell’acqua. Altri che aprono ora nuove infrastrutture in Italia, come il nostrano Karal Green, e già adottano strumenti di AI per la gestione, fanno scelte drastiche come l’adozione universale del raffreddamento a liquido, il più efficiente oggi disponibile, o la collocazione nell’economica, assolata e poco sismica Sardegna, presto ottimamente collegata grazie ai cavi sottomarini Blue, Unitirreno e 2Africa.

L’ecosistema del cloud ibrido sta adottando, quindi, soluzioni AI anche nei data center italiani in molti modi simili, ma diversi a seconda delle dimensioni degli operatori e dei clienti.


Gianluca Marcellino

Specialista di IT Governance - Comune di Mil...

Office Automation è il periodico di comunicazione, edito da Soiel International in versione cartacea e on-line, dedicato ai temi dell’ICT e delle soluzioni per il digitale.


Soiel International, edita le riviste

Officelayout 198

Officelayout

Progettare arredare gestire lo spazio ufficio
Luglio-Settembre
N. 198

Abbonati
Innovazione.PA n. 57

innovazione.PA

La Pubblica Amministrazione digitale
Settembre-Ottobre
N. 57

Abbonati
Executive.IT n.5 2024

Executive.IT

Da Gartner strategie per il management d'impresa
Settembre-Ottobre
N. 5

Abbonati