Skip to main content

Akamai Inference Cloud 
estende l’AI dal core all’edge con Nvidia

La piattaforma è progettata per fornire l'elaborazione dell'intelligenza artificiale sull'edge in tempo reale e a bassa latenza su scala globale

Akamai Technologies ha lanciato Akamai Inference Cloud, una piattaforma che ridefinisce dove e come l’intelligenza artificiale viene utilizzata, estendendo l’inferenza dai data center centralizzati all’edge di Internet.

Akamai Inference Cloud, spiega un comunicato, fornisce un’AI inference intelligente e proattiva sull’edge della rete, vicino a utenti e dispositivi. A differenza dei sistemi tradizionali, questa piattaforma è progettata per fornire l’elaborazione dell’AI sull’edge in tempo reale e a bassa latenza su scala globale. Il lancio di Akamai Inference Cloud sfrutta l’esperienza di Akamai nelle architetture distribuite a livello globale e nell’infrastruttura basata sull’intelligenza artificiale di NVIDIA Blackwell per ripensare ed estendere radicalmente il computing accelerato necessario per sfruttare il vero potenziale dell’AI.

La nuova generazione di applicazioni basate sull’AI, dalle esperienze digitali personalizzate agli agenti intelligenti fino ai sistemi decisionali in tempo reale, richiede che l’inferenza AI sia avvicinata all’utente. Gli Agentic workload richiedono sempre più spesso un’inferenza a bassa latenza, informazioni sul contesto locale e la possibilità di scalare globalmente in un istante. Progettata per favorire questa trasformazione, Akamai Inference Cloud è una piattaforma distribuita edge generative che avvicina lo stack AI di NVIDIA al luogo in cui vengono creati i dati e si svolgono i processi decisionali.

“La prossima ondata di AI richiede la stessa vicinanza agli utenti che ha permesso a Internet di diventare la piattaforma globale che è oggi”, afferma nella nota Tom Leighton, CEO e Co-founder di Akamai. “Akamai ha già risolto questa sfida in passato e lo sta facendo di nuovo. Grazie all’infrastruttura di AI di NVIDIA, Akamai Inference Cloud soddisferà la crescente domanda di espansione della capacità e delle prestazioni di inferenza dell’AI, collocando il processo decisionale dell’AI in migliaia di sedi in tutto il mondo e consentendo risposte più rapide, intelligenti e sicure”.

“L’inferenza è diventata la fase più impegnativa dal punto di vista computazionale dell’AI, richiedendo un ragionamento in tempo reale su scala planetaria”, afferma Jensen Huang, Founder e CEO di NVIDIA. “Insieme, NVIDIA e Akamai stanno avvicinando l’inferenza agli utenti di tutto il mondo, fornendo un’AI generativa più veloce e scalabile e aprendo la strada alla prossima generazione di applicazioni smart”.

Akamai Inference Cloud combina i server NVIDIA RTX PRO, su cui vengono eseguite le GPU NVIDIA RTX PRO 6000 Blackwell Server Edition, le DPU NVIDIA Bluefield-3 e il software NVIDIA AI Enterprise con l’infrastruttura di cloud computing distribuita e la rete edge globale di Akamai, che conta più di 4200 implementazioni in tutto il mondo.

Akamai, continua il comunicato, ha collaborato con NVIDIA per portare l’inference in posizioni irraggiungibili prima d’ora, segnando l’inizio di nuove frontiere per l’AI con Akamai Inference Cloud:

Estensione delle AI Factory aziendali all’edge per favorire la diffusione di agenti commerciali intelligenti ed experience digitali personalizzate: questo approccio consente di coordinare il ciclo di vita dell’intelligenza artificiale, dall’acquisizione dei dati alla creazione dell’intelligence su larga scala. Akamai Inference Cloud estende la produzione dell’intelligenza artificiale all’edge, decentralizzando i dati ed elaborando e indirizzando le richieste ricevute al modello migliore utilizzando le posizioni sull’edge ampiamente distribuite di Akamai. In questo modo, gli agenti smart possono adattarsi istantaneamente alla posizione, al comportamento e all’intento degli utenti, agendo anche in modo autonomo per negoziare, acquistare e ottimizzare le transazioni in tempo reale.

Favorire la diffusione di agenti e inference nello streaming per fornire informazioni finanziarie istantanee e prendere decisioni in tempo reale: gli agenti AI richiedono più inferenze sequenziale per completare attività complesse, creando ritardi che compromettono il coinvolgimento degli utenti. I workflow dell’agentic AI richiedono diverse chiamate di inferenza e, se ogni chiamata crea un ritardo di rete, l’esperienza risulta lenta per soddisfare i requisiti di latenza da un computer all’altro. L’architettura edge-native di Akamai Inference Cloud offre risposte virtualmente istantanee, consentendo agli agenti AI di operare con una reattività simile a quella umana in workflow multifase. Questo può risultare utile per rilevare le frodi, accelerare i pagamenti sicuri e prendere rapidamente le decisioni necessarie per l’industrial Edge.

Consentire l’uso della Physical AI in tempo reale oltre la reattività del livello umano: i sistemi basati sull’AI fisica come veicoli a guida autonoma, robot industriali e infrastrutture di smart city richiedono un processo decisionale accuratissimo per interagire in modo sicuro con il mondo fisico. La piattaforma Akamai Inference Cloud è progettata per consentire all’AI fisica di elaborare i dati dei sensori, prendere decisioni sulla sicurezza e coordinare le azioni in base alla velocità del mondo fisico, aiutando a trasformare tutto, dagli stabilimenti di produzione ai droni per le consegne ai robot chirurgici, in sistemi reattivi e intelligenti in grado di funzionare in modo sicuro insieme all’uomo.

Accelerare il time-to-value: il coordinamento di complessi workload basati sull’intelligenza artificiale e distribuiti in più aree geografiche coperte dai servizi cloud richiede competenze e team specializzati. Il livello di coordinamento intelligente offerto da Akamai Inference Cloud indirizza automaticamente le attività dell’intelligenza artificiale in posizioni ottimali: le consuete operazioni di inference vengono eseguite immediatamente sull’edge tramite i microservizi NIM di NVIDIA, mentre il ragionamento sofisticato sfrutta l’AI prodotta a livello centralizzato, gestendo il tutto tramite una piattaforma unificata che elimina la complessità dell’infrastruttura.

Akamai Inference Cloud è disponibile, inizialmente, in 20 sedi in tutto il mondo, ma si prevedono ulteriori implementazioni in futuro.

Akamai, Intelligenza artificiale


Office Automation è da 45 anni il mensile di riferimento e canale di comunicazione specializzato nell'ICT e nelle soluzioni per il digitale, promotore di convegni e seminari che si rivolge a CIO e IT Manager e ai protagonisti della catena del val...