Skip to main content

AWS tra fondamenta e orizzonti agentici dell’AI

I risultati dell'ultimo anno e gli annunci a partire dai servizi e le soluzioni dedicati all'intelligenza artificiale.

Il management italiano di AWS ha recentemente condiviso alcuni degli elementi emersi in occasione dell’evento re:Invent 2025 svoltosi a inizio dicembre a Las Vegas. L’idea è stata quella di offrire una prospettiva approfondita sulle direzioni future dell’azienda, bilanciando tra il rafforzamento delle fondamenta infrastrutturali e l’esplorazione delle frontiere più avanzate dell’intelligenza artificiale. Il tutto evidenziando come l’innovazione di AWS sia un processo continuo, guidato sia dalla necessità di ottimizzare l’esistente sia dalla spinta verso nuove capacità all’avanguardia.

Antonio d’Ortenzio, Solutions Architect Manager di AWS

Antonio D’Ortenzio, Solutions Architect Manager, ha in particolare illustrato la crescita finanziaria dell’operatore che ha raggiunto un fatturato annuale di 132 miliardi di dollari in 19 anni, con un incremento di 22 miliardi solo nell’ultimo anno. Inoltre Amazon S3, il servizio di object storage lanciato nel 2006, ospita ormai 500 trilioni di oggetti e gestisce 200 milioni di richieste al secondo. L’adozione del processore proprietario Graviton continua dal canto suo a espandersi, rappresentando oltre il 50% della nuova capacità CPU erogata. “Più di un milione di clienti utilizzano i nostri servizi database, e un dato particolarmente significativo per il settore è che in oltre 100.000 hanno già adottato Amazon Bedrock per l’AI generativa. Inoltre, Bedrock Agent Core, annunciato a luglio, ha registrato oltre 2 milioni di download dell’SDK in pochi mesi, evidenziando l’interesse per la messa in produzione di agenti intelligenti.”

Il Cuore Hardware: Innovazioni Infrastrutturali Essenziali

Andando nel dettaglio delle innovazioni hardware, D’Ortenzio le ha definite come il “building block di tutto”. In breve, Graviton5, Il nuovo processore, introduce 192 core per chip e una cache L3 cinque volte più grande della precedente, garantendo miglioramenti prestazionali tra il 25% e il 60%. Casi studio come Airbnb (+25% di performance) e SAP (+60%) dimostrano il suo impatto. Relativamente alla Partnership con NVIDIA, AWS prosegue la sua collaborazione , supportando ora anche i processori GB300. “NVIDIA stessa utilizza le istanze EC2 di AWS per i propri workload. Anche OpenAI e Anthropic (con il progetto Rainier) sono tra i principali utilizzatori di queste istanze.” Trainium3 è invece il processore dedicato all’AI training, con tecnologia a 3 nanometri, che raddoppia la potenza di calcolo e migliora l’efficienza energetica del 40%. “Un punto di svolta è l’integrazione, per la prima volta, di CPU Trainium, Graviton e l’hypervisor Nitro in un unico modulo server, tutti di produzione AWS. Importante anche il supporto nativo a PyTorch, che apre Trainium a un’ampia fetta di sviluppatori di modelli.” E ancora, AI Factories è un’offerta che permette ai clienti di ospitare l’infrastruttura AI di AWS direttamente nei propri data center, rispondendo a esigenze di sovranità e compliance. Aggiornamenti anche per il servizio serverless Lambda. In particolare le Lambda Managed Instances offrono la possibilità di specificare le risorse hardware sottostanti (RAM e CPU), ampliando l’applicabilità di Lambda a workload intensivi come il video processing o l’AI. “In realtà lo vediamo un po’ come un’estensione del serverless a dei workload che, finora, non potevano permettersi di utilizzare Lambda. Le Durable Functions infine estendono Lambda a task di lunga durata, fino a un anno, introducendo funzionalità di checkpoint e recovery.”

L’era dell’intelligenza artificiale generativa e dei modelli

Danilo Poccia, Chief Evangelist (EMEA) di AWS

Danilo Poccia, Chief Evangelist (EMEA) ha dal canto suo approfondito il tema dell’AI generativa partendo da Amazon Bedrock, un servizio “che permette agli sviluppatori di integrare la generativa nelle loro applicazioni” e che continua a crescere, con oltre 100.000 clienti e più di 50 che hanno elaborato un trilione di token. Bedrock ha inoltre ampliato il supporto a nuovi modelli di terze parti come Mistral, Google e NVIDIA. Riscritto anche il motore di inferenza di Bedrock, ora più efficiente con una nuova API compatibile con OpenAI. La famiglia di modelli proprietari di Amazon, sviluppati da Amazon AGI, ha visto invece il lancio di Nova 2 Lite, Nova 2 Sonic (speech-to-speech multilingua con gestione delle interruzioni e chiamate asincrone) e la preview di Nova Omni, un modello multimodale Any2Any capace di processare e generare testo e immagini senza passaggi intermedi. “Questi modelli incorporano anche funzionalità di “reasoning” per migliorare l’efficienza,” ha sottolineato Poccia introducendo poi il nuovo servizio Nova Forge: studiato per consentire ai clienti di personalizzare i modelli Nova (ad oggi Nova 2 Lite) con i propri dati, riducendo drasticamente i costi rispetto al pre-training da zero. “Il caso di Reddit, che ha utilizzato NovaForge per migliorare la moderazione dei forum, è un esempio concreto. Nova Act è invece Un agente in grado di interagire con interfacce UI web, estraendo dati non strutturati e convertendoli in formato strutturato, utilizzato da clienti come Hertz per automatizzare prenotazioni e testare applicazioni. Infine S3 Vectors è un annuncio tecnico ma fondamentale, che estende Amazon S3 per supportare nativamente lo storage vettoriale, abbassando significativamente il costo e la complessità della gestione dei dati per l’AI, con un modello di prezzo pay-per-use senza costi fissi.”

Il futuro dello sviluppo software La parte finale dell’incontro ha esplorato il mondo degli agenti, sia per uso interno AWS che per gli sviluppatori. Ecco che Amazon Q è un’applicazione agentica, utilizzata per ricerca, visualizzazione e automazione su dati aziendali e internet. AWS Transform (e Transform Custom) è invece una piattaforma agentica per la modernizzazione di applicazioni legacy (Windows, mainframe, custom), aiutando a migrare e trasformare codice. Proseguendo, Kiro è un ambiente di sviluppo AI-assisted che promuove lo “spec-driven development”, aiutando gli sviluppatori a scrivere specifiche oltre al codice. Mentre Kiro Autonomous Agent è un agente autonomo basato su cloud che agisce come un membro del team di sviluppo, imparando dagli errori e dalle interazioni, instaurando un rapporto “simile a quello che si ha con i colleghi di lavoro”, ha aggiunto Poccia introducendo poi gli agenti AWS Security Agent e AWS DevOps Agent specializzati per la sicurezza (code review e penetration test autonomi) e per le operazioni (monitoraggio, osservabilità, triage automatico di problemi in produzione). Ultimi annunci hanno riguardato infine Bedrock AgentCore, piattaforma per portare gli agenti in produzione che è stata potenziata con nuove funzionalità; Policy in AgentCore: Un “firewall” che controlla le azioni degli agenti, prevenendo comportamenti indesiderati e garantendo che operino entro limiti definiti; AgentCore Evaluations: Permette di monitorare la qualità e l’efficacia delle risposte degli agenti, utilizzando un ‘LLM as a judge’ per valutare metriche come correttezza, utilità e assenza di stereotipi; ed Episodic Memory: “Quest’ultimo aiuta gli agenti a imparare dagli errori passati, estraendo ‘fatti’ dalle interazioni per migliorare le risposte future. se qualcuno tre anni fa mi avesse detto che io avrei fatto una presentazione parlando di episodic memory e agenti che prendono decisioni e imparano dagli errori presenti, avrei detto che nemmeno nella fantascienza…”

AWS, Cloud Computing, Intelligenza artificiale


Office Automation è da 45 anni il mensile di riferimento e canale di comunicazione specializzato nell'ICT e nelle soluzioni per il digitale, promotore di convegni e seminari che si rivolge a CIO e IT Manager e ai protagonisti della catena del val...