Skip to main content

Rubrik lancia un motore semantico di AI Governance

SAGE interpreta il significato delle policy aziendali e guida gli agenti affinché operino in modo sicuro, senza compromettere la loro autonomia operativa

Rubrik accelera sulla sicurezza dell’intelligenza artificiale e presenta una nuova piattaforma destinata a ridefinire la governance degli agenti autonomi. La società Rubrik ha annunciato il lancio del Semantic AI Governance Engine (SAGE), descritto come il primo motore del settore progettato per controllare e proteggere in tempo reale il comportamento degli agenti AI all’interno delle aziende. Il nuovo sistema rappresenta il cuore di Rubrik Agent Cloud e introduce un cambio di paradigma: dalla supervisione manuale e statica a una governance basata sull’intento. In altre parole, invece di limitarsi a bloccare parole o azioni predefinite, SAGE interpreta il significato delle policy aziendali e guida gli agenti affinché operino in modo sicuro, senza compromettere la loro autonomia operativa.

Secondo Rubrik, l’adozione dell’AI nelle imprese sta attraversando una fase di rallentamento proprio a causa dei limiti dei sistemi legacy. Le tecnologie tradizionali, basate su regole rigide, non sono infatti in grado di comprendere il linguaggio naturale né di adattarsi all’uso dinamico degli strumenti digitali, creando colli di bottiglia nella governance. SAGE interviene su questo punto critico grazie a un Small Language Model (SLM) proprietario, progettato per interpretare il contenuto semantico delle policy e fornire un controllo in tempo reale delle operazioni degli agenti.

“Siamo a un punto di svolta: la domanda non è più se distribuire agenti AI, ma come governarli su larga scala”, ha spiegato Devvret Rishi, General Manager AI dell’azienda. L’obiettivo è offrire ai responsabili della sicurezza, come i CISO, strumenti avanzati per mantenere il controllo senza rallentare l’innovazione.

Tra le principali innovazioni introdotte da SAGE spicca l’interpretazione semantica delle policy, che consente di tradurre istruzioni in linguaggio naturale – come il divieto di fornire consulenze finanziarie – in logiche comprensibili per le macchine. A questo si aggiunge un modello SLM sviluppato ad hoc, capace di garantire maggiore accuratezza rispetto ai modelli generalisti e operare con latenze ridotte. Il sistema include inoltre funzionalità di miglioramento adattivo, in grado di individuare policy ambigue e suggerire correzioni prima che si verifichino violazioni, e meccanismi di remediation automatica che permettono di annullare azioni dannose e ripristinare i dati.

Rubrik ha anche reso noti i risultati di un benchmark interno per dimostrare l’efficacia del proprio motore. Il confronto con GPT-5.2 di OpenAI evidenzierebbe prestazioni superiori dell’SLM proprietario: elaborazione dei messaggi fino a cinque volte più rapida, maggiore precisione nell’individuazione delle violazioni e una significativa riduzione dell’overhead computazionale tipicamente associato al monitoraggio in tempo reale.

AI Governance, policy, Small Language Model


Office Automation è da 45 anni il mensile di riferimento e canale di comunicazione specializzato nell'ICT e nelle soluzioni per il digitale, promotore di convegni e seminari che si rivolge a CIO e IT Manager e ai protagonisti della catena del val...