Skip to main content

Cybersecurity, il 2026 sarà l’Anno dei Difensori

Per Palo Alto Networks gli agenti AI ridefiniranno le attività aziendali, innescando grandi mutamenti per identità, responsabilità legali, data security e browser

Palo Alto Networks ha presentato le “Sei previsioni per l’Economia dell’AI: nuove regole di cybersecurity nel 2026”, secondo cui l’economia dell’intelligenza artificiale introduce anche un cambiamento critico nel rischio. Nel 2026, gli agenti AI autonomi ridefiniranno infatti le attività aziendali, preparando il terreno per importanti mutamenti in termini di identità, SOC, quantum computing, sicurezza dei dati e browser.

Sulla base dell’aumento delle mega-violazioni guidate da vulnerabilità della supply chain e da attaccanti che mettono intere reti aziendali offline, Palo Alto Networks aveva indicato il 2025 come l’anno della disruption. Previsione che si è rivelata reale, poiché l’84% dei principali incidenti analizzati da Unit 42 quest’anno ha causato tempi di inattività operativi, danni reputazionali o perdite finanziarie.

Il 2026 invece sarà l’Anno dei Difensori: le contromisure guidate dall’AI inclineranno l’ago della bilancia a favore della difesa, aumentando la visibilità e riducendo così complessità e tempi di risposta.

Wendi Whitmore, CISO di Palo Alto Networks, sottolinea: “L’adozione dell’AI sta ridefinendo i rischi di cybersecurity, ma l’opportunità concreta è per i difensori. Mentre gli attaccanti utilizzano l’AI per scalare e accelerare le minacce in una forza lavoro ibrida, chi protegge deve contrastare quella velocità con una difesa intelligente. Ciò necessita un cambiamento di paradigma: da azioni di blocco reattive ad abilitatori che gestiscano proattivamente il rischio guidato dall’AI”.

Le 6 previsioni su AI e cybersecurity nel 2026

La nuova era della deception. Nel 2026, l’identità diventerà il principale campo di battaglia, poiché deepfake AI perfetti e in tempo reale renderanno la falsificazione indistinguibile dalla realtà. Questa minaccia è amplificata da agenti autonomi e da un impressionante rapporto macchina-uomo di 82:1 che generano una crisi di autenticità in cui un singolo comando falsificato innesca una cascata di azioni automatizzate. Con la fiducia che va erodendosi, la sicurezza delle identità deve trasformarsi da salvaguardia reattiva ad abilitatore proattivo, proteggendo ogni essere umano, macchina e agente AI.

La nuova minaccia interna: proteggere gli agenti AI. L’adozione aziendale di agenti AI autonomi permetterà finalmente di colmare la mancanza di competenze informatiche. Questo rappresenta però anche un rischio intrinseco che dà luogo a una nuova e potente minaccia interna: gli agenti, sempre attivi e implicitamente fidati, ottengono accessi privilegiati e chiavi, diventando l’obiettivo più prezioso. Gli avversari non mireranno più agli esseri umani come target principale, ma agli agenti, trasformandoli in “insider autonomi”. Ciò impone un passaggio all’autonomia con controllo, con la richiesta di strumenti di governance del firewall AI in fase di runtime per fermare gli attacchi a velocità macchina e garantire che la forza lavoro AI non venga sfruttata contro i suoi proprietari.

Risolvere il problema della fiducia nei dati. Il prossimo anno la nuova frontiera degli attacchi sarà l’avvelenamento dei dati (data poisoning), cioè la corruzione invisibile delle informazioni di addestramento dell’AI alla fonte. Questo attacco sfrutta un silo organizzativo critico tra data scientist e team di sicurezza per creare backdoor nascoste e modelli inaffidabili, innescando una fondamentale “crisi della fiducia nei dati”. Poiché i perimetri tradizionali diventano irrilevanti, la soluzione deve essere una piattaforma unificata che chiuda questa porta, utilizzando data security posture management (DSPM) e AI security posture management (AI-SPM) per l’osservabilità e agenti runtime per il firewall come codice, al fine di proteggere l’intera pipeline dei dati AI.

La nuova autorità legale: rischi AI e responsabilità esecutiva. La corsa aziendale per un vantaggio dell’AI si scontrerà con un nuovo muro di realtà normativa. Entro il 2026, l’enorme divario tra la rapida adozione e la sicurezza di un’AI matura (con solo il 6% delle organizzazioni che hanno una strategia avanzata) porterà alle prime grandi cause legali che riterranno i dirigenti personalmente responsabili per azioni di AI incontrollata. Questo eleva l’intelligenza artificiale da problema IT a responsabilità critica per il consiglio di amministrazione. Il ruolo del CIO deve evolversi ad abilitatore strategico – o collaborare con un nuovo Chief AI Risk Officer – utilizzando una piattaforma unificata per fornire una governance verificabile.

Il nuovo conto alla rovescia: l’imperativo quantistico. La minaccia “raccogli ora, decifra poi” accelerata dall’AI, crea una crisi di insicurezza retroattiva, poiché i dati rubati oggi diventano una responsabilità futura. Con i tempi quantistici che si riducono da un problema di dieci anni a uno di tre, i mandati governativi costringeranno presto a una migrazione massiccia e complessa alla crittografia post-quantistica (PQC). Questa immensa sfida operativa richiede alle aziende di passare da un aggiornamento una tantum alla costruzione di un’agilità crittografica a lungo termine – la capacità di adattare gli standard crittografici come una nuova base di sicurezza non negoziabile.

La nuova connessione: il browser come nuovo spazio di lavoro. Il browser, evolvendosi da strumento di sintesi delle informazioni a piattaforma operativa che esegue azioni, si sta trasformando nel nuovo sistema operativo aziendale. Questa tendenza crea la superficie di attacco non protetta più estesa – una porta di accesso per l’AI – che opera con un’unica lacuna di visibilità. Con il traffico GenAI in aumento di oltre l’890%, le aziende saranno costrette ad adottare un modello di protezione unificato, cloud-native, capace di imporre una sicurezza zero trust coerente e una salvaguardia dei dati all’ultimo millisecondo possibile all’interno del browser stesso.

“Oggi, il livello di consapevolezza sui rischi nell’uso dell’AI e l’intrinseca complessità derivante dalle modalità di funzionamento di questa tecnologia sono in aumento”, sottolinea Umberto Pirovano, Senior Manager Technical Solutions di Palo Alto Networks (nella foto). “Per molti CISO e CSO non si tratta semplicemente di capire come i dipendenti utilizzino sempre più spesso strumenti Saas AI, ma di rispondere alla necessità di disporre di un quadro completo dei rischi derivanti da un ecosistema tecnologico complesso. Siamo in una fase delicata, nella quale la tecnologia si sta evolvendo a un ritmo mai visto, guidata dal rischio di un’adozione che non tiene in considerazione l’esplosione della superficie di attacco concessa agli avversari, se non sostenuta da una strategia di protezione dell’AI. Uno dei temi più caldi è la necessità declinata dai CISO di un piano di sicurezza dell’AI, tramite l’adozione di una piattaforma di AI security end to end che abiliti controllo e mitigazione dei rischi in modo centralizzato e armonizzato con le architetture di cybersecurity correnti”.

Analisi di mercato, Sicurezza


Office Automation è da 45 anni il mensile di riferimento e canale di comunicazione specializzato nell'ICT e nelle soluzioni per il digitale, promotore di convegni e seminari che si rivolge a CIO e IT Manager e ai protagonisti della catena del val...