Aziende, i dati inviati alla GenAI sono cresciuti di 30 volte in un anno
Secondo un’analisi di Netskope il 72% degli utenti aziendali accede alle app GenAI che usa per lavoro con account personali: i rischi e le possibili contromisure

Netskope ha pubblicato una nuova ricerca che rivela un aumento di 30 volte del volume di dati inviati alle applicazioni di intelligenza artificiale generativa (genAI) dagli utenti aziendali nell’ultimo anno.
La tipologia di dati caricati su applicazioni di GenAI comprende molti dati sensibili come codici sorgente, dati regolamentati, password, dati di proprietà intellettuale, il che aumenta il rischio di costose violazioni dei dati e della conformità, e di furti di proprietà intellettuale. Il report evidenzia anche come la “shadow AI” sia ora la sfida predominante, poiché il 72% degli utenti aziendali usa i propri account personali nelle applicazioni GenAI che utilizza per lavoro.
Il Generative AI Cloud and Threat Report 2025 di Netskope Threat Labs descrive in dettaglio il dilagante utilizzo di GenAI in azienda. Al momento della stesura del report, Netskope aveva visibilità su 317 applicazioni GenAI tra cui ChatGPT, Google Gemini e GitHub Copilot. Un’analisi più ampia nell’enterprise ha rilevato che il 75% di utenti aziendali accede ad applicazioni con funzionalità GenAI, creando notevoli problemi potenziali di minaccia interna involontaria.
“Nonostante gli sforzi per implementare strumenti GenAI gestiti dall’azienda, la nostra ricerca mostra che la shadow IT si è trasformata in shadow AI, con quasi tre quarti degli utenti che accedono ancora alle applicazioni GenAI tramite account personali”, afferma in una nota James Robinson, CISO di Netskope. “Questa tendenza, combinata con i dati che vengono condivisi, sottolinea la necessità di funzionalità avanzate di sicurezza dei dati in modo che i team di sicurezza e risk management possano riacquistare governance e visibilità rispetto all’utilizzo di GenAI nelle loro organizzazioni”.
Necessario un approccio completo alla gestione del rischio
Molte organizzazioni non hanno visibilità completa o anche parziale su come i dati vengono elaborati, archiviati e sfruttati nell’uso indiretto di GenAI. Spesso scelgono di applicare policy “block first and ask later” consentendo alcune applicazioni e bloccando tutte le altre. Tuttavia, i responsabili della sicurezza devono perseguire strategie di abilitazione permettendo di cogliere i benefici di efficienza e produttività di questi strumenti.
“I nostri ultimi dati mostrano che la GenAI non è più una tecnologia di nicchia; è ovunque”, afferma nella nota Ray Canzanese, direttore di Netskope Threat Labs. “Sta diventando sempre più integrata in tutto, dalle applicazioni dedicate alle integrazioni backend. Questa ubiquità presenta una sfida crescente per la sicurezza informatica: le organizzazioni devono adottare un approccio completo alla gestione del rischio, o rischieranno che i propri dati sensibili vengano esposti a terze parti che potrebbero utilizzarli per addestrare nuovi modelli di AI, con possibili esposizioni di dati ancora più diffuse”.
Se gli attacchi sono guidati dall’AI, solo l’AI può rispondere
Nell’ultimo anno, Netskope Threat Labs ha anche osservato che il numero di organizzazioni che gestiscono infrastrutture GenAI in locale è aumentato drasticamente, passando da meno dell’1% al 54%, e questa tendenza continuerà. Il passaggio all’infrastruttura locale riduce i rischi di esposizione indesiderata dei dati ad applicazioni di terze parti nel cloud, ma introduce nuovi tipi di rischi per la sicurezza dei dati da catene di fornitura, perdite di dati e gestione impropria dell’output dei dati a prompt injection, jailbreak ed estrazione di meta prompt. Di conseguenza, molte organizzazioni stanno aggiungendo infrastrutture GenAI ospitate localmente su applicazioni GenAI basate sul cloud già in uso.
“L’intelligenza artificiale non sta solo rimodellando la sicurezza del perimetro e della piattaforma, sta riscrivendo le regole”, afferma Ari Giguere, Vice President of Security and Intelligence Operations di Netskope. “Mentre gli attaccanti creano minacce con precisione generativa, le difese devono essere altrettanto generative, evolvendo in tempo reale. Un combattimento efficace di un avversario umano creativo richiederà sempre un difensore umano creativo, ma in un campo di battaglia guidato dall’AI, solo la sicurezza alimentata dall’AI può tenere il passo”.
I passaggi per affrontare i rischi legati alla GenAI
Mentre i difensori umani combattono le minacce guidate dall’intelligenza artificiale, molti si stanno rivolgendo a strumenti di sicurezza già presenti nei loro stack tecnologici. Quasi il 100% delle organizzazioni sta lavorando per ridurre i rischi di AI con policy che consentono loro di bloccare l’accesso agli strumenti di AI e/o controllare quali utenti possono accedervi e quali dati possono utilizzarvi. Netskope raccomanda di rivedere, adattare e personalizzare i quadri di rischio specificamente per l’AI o la genAI, mettendo in campo sforzi per garantire un’adeguata protezione di dati, utenti e reti. I passaggi tattici specifici per affrontare il rischio derivante dalla GenAI includono:
● Valutare il proprio panorama GenAI: scoprire quali applicazioni e infrastrutture GenAI ospitate localmente si stanno utilizzando, chi le sta utilizzando e come.
● Rafforzare i controlli per applicazioni GenAI: rivedere e confrontare regolarmente i controlli con le best practice, come consentire solo applicazioni approvate, bloccare applicazioni non approvate, utilizzare DLP per impedire che dati sensibili vengano condivisi con applicazioni non autorizzate e sfruttare il coaching degli utenti in tempo reale.
● Fare un inventario dei controlli locali: se si sta eseguendo un’infrastruttura GenAI localmente, rivedere i framework pertinenti come OWASP Top 10 for Large Language Model Applications, National Institute of Standards and Technology’s (NIST) AI Risk Management Framework e MITRE Atlas per garantire un’adeguata protezione di dati, utenti e reti.