AI e sicurezza: una relazione inevitabile?
Gli scenari e le evoluzioni tecnologiche approfonditi con Paolo Palumbo, vice president W/Intelligence di WithSecure.

Non c’è dubbio che l’intelligenza artificiale sia oggi uno dei domini principali dei confronti in ambito cybersecurity e non solo. Diversi sono in tal senso gli spunti emersi da un incontro con Paolo Palumbo, vice president W/Intelligence di WithSecure che ha messo al centro l’evoluzione del panorama delle minacce in un contesto in cui l’AI generativa ha di fatto portato alla ribalta una tecnologia che prima stava dietro le quinte e che oggi appare in grado di effettuare operazioni molto sofisticate.
“Da anni utilizziamo il machine learning (ML) perché il numero di minacce da gestire è talmente elevato che non ci sono abbastanza persone per fare un’osservazione manuale. Qualcosa che prima ‘viveva’ dietro le quinte. Poi è arrivata l’AI utilizzabile grazie al linguaggio naturale, e tutti hanno potuto iniziare a servirsene. La portata di questa trasformazione segue quella di Internet, del cloud e ora dell’AI”, ha spiegato Palumbo per uno strumento che può essere utilizzato in modo positivo o negativo. Strumento di difesa ma anche di offesa, e possibile rischio indiretto per le organizzazioni e le persone. E quest’ultimo aspetto, per la maggior parte delle organizzazioni, risulta quello più importante.
L’uso dei modelli
“Per comprendere come gli attaccanti utilizzano l’AI, è necessario rivolgersi a chi sviluppa modelli. Ecco questi vengono usati ad esempio per attacchi come il debug del malware, la scrittura di scraper per Instagram, la traduzione di profili LinkedIn e la ricerca di informazioni su potenziali target. Si tratta di azioni molto semplici, che possono essere considerate normali anche in un contesto non criminale e che servono a svolgere correttamente determinati compiti. Oppure ci sono gruppi APT che fanno campagne di phishing, generano codice relativo alla cybersicurezza, ottengono informazioni sui sistemi di difesa, imparano a fare movimenti laterali, e così via”, ha sottolineato Palumbo citando poi i deepfake che in un futuro prossimo faranno in modo che video e foto forse non saranno più considerate prove certe. Infine il tema delle vulnerabilità, con l’utilizzo della GenAI per scoprirne nel software e nelle infrastrutture.
Esperimenti in corso
Le considerazioni sull’utilizzo dell’intelligenza artificiale in modo fraudolento guardano anche alle evoluzioni future. Ad esempio si parla di proof of concept relativi alla generazione dinamica di codice malevole. Palumbo ha citato LLMorpher, che vede la scrittura del logiche del codice in linguaggio naturale per poi far eseguire le istruzioni all’AI producendo un eseguibile. BlackMamba fa qualcosa di simile, agendo però come keylogger polimorfico.
“Sono fenomeni che ancora non vediamo concretamente, ma che arriveranno in futuro, come l’uso di codice e l’esecuzione di campagne in modo autonomo. Questo accadrà quando ci sarà un incentivo economico per i criminali”, ha sottolineato Palumbo concludendo: “Dal punto di vista geopolitico, chi possiede sistemi di AI ha un vantaggio. È possibile (come insegna DeepSeek) creare modelli competitivi e vincenti a basso costo. E i difensori non hanno scelta, poiché tutto evolve a una velocità esponenziale.”
Ecco che WithSecure utilizza l’intelligenza artificiale per rilevare in modo avanzato le minacce con AI e machine learning; analizzare in modo predittivo per prevenire attacchi informatici; automatizzare i processi di risposta per una reazione più veloce. Ad esempio è disponibile la funzionalità di AI generativa Luminen che, integrata nativamente in WithSecure Elements Cloud, è studiata per potenziare i team IT e di cybersecurity. Questo proponendo delle spiegazioni in linguaggio naturale degli eventi di sicurezza e alla Broad Context
Detections.