La cybersecurity davanti all’intelligenza artificiale

Questo è il titolo della tavola rotonda organizzata da Cy4Gate in collaborazione con Office Automation, in cui è stato affrontato il tema del rapporto tra AI e sicurezza informatica.

La cybersecurity ha un impatto fondamentale sulle aziende. Un attacco ai sistemi informatici, infatti, può generare una serie di conseguenze operative, di processo oltre che di immagine. Tutto questo rende le strutture che se ne occupano un tassello critico sia dal punto di vista tecnico sia di business anche perché esistono diverse possibili fasi di analisi e intervento, quali preparazione, prevenzione, protezione. Oggi si parla sempre più anche di intelligenza artificiale, intesa come elemento per migliorare la vita aziendale. Anche nell’ambito della cyber sicurezza l’AI è sempre più vista come una tecnologia a supporto. Si tratta di capire, a fronte delle sfide attuali in ambito security, se effettivamente è un elemento che aiuta a risolvere i problemi o se è un ostacolo alla sicurezza.

Inoltre è importante interrogarsi sulle competenze necessarie per gestire la sicurezza valorizzando l’intelligenza artificiale. Per approfondire questi e altri argomenti Cy4gate, azienda specializzata nella cybersecurity, ha organizzato a Milano, insieme a Soiel International, una tavola rotonda. L’incontro dal titolo “La cybersecurity davanti all’intelligenza artificiale”, moderato da Paolo Morati, giornalista di Office Automation, è stato un’occasione di confronto e di approfondimento su diversi scenari, per individuare le opzioni per affrontarli, comparando esperienze di aziende utenti diversificate sulla tematica, con l’obiettivo di far emergere indicazioni utili.

Queste sono le domande che sono servite da spunto al dibattito:

1. Quali sono oggi le sfide principali che le aziende hanno di fronte quando si tratta di cybersecurity e le minacce che oggi sono da ritenersi più critiche, tenendo anche conto del rispettivo settore verticale di riferimento? Quali sono in tal senso gli strumenti ritenuti più opportuni per affrontarle con successo?
 
2. Qual è a vostro parere il contributo che l’intelligenza artificiale può fornire nella gestione di queste minacce e i caratteri distintivi che le soluzioni che la adottano devono possedere? E qual è invece il ruolo che può giocare sul fronte di chi attacca?
 
3. Qual è l’impatto che l’intelligenza artificiale ha sulle competenze di chi si occupa della gestione della sicurezza ma anche di chi è singolarmente nel mirino dei cybercriminali, quindi persone e utenti? Come si stanno evolvendo ruoli e professioni?

Alessio Antolini, CISO e DPO di AMA Roma

AMA è l’azienda municipale per l’ambiente che si occupa della raccolta rifiuti per conto di Roma Capitale; si è dotata di un’unità specifica per la cybersecurity circa un anno fa. La prima sfida in area cybersecurity è stata quella di far capire, a chi non se rendeva conto, che un problema di sicurezza si riflette sulla dimensione economica, ma anche sulla continuità operativa, sulla percezione da parte degli utenti, sull’incolumità pubblica.

Oggi lo scenario tecnologico è più ampio rispetto a un tradizionale computer. Anche quando si parla di intelligenza artificiale, ci si riferisce a un concetto vasto. Molti elementi confluiti nell’AI esistevano già trent’anni fa, ma oggi sono fruibili da sempre più persone. La sfida attuale più grande è che, mentre ci concentriamo sulle tecnologie, i problemi maggiori possono nascere dagli essere umani.

Esercitando un’attività sul territorio, AMA si organizza tramite mezzi, veicoli, impianti controllati con strumenti informatici. Attualmente ogni mezzo su quattro ruote ha a bordo più informatica che meccanica. Il mancato controllo dei componenti informatici può portare a problemi che possono tradursi in incidenti stradali. Fondamentale è creare azioni di contenimento e fare l’analisi del rischio. Il primo passo consiste nell’avere una visione integrata. Attualmente i modelli di deep learning trovano relazioni e correlazioni. Più si arriva all’integrazione di processi e informazioni, coinvolgendo anche ambiti non necessariamente informatici, come il mondo OT abbinato a IoT e IT, più si ottengono visioni d’insieme su cui si innestano temi di analisi comportamentale in rapporto alla risposta umana, il primo fattore di incidentalità.

Esistono tre problemi. Il primo riguarda la grande quantità di eventi che coinvolgono tutti i sistemi informatici e un enorme flusso di dati. Il secondo deriva dalla carenza di personale preparato. Il terzo è relativo alla tipologie di attacco che coinvolgono molti dati.

Chiaramente, l’intelligenza artificiale, i modelli deep learning, di analisi ci danno una mano. Gli algoritmi usati ci hanno permesso di avere in pochi minuti informazioni che con altri sistemi avremmo ottenuto con un lavoro di ore se non di mesi o anni. Tuttavia, arriveremo al punto in cui, a livello mondiale, solo l’1- 2% degli utilizzatori saprà come funzionano gli algoritmi, mentre del rimanente 98%, soltanto il 10% si rivelerà un poco più competente degli altri. Un tempo sapevamo esattamente cosa c’era dietro a un microprocessore, oggi è impensabile conoscere nel dettaglio cosa sta in un cellulare. Abbiamo smesso di capire cosa accade nei dispositivi che usiamo abitualmente, abbiamo lasciato questa abilità agli esperti ma sono cambiate anche le nostre competenze. Non è nemmeno facile svolgere attività di testing perché è difficile ragionare su una mole di dati estremamente ampia. Probabilmente diventerà sempre più importante affiancare alle competenze di un ingegnere quelle di un filosofo, di uno psicanalista, di un linguista, figure che in precedenza non si sono mai sedute al tavolo della tecnologia.

Andrea Angeletta, CISO di ARIA S.p.A.

ARIA è l’agenzia regionale “in house” per l’innovazione e gli acquisti di Regione Lombardia; è la “cassaforte dei dati”, per questo la cyber security è centrale, costantemente aggiornata e migliorata. In tema di cybersecurity, un primo aspetto da sottolineare è a livello di Sistema Paese. Proviamo solo a pensare che il BSI in Germania è stata creato nel 1991, INCIBE in Spagna nel 2006, ANSSI in Francia nel 2009, in Italia l’ACN (Agenzia per la cybersicurezza nazionale) è nata nel 2021. Questo significa che abbiamo un gap importante da recuperare. Il Governo Italiano sta lavorando molto su questo versante e Aria sta svolgendo la sua parte collaborando col Governo. Dal 2022, a seguito degli attacchi a tre importanti enti sanitari pubblici lombardi, siamo stati coinvolti da Regione Lombardia per condividere le nostre competenze in ambito cyber nel settore sanitario. Abbiamo valutato e misurato il grado di copertura della postura di sicurezza identificando le scoperture. La sfida è quella di portare tutti a un livello omogeneo; le attività sono numerose e impegnative con un problema di skill shortage. È difficile individuare, negli enti sanitari, persone che possano dedicarsi a un percorso formativo sulla cyber security.

L’AI porta rischi e opportunità, anche nella cybersecurity. Quando realizza fake news, come video e immagini artefatte, ci troviamo di fronte a un rischio. Quando ci aiuta di automatizzare e velocizzare molte attività e ridurre di conseguenza il carico di lavoro sulle persone, diventa un’opportunità. Un’altra opportunità è rappresentata dalla veloce elaborazione di grandi moli di dati, analizzandole e riducendo il carico di lavoro sui professionisti di sicurezza.

I servizi di Regione Lombardia sono contattati, in media, 10 volte al secondo. La metà sono tentativi di attacco. In uno scenario di questo tipo, l’attenzione che ARIA deve mantenere è molto alta come anche l’effort generato. L’AI può essere di aiuto, anche se introduce nuovi rischi. Controllare le fonti, validarle, verificare la correttezza degli algoritmi sono tutti temi da presidiare: come l’AI apprende dagli umani, così noi possiamo imparare dall’AI.

L’AI applicata alla cyber security consente di contrastare e di rispondere con la stessa velocità con la quale gli hacker sviluppano nuovi attacchi. Considerando che l’AI scrive codice di buona qualità, costituisce sia un rischio, sia un’opportunità. Regione Lombardia sta lavorando su 26 nuovi progetti basati sull’AI. La domanda che ci siamo posti, è “di che competenze in ambito cybersecurity, ARIA ha bisogno, per governare progetti innovativi di AI, considerato che, nel tempo, potrebbero sicuramente aumentare?” Importante è disporre di esperti di cybersecurity applicata all’AI. Inoltre, l’uso dell’AI va indirizzato eticamente senza trascurare gli aspetti di continuità operativa. L’obiettivo finale è fornire strumenti di AI che aiutino il cittadino a usufruire in modo più veloce e affidabile dei servizi resi disponibili dalla PA.

Giuliana Fenu, direttore regionale Competitività del Sistema Regionale, Regione Piemonte

La chiave della cyber security sta nelle “tre c”: consapevolezza, contenimento e continuità, elementi che ogni organizzazione deve considerare. La consapevolezza nasce dalle competenze, quindi dalla formazione. Il contenimento è legato al concetto di assessment. Che si tratti di un’azienda pubblica o una PMI è importante conoscere i propri punti di debolezza, disporre di persone dedicate, contromisure e strumentazione adatta. Ancora una volta la formazione è fondamentale. Le persone devono sapere come reagire agli eventi a livello pratico. Ci si può attrezzare con tutta la strumentazione preventiva possibile, ma se non si svolgono stress test, il rischio è che le nuove soluzioni non servano. Non esiste, però, un punto d’arrivo, in cui ci si può sentire protetti al 100%; quanto si è messo in campo potrebbe, in poco tempo, non bastare più.

La continuità è correlata ai due punti analizzati e alla presenza di personale competente. Se la consapevolezza è diffusa e le misure di contenimento sono buone, è più probabile mantenere livelli elevati di continuità. Un problema è lo skill shortage, che riguarda anche i big player dell’ICT. Nelle PMI e nella Pubblica Amministrazione, per garantire continuità, dobbiamo correre: disporre di un team competente sulle soluzioni, in grado di scambiare idee, esperienze e di condividere i problemi aiuterebbe a fare un salto di qualità. Inevitabilmente, però, dovremo allinearci sulle retribuzioni con i big player e migliorare la contrattualistica. Credo, tuttavia, che la pubblica amministrazione possa offrire ai giovani sfide interessanti.

L’AI consente, tramite algoritmi, di avere informazioni accurate in tempi rapidi, ma l’alterazione di un dato, anche involontaria, può causare danni. L’eccessiva fiducia verso l’AI può essere un punto debole, inoltre l’uso dell’intelligenza artificiale è inquinante ed energivoro. Importante, quindi, è avere una visione integrata di tutto il processo. L’essere umano ha sempre affrontato cambiamenti che hanno creato turbamento, migliorando però la vita delle persone. Oggi si corre veloce, ma la democratizzazione intesa come la possibilità, per chiunque, di mettere mano a un problema, è un fattore di rischio. C’è anche un impatto sulla salute mentale. Per esempio, mi chiedo: quanto può essere utile, per una persona anziana sola, parlare con un umanoide? L’AI può aiutare un anziano soltanto emulando l’interazione umana ma per contro l’emulazione è pur sempre una finta rappresentazione della realtà. Ancora, dialogare in video con un personaggio famoso scomparso può rivelarsi interessante, ma questo metodo potrebbe essere utilizzato per inviare video fittizi di persone viventi ingannando chi li riceve.
Ciò che può essere di aiuto rappresenta anche un potenziale pericolo, una contraddizione che non è facilmente risolvibile o contenibile.

Quando l’AI è usata per semplificare la diagnosi da un grande numero di radiografie, si rivela uno strumento valido, ma non bisogna trascurare l’altra faccia della medaglia rispetto ai rischi connessi a un uso manipolatorio o distorto. Uno strumento potente da maneggiare con la dovuta cautela, dunque.
Perché quello che la Regione mette a disposizione delle aziende del sistema territoriale sia utile, è necessario comprendere le frontiere più avanzate e gli elementi da mettere in gioco. Servono esperti sulle tecnologie innovative, ma è fondamentale saper collaborare e dialogare con chi ha funzioni diverse, su tutta la catena del valore.

Fabio Musso, Global IT Security Director di RINA (Corporate Security di RINA)

RINA, realtà nata nel 2000 dal Registro Italiano Navale, è oggi un Gruppo diversificato, che abbraccia i mondi della consulenza ingegneristica, oltre che ai consolidati della certificazione navale, aziendale e ambientale e che si occupa di digitalizzazione, difesa, cybersecurity, energie rinnovabili, decarbonizzazione e molto altro. Attualmente stiamo procedendo su un percorso di trasformazione su più versanti, tra cui la security. Oggi il mercato di RINA è molto ampio e in espansione; il personale RINA è presente in tutto il mondo, di conseguenza, RINA è esposta all’attenzione del cybercrimine su vari fronti e non tutti i suoi operatori dispongono di una consapevolezza adeguata sul tema della sicurezza. Per questo stiamo realizzando grandi investimenti in termini di security, ma il punto debole resta spesso il fattore umano.

Un errore, un’ingenuità può portare a un cyberattacco. Stiamo impiegando attenzione, risorse, fatica per aumentare la consapevolezza nelle persone. Un aiuto può giungere anche dall’Intelligenza Artificiale; non bisogna dimenticare, tuttavia, che anche i malintenzionati possono utilizzarla. Oggi gli attaccanti dispongono di una potenza di calcolo impressionante e anarchica, perché non regolata. Questo apre uno scenario abbastanza complesso, anche perché i difensori non fanno della cybersecurity il proprio core business, mentre un attaccante ci vive. Dobbiamo colmare il divario il prima possibile, adeguando o portando in casa strumenti di difesa che usino la stessa tecnologia o una tecnologia che consenta di colmare il più possibile il divario in termini di velocità.

L’intelligenza artificiale può contribuire a un aumento di velocità in termini di risposta a un problema e può anche essere di aiuto a livello preventivo. Una problematica che riguarda l’AI è che non è ancora ben regolata da normative. Un’adeguata regolamentazione potrebbe essere di aiuto, particolarmente, alle PMI e ai privati che spesso non hanno le competenze necessarie per scegliere le tecnologie di intelligenza artificiale più adatte a far fronte agli attacchi.

Oggi l’intelligenza artificiale ha la grande utilità di eliminare la parte più noiosa e banale dell’attività dell’analista che potrà elevare le proprie competenze, lavorare a un livello più stimolante. Inoltre può anche portare allo sviluppo di nuove professionalità che ancora non esistono, come quella dell’addetto al tuning dell’intelligenza artificiale, basato sulla profilazione del business o dell’utenza. Considerare l’intelligenza artificiale applicata alla vita quotidiana del dipendente o dell’utente privato è più complesso, perché può avere ricadute sulla privacy, per esempio quando un sistema basato sull’AI legge messaggi privati. Di conseguenza è importante la presenza di normative.

GiorgioAgrifoglio, dirigente divisione Trasformazione Digitale, open data, applicazioni, portali e comunicazione istituzionale presso il Ministero delle Infrastrutture e dei Trasporti

Gli scenari che caratterizzano gli enti, in area PA, presentano alcune somiglianze, soprattutto se ci riferiamo ai ministeri che, in quanto enti governativi, hanno come criticità e sfida la custodia di dati sensibili anche relativi a infrastrutture critiche. La gestione della sicurezza è influenzata sia dalla crescente mole di dati sia dalla loro circolazione su più sistemi informativi con diverse finalità; per tale motivo, è necessario affrontare i temi legati alla cybersicurezza tenendo in considerazione fattori di rischio specifici. Il ministero dispone di dati relativi a infrastrutture quali ponti, edifici e strade. Ai concessionari sono poi affidati i sistemi di trasporto intelligenti (ITS), che gestiscono in forma automatica i trasporti e servono a garantire efficienza e affidabilità del servizio; in tal caso, aumentando il grado di automazione e la complessità dei sistemi coinvolti, maggiore è il rischio a cui si è esposti.

Importanti sono la consapevolezza e il raggiungimento di un equilibrio, il rispetto della privacy e delle normative. Comprendere il valore della sicurezza informatica è fondamentale; l’evoluzione dei sistemi porta a interventi di sicurezza in continuo miglioramento per combattere attacchi sempre più complicati. Per far fronte alla complessità è opportuno adottare un approccio che sia il più possibile multiplo. Nell’implementazione della gestione operativa della cybersicurezza si pone il problema dello skill shortage: le persone competenti sono scarse e non è semplice reperirle. Di conseguenza abbiamo puntato su allestimenti tecnologici avanzati che concorrono attivamente a mantenere un buon assetto di sicurezza. La capacità di reagire a un attacco e la minimizzazione dei tempi di risposta nella fase di mitigazione è uno degli imperativi a cui dobbiamo tendere.

L’utilizzo di sistemi di AI avanzati in ambito cybersecurity ha permesso di compiere dei passi avanti su due aspetti cruciali: i casi presentati dai sistemi di AI hanno contribuito alla formazione su temi di sicurezza anche per il personale non altamente specializzato, fornendogli altresì una capacità di visione più ampia degli eventi di sicurezza. Non disponendo di un presidio attivo 24 ore al giorno tutti i giorni, abbiamo integrato il sistema di AI con i nostri sistemi di sicurezza ordinari consentendo all’intelligenza artificiale, in caso di eventi rilevati che superano una certa soglia di rischio, di intervenire autonomamente e contenere un attacco. Il tutto isolando i componenti di rete individuati come “a rischio” al fine di bloccarne il movimento laterale. Questa integrazione costituisce di fatto un Virtual Autonomous SOC al di fuori degli orari presidiati e consente agli operatori specializzati di intervenire, avendo il tempo di analizzare una situazione anomala per risolverla. Benché nell’ambito della sicurezza informatica l’AI abbia uno dei suoi più naturali fronti di utilizzo (potendo basarsi su grandi quantità di dati) la stessa trova applicazione anche in aree diverse quali automotive o sistemi industriali; in questi casi bisogna considerare una serie di aspetti già dalle fasi di introduzione di un sistema di AI quali la capacità di creare un reale valore aggiunto in un determinato settore, la trasparenza nell’impiego dell’AI e la ripetibilità e affidabilità dei risultati; senza dimenticare l’aderenza alle normative di settore, comprendendo pertanto anche il livello di sicurezza dell’AI stessa.

Queste ultime considerazioni sono fondamentali per diffondere una percezione di fiducia sull’uos di tali tecnologie evitando che siano etichettate come improduttive, eccessivamente complesse nella loro gestione o addirittura pericolose; pertanto, è necessario trovare un bilanciamento nell’impiego dell’AI servendosene nei casi in cui il suo impiego costituisca un impatto positivo evidente potendo, al contempo, gestirla in modo efficace. Il tutto evitando che l’Italia intera possa subire, dal punto di vista strategico ed economico, un effetto dumping rispetto ai Paesi in cui le norma specifiche risultano meno stringenti e/o più snelle.

Stephane Speich, head of business continuity and resilience group governance di Unicredit

La cyber security è un tema che riguarda non solo le strutture finanziarie, come Unicredit, ma tutte le aziende. Le regolamentazioni che stanno impattando sugli istituti finanziari, oggi, sono fortemente focalizzate sulla cyber security e sull’ambiente IT. Attualmente l’incidente IT è un problema che le istituzioni hanno imparato a gestire in modo efficace; i temi cyber sono quelli che danno maggiori preoccupazioni perché un attacco a un sistema crea danni notevoli.

Oggi le minacce cyber si evolvono e gli specialisti di questo mondo devono mettere al riparo l’azienda con rapidità e, dove è possibile, anticipare i nuovi trend in termini di minacce, che con l’intelligenza artificiale possono evolvere velocemente. A prescindere dalla tipologia di minaccia, ci deve essere consapevolezza e capacità di rispondere a un evento e di contenerlo, ma anche di garantire che, anche durante un evento disruptive di cyber security, sia mantenuto un livello minimo ma accettabile di servizio. Questo, in una banca, è molto importante.

All’inizio dello scorso anno, una buona parte degli istituti finanziari europei è stata coinvolta in uno stress test focalizzato su uno scenario cyber in cui era colpito il core bank system. La quasi totalità dei partecipanti è stata in grado di recuperare i dati persi, ma il tempo per ripristinare e allineare il tutto si è spesso rivelato più lungo delle aspettative di business. Pensando a istituzioni in cui il volume di dati ha superato il tera, o forse il peta, il problema è rilevante. Continuità e resilienza sono due concetti entrambi importanti, la cui distinzione è diventata molto chiara durante la pandemia. La continuità è legata all’avere un piano alternativo (piano b) per reagire a un evento imprevisto, la resilienza invece si costruisce giorno per giorno e fa leva sulle capacità presenti in azienda, per poter andare avanti anche se non si ha sempre la migliore soluzione disponibile. Un ottimo esempio di resilienza, per esempio, viene da un ospedale situato nel Nord di Israele. Questo ospedale fa leva sull’area sotterranea destinata ai garage, per far funzionare il centro sanitario anche in casi di emergenza, in situazioni di conflitto e attacchi aerei. La struttura sotterranea è concepita per garantire la continuità delle cure mediche anche in caso di bombardamenti, offrendo un rifugio sicuro ai pazienti e al personale medico.

In area sicurezza, l’essere umano è sempre l’elemento cardine. Da un lato può essere l’anello debole della catena che, volutamente, o meno, può commettere un errore; dall’altro può essere la soluzione che identifica gli scenari più attendibili verso cui procedere. L’intelligenza artificiale può essere un valido supporto in questi contesti, facilitando l’individuazione di soluzioni, la creazione di casistiche e scenari immersivi. Questi strumenti consentono al personale di allenare le proprie competenze per affrontare situazioni di emergenza senza soccombere.

Inoltre l’AI può semplificare la progettazione di test, attività che solitamente richiede tempo, energia e risorse, spesso non disponibili, nemmeno nella grandi aziende. I test sono fondamentali perché permettono di analizzare e comprendere le reazioni a specifici scenari e situazioni. Grazie all’intelligenza artificiale, il processo di creazione dei test può diventare più efficiente, integrando diversi elementi utili anche nelle attività quotidiane. Tale approccio può generare benefici non solo nell’ambito IT e della sicurezza informatica, ma anche in altri settori aziendali.

Stefano Tomasini, dirigente generale – RGS/Ministero dell’Economia e delle Finanze (MEF)

Un approccio olistico alla cybersecurity deve coinvolgere più componenti nell’organizzazione IT, comprendendo, oltre alle funzioni aziendali, anche i fornitori esterni. In Inail, dove ho lavorato negli anni passati, abbiamo coinvolto sul tema della cybersecurity tutte le figure interne ed esterne che contribuiscono all’innalzamento della postura di sicurezza (awareness). Dal punto di vista organizzativo siamo intervenuti per identificare e segregare (garantendo una forte integrazione operativa e informativa) le diverse responsabilità correlate alla sicurezza (organizzazione, policy, architetture, sviluppo, SOC, CERT, audit, testing). Abbiamo avviato percorsi di certificazione per dare alle persone senso di continuità su comportamenti e processi, determinanti per il buon funzionamento dell’organizzazione. Anche l’uso di diversi framework ci ha aiutato a migliorare la nostra postura di sicurezza, facendo evolvere anche le misure di detection, di protezione e di remediation in uso nella nostra organizzazione.

Un approccio strutturato e standardizzato in tutte le Pubblice Ammministrazioni ridurrebbe gli spazi di intervento di quanti hanno intenzioni malevoli. Relativamente allo skill shortage, dovrebbe essere definita una strategia di “consolidamento” delle competenze. Realtà come le “in house” possono essere di aiuto e costituire un tentativo per rispondere adeguatamente alle complessità che con il digitale sono state introdotte. Si tratta, ovviamente, di una strategia che vede nella qualità dei dati l’elemento centrale nel processo di digitalizzazione e di sviluppo dell’AI. L’AI, infatti, consente di elaborare grandi quantità di dati, di gestire processi con efficienza elevata, molto più di quanto siano in grado di fare gli esseri umani. Anche qui, sicurezza e qualità assumono un ruolo fondamentale, se pensiamo alla strategicità di alcune tipologie di dati (sanitari, finanziari, …), per i quali le organizzazioni debbono garantire tutela e protezione.

Occorre anticipare i tempi e guardare il più lontano possibile: con l’introduzione del High Performing Computing, i sistemi di crittografia che oggi usiamo per proteggere i nostri dati saranno superati, non possiamo non tenerne conto. La continuità deve essere vista come la capacità di anticipare gli eventi che accadranno in futuro, per adeguarsi correttamente ai nuovi scenari. Infine, la consapevolezza degli utenti rappresenta il 50% dei fattori di successo in termini di sicurezza. È evidente che chi ha intenzioni malevoli si impegna per intercettare i momenti più adatti per intervenire e la sensibilizzazione degli utenti è una leva strategica ai fini della security. Infine, un’organizzazione chiara, con ruoli e processi definiti, rappresenta un ulteriore elemento di rafforzamento della postura di sicurezza, che, unitamente a percorsi di certificazione, consente di ridurre l’esposizione al rischio cyber.

Il punto di vista di Cy4Gate

L’attività di Cy4Gate si concentra su diverse tematiche, quali cybersecurity, intelligenza artificiale e business intelligence, sviluppando un’offerta che si basa su una solida ricerca e innovazione. 
Nel contesto della cybersecurity, una delle principali sfide che le organizzazioni devono affrontare riguarda la scarsità di risorse qualificate in questo ambito, unita alla difficoltà di trattenere tali
 competenze, poiché molto contese dal mercato. Questo problema risulta particolarmente complesso da risolvere, in quanto si colloca all’incrocio di due criticità: da un lato, un ingaggio economico spesso insoddisfacente e dall’altro la mancanza di stimoli professionali adeguati, fattori che spingono i professionisti a cercare nuove opportunità.


Focalizzandoci sulle competenze, gli esperti di cybersicurezza non devono limitarsi a distinguere i vari tipi di attacco, ma devono anche comprenderne le caratteristiche, saperle descrivere e arrivare infine alla risoluzione del problema. È fondamentale, inoltre, che ci sia la disponibilità a condividere con il team la conoscenza dei vari temi, indipendentemente dal ruolo svolto e dal rispettivo percorso formativo.
 Si tratta di un contesto in continua evoluzione, in cui l’intelligenza artificiale gioca un ruolo importante: se da un lato può rappresentare un aiuto significativo per le organizzazioni, dall’altro può introdurre nuove vulnerabilità, ampliando il perimetro di rischio. Ad oggi, l’AI è anche ampiamente utilizzata nelle soluzioni di rilevamento delle vulnerabilità stesse, ma è fondamentale non trascurarne gli aspetti di governance e controllo, oltre alla qualità dei dati su cui si basano questi sistemi.

Infine, va tenuto conto che chiunque affronti un problema di cybersecurity si trova di fronte a un’emergenza, una criticità. Per questo motivo, non va sottovalutato l’impegno che questa materia
 richiede, soprattutto in uno scenario in cui le realtà più piccole non sempre sono in grado di affrontarlo in modo corretto e preparato. Le grandi aziende, essendo più strutturate, potrebbero fungere da centri di competenza anche per le PMI e/o per i propri partner terze parti (per esempio, nella supply chain), mettendo a disposizione le competenze acquisite e le abilità sviluppate nel tempo. L’auspicio è la creazione di uno scambio fruttuoso di conoscenze ed esperienze tra persone che ricoprono diversi ruoli e hanno una differente formazione di base alle spalle.


A cura della redazione

Office Automation è da 38 anni il mensile di riferimento e canale di comunicazione specializzato nell'ICT e nelle soluzioni per il digitale, promotore di convegni e seminari che si rivolge a CIO e IT Manager e ai protagonisti della catena del val...

Office Automation è il periodico di comunicazione, edito da Soiel International in versione cartacea e on-line, dedicato ai temi dell’ICT e delle soluzioni per il digitale.


Soiel International, edita le riviste

Officelayout 200

Officelayout

Progettare arredare gestire lo spazio ufficio
Gennaio-Marzo
N. 200

Abbonati
Innovazione.PA n. 58

innovazione.PA

La Pubblica Amministrazione digitale
Novembre-Dicembre
N. 58

Abbonati
Executive.IT n.6 2024

Executive.IT

Da Gartner strategie per il management d'impresa
Novembre-Dicembre
N. 6

Abbonati