Generative AI e diritti individuali: istruzioni per l’uso (Parte 3)
Generative Adversarial Networks: un’importante innovazione densa però di molteplici rischi.
In questo articolo occuperemo ora di approfondire alcune applicazioni di intelligenza artificiale generativa, le cosiddette GAN o Generative Adversarial Networks (vedi più sotto). In merito occorre precisare che, in seguito alle proposte del piano d’azione sull’intelligenza artificiale per attività concrete volte ad allineare gli approcci basati sul rischio dell’UE e degli Stati Uniti, un gruppo di esperti si è impegnato a preparare un primo progetto di terminologie e tassonomie dell’intelligenza artificiale (AI) nel quale sono stati identificati un totale di 65 termini con riferimento a documenti chiave dell’UE e degli Stati Uniti.
Verso una tassonomia universale
La prima edizione della terminologia e della tassonomia è stata pubblicata il 31 maggio 2023 ed include 65 termini che sono considerati essenziali per comprendere l’intelligenza artificiale. I termini sono organizzati nelle quattro categorie qui di seguito descritte.
Concetti di base, ove si definiscono i termini fondamentali per l’intelligenza artificiale, come l’apprendimento automatico (machine learning), l’apprendimento profondo (deep learning) e l’intelligenza generale artificiale.
Aree di applicazione, ove si definiscono i diversi ambiti in cui l’intelligenza artificiale viene utilizzata, come nella sanità, nel trasporto e nel settore finanziario.
Rischi e benefici: ove si descrivono i potenziali rischi e benefici dell’intelligenza artificiale, come i pregiudizi e le discriminazioni, e lo spostamento dei posti di lavoro.
Politiche e governance: riferiti alle politiche e ai regolamenti che governano l’intelligenza artificiale, come la protezione dei dati e l’etica.
Come funziona una GAN
Nel contesto del documento ricordato, si specifica che le GAN’s “are an approach to generative modeling using deep learning methods, such as convolutional neural networks. Generative modeling is an unsupervised learning task in machine learning that involves automatically discovering and learning the regularities or patterns in input data in such a way that the model can be used to generate or output new examples that plausibly could have been drawn from the original dataset”.
Più semplicemente, le reti neurali generative ‘adversariali’ (il termine avversariale non sembra presente nella lingua italiana ma una traduzione adeguata potrebbe essere ‘antagoniste’, nda), sono una classe di modelli di apprendimento automatico introdotte da Ian Goodfellow e dai suoi colleghi nel 2014, rapidamente diventate popolari tra i ricercatori per la loro capacità di generare nuovi dati con le stesse statistiche del set di dati di addestramento.
Tali reti sono basate su un approccio indiretto all’addestramento tramite due reti neurali: il generatore e il discriminatore; il generatore è responsabile della generazione di dati nuovi, mentre il discriminatore è responsabile del ‘giudizio’ di quanto realistici siano i dati generati.
Il generatore è una rete neurale ‘convoluzionale’ (tipo di codice usato nella trasmissione di informazioni in cui la codifica non è segmentata in blocchi, ma avviene in modo continuo, ndr) che utilizza un algoritmo di apprendimento non supervisionato per generare dati artificiali che siano indistinguibili dai dati reali, mentre il discriminatore è una rete neurale convoluzionale inversa che utilizza un algoritmo di apprendimento supervisionato per distinguere tra dati reali e dati generati.
Il generatore e il discriminatore vengono addestrati insieme, in un processo iterativo dove, il generatore viene addestrato a generare contenuti che il discriminatore non è in grado di distinguere da contenuti reali e il discriminatore viene addestrato a identificare i contenuti generati dal generatore.
Attualmente le GAN possono essere utilizzate per finalità di intrattenimento, per esempio per generare immagini, video e audio che sono indistinguibili dai contenuti reali, oppure, per finalità di ricerca scientifica per generare immagini di molecole o simulare il comportamento di sistemi complessi, ma anche, nell’ambito della sicurezza delle informazioni, per rilevare malware o per generare immagini di persone che non esistono.
Le architetture più popolari sono CycleGAN, StyleGAN, pixelRNN, text-to-image, DiscoGAN e IsGAN e riguardano la generazione di immagini realistiche, il miglioramento della qualità delle fotografie, la sintesi audio, l’apprendimento traslazionale e molto altro. Negli ultimi tempi, c’è stato un enorme successo nella produzione di immagini GAN, tra cui le app Deep Fakes.
Un’innovazione densa di rischi
Dal punto di vista legale, con riferimento alle possibili utilizzazioni delle tecnologie in questione, si deve rilevare come, accanto agli impieghi benefici e leciti sopra indicati, debbano constatarsi, da una parte, le vulnerabilità intrinseche della tecnologia, e, dall’altra i potenziali usi illeciti, che si caratterizzano per gli impatti significativi, sia con riferimento a diritti superindividuali, quali quello alla coesistenza pacifica, alla sicurezza, e alla stabilità delle istituzioni democratiche, sia con riferimento a diritti personalissimi, come il diritto alla protezione dei propri dati personali, il diritto alla riservatezza, alla reputazione, all’identità personale etc.
Per esempio, una delle vulnerabilità più comuni delle GAN è la loro dipendenza da dati di addestramento: dato che le GAN imparano a generare contenuti imitando i dati su cui sono state addestrate, se i dati di addestramento sono sessisti, razzisti o altrimenti discriminatori, la GAN potrebbe generare contenuti che riflettono questi pregiudizi.
Inoltre, un aggressore potrebbe utilizzare tecniche di attacco al modello GAN per trovare punti deboli e utilizzarli per ingannare la GAN stessa. Un esempio di attacco di evasione al modello, utilizzato per generare deep fakes che sono state in grado di ingannare appositi rilevatori, è l’attacco di Carlini-Wagner, che utilizza tecniche di ottimizzazione per trovare contenuti che sono indistinguibili dai contenuti reali. Infine, un’altra vulnerabilità, se così si può definire, delle GAN è la loro capacità di generare contenuti falsi e di poter essere utilizzate per creare immagini, audio e testo indistinguibili da quelli reali, per diffondere disinformazione, per finalità fraudolente o, peggio ancora, terroristiche.
Il rapporto Europol sui deep fake
In effetti, nel suo rapporto “Facing reality? Law enforcement and the challenge of deep fakes” del 2022, Europol ha specificato che i deep fake possono essere utilizzati per una serie di attività illecite, tra cui: diffondere disinformazione e notizie false, con il potenziale di influenzare elezioni, referendum e altri eventi importanti; commettere frodi, per esempio impersonando qualcuno per ottenere denaro o informazioni riservate; manomettere prove, per esempio alterando video o audio di un evento per dare l’impressione che sia accaduto in modo diverso da quello che è realmente successo; falsificare documenti, per esempio creando un passaporto falso o un contratto di lavoro falso; creare materiale pornografico non consensuale, in cui il volto di una persona viene sostituito su un corpo nudo.
Nel menzionato Report, Europol ha sottolineato, infine, la necessità di educare il pubblico sui rischi delle deep fake, in modo che le persone siano in grado di identificare e segnalare contenuti sospetti, di sviluppare nuove tecnologie per rilevare e analizzare le deep fake, e di collaborare con le piattaforme online per rimuovere i contenuti illeciti.
Generative Adversarial Networks
Con i termini Generative Adversarial Networks si intende una classe di metodi di apprendimento automatico, introdotta per la prima volta da Ian Goodfellow, in cui due reti neurali vengono addestrate in maniera competitiva nel contesto di un gioco a somma zero. Questo tipo di framework permette alla rete neurale di apprendere come generare nuovi dati aventi la stessa distribuzione dei dati usati in fase di addestramento. Per esempio, è possibile ottenere una rete neurale in grado di generare volti umani iperrealistici. La rete generativa avversaria è detta anche rete antagonista generativa o rete contraddittoria generativa.