Generative AI e diritti individuali istruzioni per l’uso
Quanti tipi di intelligenze artificiali esistono e perché dobbiamo parlarne dal punto di vista legale.
Come anticipato nello scorso numero ci occuperemo in questo, e nei prossimi due a seguire, del complesso rapporto che esiste tra Generative AI e alcuni diritti individuali fondamentali, con particolare riferimento al diritto alla riservatezza e alle norme del GDPR. Sembra utile, in via preliminare, una ricognizione di massima sul significato da dare all’espressione Generative AI sopra utilizzata.
La classificazione europea dell’intelligenza artificiale
Senza entrare troppo nel dettaglio (rinviando anche agli scorsi numeri per approfondimenti), osserviamo, in primo luogo, da un punto di vista legale, che la proposta di regolamento europeo, denominata Artificial Intelligence Act, definisce, un sistema di intelligenza artificiale, come un software (…) che può, per una determinata serie di obiettivi definiti dall’uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono e, in secondo luogo, da un punto di vista tecnologico, che la Generative AI è quel tipo di intelligenza artificiale (AI) in grado, partendo da un set di dati, di creare contenuti, come testo, immagini o musica.
Senza pretesa di completezza, sembra inoltre opportuno ricordare, che più recentemente, ENISA (Agenzia dell’Unione europea per la cibersicurezza), nel suo report dal titolo “Securing Machine Learning Algorithms”, del dicembre 2021, ha identificato i 40 algoritmi di Machine Learning più comuni, classificandoli in 3 principali domini, in relazione al problema che essi risolvono, vale a dire, Computer Vision, Natural Language Processing & Speech Processing e Data Science.
In linea generale, obiettivo dei modelli generativi di intelligenza artificiale è quello di apprendere la distribuzione di probabilità dei dati di addestramento, cercando di individuare relazioni complesse e dipendenze, tra le variabili osservabili e quelle target, per poter generare nuovi esempi plausibili, coerenti con i dati esistenti e con la distribuzione delle probabilità individuata.
In più semplici parole, i modelli di intelligenza artificiale generativa vengono addestrati su grandi set di dati di contenuti esistenti e imparano a identificare i modelli e le relazioni che sono alla base di tali contenuti e, una volta addestrati, possono essere utilizzati per creare nuovi contenuti ‘simili’, forse ‘nuovi’, a quelli su cui sono stati addestrati.
Tipologie di AI generativa
Tra i modelli di intelligenza artificiale generativa possiamo, in modo molto sintetico, ricordare le Generative Adversarial Network (GAN), i Variational Autoencoders (VAEs) e i cosiddetti Transformer.
Le prime (GAN), sono una tipologia di rete neurale, composta da due reti, addestrate a competere tra loro, migliorando così la capacità di creare contenuti realistici, di cui, un generatore e un discriminatore; la rete generatore crea i nuovi contenuti, la rete discriminatore distingue tra i contenuti reali e i contenuti falsi.
I Variational AutoEncoders (VAE) sono, invece, un tipo di rete neurale, addestrata a ridurre al minimo la differenza tra i dati di input e i dati di output, costituita da un codificatore e un decodificatore. Il primo è responsabile della conversione dei dati di input in una rappresentazione latente e il secondo è responsabile della riconversione della rappresentazione latente in dati di output.
I cosiddetti Trasformer, compreso GPT (Generative Pre-trained Transformer), sono, infine, un tipo di rete neurale particolarmente adatta l’elaborazione del linguaggio naturale (LLM, Large Language Model), in grado di apprendere dipendenze tra le parole utilizzando il meccanismo dell’auto attenzione (self-attention) che consente alla rete neurale di ‘prestare attenzione’ a diverse parti di una sequenza di input.
Scenari aperti che pongono domande importanti
Le Generative AI hanno raggiunto, già oggi, un livello di perfezionamento tale da suscitare la necessità di profonde considerazioni etiche e legali in relazione alla tutela dei diritti individuali. Solo per fare alcuni esempi utili a contestualizzare le implicazioni legali correlate alle applicazioni possibili della Generative AI, si osserva che tale tecnologia ha, e potrà avere applicazione nel campo della creatività, per la realizzazione di nuove opere (codice software, testi, immagini, musica, animazioni), nel campo del ‘data enrichment’ o della ‘data augmentation’ per la generazione di dati sintetici, a loro volta impiegati per il training delle reti neurali, e anche, ma non per ultimo, nel campo della cybersecurity, da applicare per esempio nell’individuazione di nuove vulnerabilità.
Possiamo comprendere, a questo punto, come il recente sviluppo e la disponibilità diffusa delle tecnologie di intelligenza artificiale, abbiano sollevato e stiano sollevando importanti questioni in ordine alla tutela dei diritti individuali e alla conformità con le normative sulla protezione dei dati personali.
Nel caso della Generative AI, con riferimento alle norme del GDPR, si pone, per esempio, il problema di quali dati personali siano coinvolti nelle operazioni di trattamento, e di come vengano raccolti ed elaborati. Inoltre, i sistemi di Generative AI potrebbero richiedere e ottenere accesso a informazioni sensibili durante le interazioni con gli utenti, il che solleva delicate questioni riguardanti il consenso informato e la sua manifestazione, l’applicazione del principio minimizzazione, la sicurezza dei sistemi, dei dati e dei servizi impiegati nelle operazioni di trattamento.
D’altra parte, non è difficile immaginare che la Generative AI, grazie alla sua capacità di creare contenuti indistinguibili da quelli prodotti dagli esseri umani, possa essere utilizzata in modo illecito per abusare di dati personali, per esempio, per creare profili falsi sui social media, al fine di impersonare persone reali e per, con l’inganno, consentire a un attaccante di ottenere informazioni personali preziose, come password e numeri di carte di credito, con gravi conseguenze per le vittime.
Viste queste premesse, il Garante Italiano per la protezione dei dati personali per primo, lo scorso 30 marzo, con il provvedimento doc. web. 9870832, ha, di fatto, operando ai sensi dell’art. 58 paragrafo 2 lett. f) del GDPR, inibito la raggiungibilità, dall’Italia, del servizio di Chat GPT, diffuso da OpenaAI L.L.C. attraverso un provvedimento di limitazione provvisoria del trattamento.
Nello specifico, solo per introdurre alcune questioni delle quali ci occuperemo nel prossimo numero, vale la pena ricordare che la limitazione provvisoria del trattamento è stata disposta, dal Garante, alla luce del fatto che, Open AI L.L.C., all’epoca, non fornisse alcuna informativa agli interessati, non disponesse di una idonea base giuridica in relazione alla raccolta dei dati personali e al loro trattamento per scopo di addestramento dei suoi algoritmi di funzionamento, restituisse dati inesatti e infine, omettesse qualsivoglia verifica dell’età dei minori di 13 anni, esponendoli a risposte inidonee al loro grado di sviluppo e autoconsapevolezza.