Affermare i valori etici dell’Intelligenza Artificiale
A livello nazionale e internazionale si moltiplicano le iniziative per formulare proposte su uno sviluppo tecnologico orientato alla sostenibilità sociale e ambientale. Al centro del dibattito le tecnologie di IA che stanno modificando profondamente il rapporto uomo-macchina.
L’intelligenza artificiale e la robotica stanno influenzando sempre più tutti i settori della vita sociale ed economica. Si stanno sperimentando ovunque nuove possibilità di impiego di sistemi basati su queste tecnologie nei comparti più disparati, dall’assistenza sanitaria al marketing, dalla cyber security alla logistica, dal mondo finanziario all’automazione industriale, e l’elenco potrebbe continuare. Si aprono di conseguenza nuovi interrogativi in merito alle responsabilità individuali e collettive, all’accesso equo alle risorse tecnologiche, alla libertà di ricerca, e tutti coloro che hanno l’obiettivo, a vario titolo, di fare innovazione ne sono consapevoli. Se ne discute a livello accademico, sociale e, naturalmente, tecnologico, e si moltiplicano le iniziative che hanno l’obiettivo di suggerire, attraverso incontri, dibattiti e scambio di informazioni, approcci e metodologie tese a trovare il giusto equilibrio tra obiettivi di business e sostenibilità sociale e ambientale.
Il rapporto Ocse
Nel mese di maggio 2019, ad esempio, l’Ocse (Organizzazione per la Cooperazione e lo Sviluppo Economico) ha pubblicato le sue Raccomandazioni per l’Intelligenza Artificiale, linee guida accettate da oltre 40 Paesi, Italia inclusa. Elaborate da un gruppo di esperti composto da rappresentanti delle istituzioni governative, del mondo accademico, della società civile, dell’industria ICT e dei sindacati, il documento propone cinque principi per un uso responsabile dell’IA insieme a cinque raccomandazioni per una cooperazione fattiva tra tutti i soggetti coinvolti a vario titolo nei progetti che utilizzano tali tecnologie.
Secondo l’Ocse, l’IA dovrebbe essere utilizzata a vantaggio delle persone e del pianeta per una crescita inclusiva, lo sviluppo sostenibile e il benessere; i sistemi di intelligenza artificiale dovrebbero essere progettati in modo da rispettare lo stato di diritto, i diritti umani, i valori democratici e la diversità e dovrebbero includere garanzie appropriate, ad esempio, consentendo l’intervento umano quando è necessario, per garantire una società giusta ed equa; ci dovrebbe essere trasparenza e divulgazione responsabile intorno ai sistemi di intelligenza artificiale; i sistemi di IA dovrebbero essere sicuri per tutta la loro durata, e i potenziali rischi dovrebbero essere continuamente valutati e gestiti; le organizzazioni e gli individui che sviluppano, distribuiscono o gestiscono i sistemi di IA, infine, dovrebbero essere ritenuti responsabili per il loro corretto funzionamento in linea con i principi espressi sopra.
Le cinque raccomandazioni, a loro volta, invitano i governi a facilitare gli investimenti pubblici e privati nella ricerca e nello sviluppo per stimolare l’innovazione nell’IA; promuovere ecosistemi per l’IA con infrastrutture, tecnologie digitali e creare un contesto politico che apra la strada alla diffusione di sistemi di IA affidabili; fornire a tutti le competenze per utilizzare l’intelligenza artificiale e sostenere i lavoratori per garantire una transizione equa; cooperare attraverso i confini e i settori per condividere informazioni, sviluppare standard e lavorare per una gestione responsabile dell’IA.
L’impegno dell’Unione Europea
Anche l’Unione Europea ha avviato diverse iniziative tese a promuovere la dimensione etica dell’intelligenza artificiale, anche perché un simile approccio può offrirle un vantaggio competitivo se saprà guidare lo sviluppo di una IA di cui i cittadini possano fidarsi. In quest’ottica la Commissione Europea ha avviato un percorso articolato su tre direttrici: definizione dei requisiti fondamentali per una IA affidabile, avvio di una fase pilota su larga scala per raccogliere le osservazioni di tutti i player coinvolti e impegno volto al raggiungimento di un consenso internazionale per una IA antropocentrica. Secondo la Commissione Europea, i requisiti fondamentali per una IA affidabile sono sette.
Azione e sorveglianza umana: i sistemi di IA dovrebbero promuovere lo sviluppo di società eque sostenendo l’azione umana e i diritti fondamentali e non dovrebbero ridurre, limitare o sviare l’autonomia dell’uomo.
Robustezza e sicurezza: per una IA di cui ci si possa fidare è indispensabile che gli algoritmi siano sicuri, affidabili e sufficientemente robusti da far fronte a errori o incongruenze durante tutto il ciclo di vita di un sistema di IA.
Riservatezza e governance dei dati: i cittadini dovrebbero avere il pieno controllo dei propri dati personali e nel contempo i dati che li riguardano non dovrebbero essere utilizzati per danneggiarli o discriminarli.
Trasparenza: dovrebbe essere garantita la tracciabilità dei sistemi di IA.
Diversità, non discriminazione ed equità: i sistemi di IA dovrebbero tenere in considerazione l’intera gamma delle capacità, delle competenze e dei bisogni umani ed essere accessibili.
Benessere sociale e ambientale: i sistemi di IA dovrebbero essere utilizzati per promuovere cambiamenti sociali positivi e accrescere la sostenibilità e la responsabilità ecologica.
Responsabilità intesa anche come accountability: dovrebbero essere previsti meccanismi che garantiscano la responsabilità e l’accountability dei sistemi di IA e dei loro risultati.
La Commissione UE è attivamente impegnata a promuovere a livello internazionale questo approccio perché le tecnologie, i dati e gli algoritmi non conoscono frontiere.
Le raccomandazioni degli Esperti del MISE
Anche nel nostro Paese il dibattito è in corso, e le iniziative si moltiplicano. Nel luglio dello scorso anno, ad esempio, il Gruppo di Esperti MISE sull’Intelligenza Artificiale ha pubblicato le sue ‘Proposte per una strategia italiana per l’IA’ (https://www.mise.gov.it/images/stories/documenti/Proposte-per-una-strategia-italiana-2019.pdf), in cui queste tematiche trovano ampio spazio.
Nelle Raccomandazioni finali il gruppo di lavoro suggerisce ad esempio che l’Italia si faccia portavoce a livello europeo e globale di un approccio responsabile all’IA, allineandosi all’elaborazione europea in tema di principi etici e contribuendo in modo significativo e ambizioso alla definizione del quadro normativo in fase di elaborazione. Tale allineamento ai principi etici, nella visione nazionale, deve avvenire attraverso una responsabilizzazione di tutto l’ecosistema, dagli sviluppatori agli utenti. La visione italiana dell’IA, quindi, deve essere antropocentrica e deve riflettersi in politiche adeguate finalizzate all’uomo in quanto persona, lavoratore, cittadino, consumatore e utente. Tra le condizioni per il successo di una strategia olistica di trasformazione digitale, che va oltre l’IA e racchiude altre tematiche quali l’IoT, vi è la creazione di una governance adeguata e la modernizzazione della Pubblica Amministrazione come volano di crescita e sviluppo del tessuto industriale e sociale.
Tra le altre Raccomandazioni, particolarmente interessante appare quella di adottare il Trustworthy AI Impact Assessment (TAIA) definito a livello europeo come strumento di risk assessment mediante il quale gli attori dell’ecosistema descrivono i rischi connessi alla loro attività relativa ai sistemi di IA e suggeriscono strategie per mitigarli. Inoltre, posto che è ipotizzabile che un rischio residuo esista sempre nell’introduzione di una nuova tecnologia, viene raccomandato al governo di considerare l’introduzione di un regime di assicurazione obbligatoria, cui affiancare un fondo nazionale che subentri in caso di assenza di copertura assicurativa e/o difficoltà di attribuzione della responsabilità.
Conclusioni
Come evidenziato dagli esperti del MISE un approccio antropocentrico all’IA richiede che l’uomo venga valorizzato e supportato dalla tecnologia nel suo realizzarsi come individuo, nel suo agire come cittadino, nelle sue mansioni e competenze lavorative e nelle sue decisioni come consumatore. L’IA deve essere adottata come metodo educativo in grado di portare alla formazione del cosiddetto ‘pensiero computazionale’, alla multidisciplinarietà intrinseca nella soluzione di problemi e nella trasversalità delle competenze. Per raggiungere questo obiettivo servono strategie che creino opportunità di apprendimento inclusive, dai banchi di scuola all’aggiornamento professionale permanente, anche per evitare il nascere di un nuovo ‘digital divide’ con effetti pregiudizievoli per la coesione e l’inclusione sociale.