Etica digitale: sfide e opportunità
Molte imprese cominciano ad adottare misure volte a gestire e monitorare l’applicazione di principi di etica digitale per garantire un corretto utilizzo delle tecnologie. Ma la strada è ancora lunga.
Le aziende devono agire rapidamente per affrontare le sfide etiche poste dalle nuove tecnologie: è quanto emerge da uno studio promosso da Avanade lo scorso anno che ha coinvolto 1.200 executive e decisori IT (di cui 100 in Italia) di grandi aziende in 12 Paesi. Ignorare le proprie responsabilità etiche potrebbe mettere a repentaglio la fiducia di clienti e dipendenti, portare a una diminuzione del fatturato e in ultima analisi tradursi in uno svantaggio competitivo. L’82% dei manager intervistati a livello globale dichiara infatti che l’etica digitale è alla base di un corretto utilizzo dell’intelligenza artificiale, ma, allo stesso tempo, l’81% (77% in Italia) dubita che la propria organizzazione sia adeguatamente preparata ad affrontare le questioni etiche relative all’IA, alla robotica e alle altre tecnologie emergenti.
Analizzando nello specifico i dati relativi al nostro Paese, è significativo che il 64% degli executive e dei decisori IT dichiari che la propria azienda ha adottato misure – linee guida e procedure ad hoc – volte a gestire e monitorare problematiche e comportamenti legati all’etica digitale. Questa attenzione verso il tema della ‘digital ethics’ è testimoniato dal fatto che il 21% del campione in Italia ha ammesso di aver affrontato al lavoro un dilemma etico causato specificamente dall’incremento nell’utilizzo delle tecnologie intelligenti o dell’automazione digitale. Ad esempio, la raccolta di dati personali attraverso l’utilizzo di dispositivi wearable o il ricorso alla tecnologia come supporto per i processi decisionali.
Una nuova priorità
Di fatto, quindi, l’etica digitale sta rapidamente scalando la lista delle priorità nelle agende del top management più attento: ecco perché sono già numerose le organizzazioni che hanno introdotto la figura del Compliance Officer. Secondo questo studio, nei prossimi tre anni si assisterà a un aumento significativo delle posizioni senior legate al tema dell’etica digitale che andranno a impattare molteplici aree, dal risk management allo sviluppo prodotto, dal marketing alla compliance, dalla gestione del marchio e della reputazione al corporate citizenship e altro ancora.
In questo scenario Avanade ha già attivato una task force per l’etica digitale che ha l’obiettivo di definire delle linee guida comuni da applicare sia internamente sia con i clienti. Giustizia e inclusione, responsabilità, flessibilità e fiducia sono i pilastri su cui si basano i principi etici che Avanade intende trasmettere. Per questo sta operando su vari livelli al fine di definire un apposito modello di governance, di sviluppare e applicare ai servizi che offre principi e metodologie di ‘etica-by-design’, creando linee guida e strumenti formativi ad hoc. Per approfondire questi temi abbiamo posto ad alcuni operatori del settore le seguenti domande.
1 . Quali sono i principali aspetti etici su cui impattano le tecnologie di IA?
2. Le aziende sono sensibili a queste implicazioni?
3. In che modo affrontano questi temi le soluzioni, vostre o di terze parti, che portate sul mercato?
Massimo Ruffolo, founder Altilia e ricercatore Icar-Cnr
• 1. Il tema dell’etica e dell’affidabilità degli algoritmi di IA sta prendendo sempre più piede con l’affermarsi della cosiddetta Intelligent Process Automation (IPA), ovvero l’automazione di processi di business mediante algoritmi che svolgono compiti complessi che richiedono capacità di contestualizzazione dell’informazione. Il problema etico nasce dalla difficoltà di comprendere e spiegare la relazione tra i dati in input e ciò che gli algoritmi producono in output. È necessario infatti garantire che l’algoritmo agisca in modo corretto, che non produca risultati basati su pregiudizi, che non suggerisca decisioni non in linea con normative e non provochi distorsioni che possano violare la privacy e la sicurezza delle persone.
• 2. Aziende e istituzioni mostrano interesse crescente verso le implicazioni etiche dell’IA. La Commissione Europea ha pubblicato nel 2019 il report “Ethics Guidelines for Trustworthy Artificial Intelligence” nel quale detta alcune linee guida, e anche molte imprese di tutto il mondo stanno sviluppando codici di comportamento che regolano l’utilizzo dell’IA all’interno dei propri processi di business.
• 3. Altilia ha fatto della ‘Ethical IA’ il proprio manifesto di impegno verso le imprese, la società e l’ambiente e aiuta i propri clienti ad affrontare il tema sia tramite l’offerta tecnologica che tramite competenze organizzative in materia. Bisogna tenere presente che gli algoritmi di IA, di per sé, non presentano alcun problema etico: è il modo in cui essi vengono istruiti a svolgere uno specifico compito che può portarli a comportamenti non in linea con le regole e le aspettative etiche. Gli algoritmi di IA possono essere suddivisi in ‘supervisionati’ e ‘non-supervisionati”. I primi imparano da esempi forniti da persone; pertanto, se gli esempi peccano di parzialità o non sono completi, gli algoritmi imparano a svolgere il loro compito in modo non corretto. Gli algoritmi non-supervisionati apprendono invece da grandi moli di dati (big data); essi tendono, quindi, ad imparare ciò che i dati rappresentano e, se l’insieme di dati in input offre una rappresentazione parziale o pregiudiziale di un fenomeno, gli algoritmi impareranno di conseguenza. Le tecnologie di Altilia utilizzano metodi che permettono di etichettare i dati in input, nonché di analizzare e ispezionare i modelli prodotti dagli algoritmi di IA assieme ai loro risultati. In tal modo gli utenti, oltre a definire gli esempi di training degli algoritmi, possono controllarne i risultati. Un uso etico dell’IA non dipende solo da aspetti tecnici e normativi: è piuttosto un atteggiamento e una cultura organizzativa. Altilia affianca i clienti nel dotarsi di skill e best pratics improntate all’Ethical IA lungo tutto il ciclo di vita di un progetto.
Massimo Ippoliti, Chief Technology & Innovation Officer di Capgemini Business Unit Italy
• 1. Come rilevato nello studio ‘Why addressing ethical questions in AI will benefit organizations’ del Capgemini Research Institute, consumatori, dipendenti e cittadini sono preoccupati per le questioni etiche legate all’IA: il 74% degli intervistati ha dichiarato di volere maggiore trasparenza quando si trova a usufruire di un servizio erogato tramite l’IA, il 72% vuole sapere se la tecnologia li stia trattando in modo equo e il 76% ritiene che ci dovrebbe essere una regolamentazione aggiuntiva sull’utilizzo dell’IA da parte delle aziende.
• 2. Oggi le organizzazioni stanno iniziando a rendersi conto dell’importanza di questo tema. Le aziende stanno anche adottando azioni concrete quando vengono poste loro questioni etiche. Secondo le nostre ricerche, il 41% dei dirigenti ha abbandonato completamente i sistemi di IA che sollevavano problemi etici. In generale, le organizzazioni oggi si trovano a un bivio: consumatori, dipendenti e cittadini sono sempre più disposti a interagire con questa tecnologia, ma allo stesso tempo sono consapevoli delle potenziali implicazioni etiche. Per conquistare la loro fiducia, le organizzazioni sono chiamate ad attuare sistemi e politiche etiche per l’utilizzo dell’IA. Non si tratta solo di un tema di compliance, ma di un’opportunità per generare benefici significativi in termini di fidelizzazione, engagement e riconoscimento.
• 3. L’etica non è tanto un problema di soluzioni, ma di approccio. Le organizzazioni devono dotarsi di una governance adeguata. Questo significa non solo definire un codice di condotta, ma anche adottare l’etica fin dalla fase strategica e soprattutto informare e supportare le persone nell’interazione con servizi e sistemi che utilizzano l’IA. Capgemini ha definito un approccio strategico, che tiene in considerazione tutti i principali stakeholder dell’ecosistema: il top management deve stabilire una strategia e un codice di condotta, sviluppare adeguate procedure di adozione per i dipendenti e per le applicazioni basate sull’IA, creare strutture di governance etica, garantire responsabilità per i sistemi di IA e costruire team eterogenei per assicurare un’elevata sensibilità su tutto lo spettro delle questioni etiche. Le funzioni che hanno un contatto diretto con il pubblico, come risorse umane, marketing, comunicazione e servizio clienti devono garantire un uso etico nell’applicazione dell’IA, informare ed educare gli utenti per costruire fiducia nei sistemi di IA, fornire supporto e assistenza e comunicare tempestivamente eventuali criticità. I responsabili in ambito IA, dati e IT devono cercare di garantire il più possibile trasparenza e comprensione dei sistemi, una corretta gestione dei dati per mitigare i potenziali rischi, il monitoraggio continuo per verificarne precisione e accuratezza e l’utilizzo di strumenti tecnologici che assicurino l’etica nell’IA.
Mauro Colombo, Hybrid IT Sales and Pre Sales Manager di HPE
• 1. Le implicazioni e le promesse dell’intelligenza artificiale (IA) sono inimmaginabili. Le ormai onnipresenti funzioni dell’IA hanno già cambiato radicalmente le nostre vite, permettendoci di avere il ‘percorso più veloce’ sempre a portata di mano o di ricevere da un chatbot le risposte alle nostre domande. Ma ciò che è possibile oggi sembrerà poca cosa di fronte al grande potenziale dell’IA nel prossimo futuro. A fronte di tutto questo, emerge però la necessità di un dialogo reale e onesto su come costruiamo e adottiamo queste tecnologie in modo responsabile. Una delle tematiche più sentite è quella della sostituzione del lavoro umano. Un timore che rimane latente, malgrado diversi studi concordino sul fatto che l’IA creerà più posti di lavoro di quanti ne sostituirà. Ci sono poi i timori legati alla privacy e alla trasparenza. Ossia, man mano che l’intelligenza artificiale e gli strumenti di deep learning diventano più complessi e autonomi, non sempre è chiaro il modo in cui funzionano e prendono decisioni. Un classico esempio è quello della guida autonoma e come una IA dovrebbe comportarsi per ridurre al mimino danni e vittime in caso di incidenti inevitabili. Ci sono poi argomenti che implicano considerazioni etiche di natura ancora più elevata, come quelle legate alla coscienza artificiale, o IA autocosciente.
• 2. Nel nostro settore la questione è molto sentita, così come è diffusa la consapevolezza che, anche se alcune questioni possono sembrare ancora di là da venire, questo è il momento di affrontare il tema. Come assicuriamo controlli e contrappesi umani su queste macchine? Come possiamo educare una forza lavoro i cui posti di lavoro si stanno evolvendo con l’intelligenza artificiale? Come possiamo assicurarci che l’intelligenza artificiale sia accessibile a tutte le classi socioeconomiche? Le risposte potrebbero essere non immediatamente disponibili, ma ciò non può impedirci di affrontarle.
• 3. Per iniziare a districare questa matassa e tracciare un percorso verso politiche finalizzate a guidare il nostro cammino, abbiamo coinvolto cinque esperti – uno scienziato, un filosofo, un etico, un ingegnere e un umanista – nella discussione sulle implicazioni della ricerca sull’AI e sui nostri obblighi come sviluppatori. Siamo convinti che i sistemi di intelligenza artificiale debbano essere progettati secondo le convenzioni internazionali che preservano dignità, diritti e libertà degli esseri umani e a questa convinzione ci atteniamo nell’ideare e sviluppare le nostre soluzioni.
Matteo Losi, Innovation Director di SAP Italia
• 1. Nel settembre 2018, SAP ha pubblicato le linee guida per un uso etico dell’IA, che riportano alcune indicazioni fondamentali per lo sviluppo delle soluzioni di IA. In particolare, le linee guida sottolineano che l’IA creata da SAP deve essere incentrata sull’uomo, garantire la trasparenza e proteggere i dati ed evitare la creazione di pregiudizi nelle soluzioni. Non solo: l’IA deve essere soggetta a requisiti etici, ma è necessario aiutare i nostri clienti a costruire e utilizzare l’IA in modo etico. Condividiamo inoltre la nostra esperienza nei momenti di confronti che si svolgono a livello globale. In ambito pubblico, l’IA è considerato infatti un argomento controverso. Quando le macchine prendono decisioni che influenzano la vita degli esseri umani, è più che certo che alcuni non saranno d’accordo. Questo porta a domande più complesse con cui SAP e l’intera comunità tecnologica dovranno fare i conti: come possono coloro che sviluppano e vendono sistemi autonomi garantire che sia chi li ha ideati che gli utenti possano avere fiducia negli stessi?
• 2. L’intelligenza artificiale e le sue tecnologie gemelle, machine learning e RPA (automazione dei processi robotici), sono oramai entrate nei piani di adozione delle aziende così come le applicazioni più tradizionali. Tutte condividono un problema: anche l’algoritmo progettato in modo più ponderato, infatti, prende decisioni basate su input che riflettono la visione del mondo dei suoi sviluppatori. È necessario quindi fornire grande trasparenza su come decide l’IA. Oggi si comincia a parlare di ‘explainable AI’ (XAI) come una delle grandi sfide dei prossimi anni, ovvero rendere i meccanismi di funzionamento del software di IA pienamente comprensibili agli individui.
• 3. SAP è stata una delle prime aziende del mondo IT a porsi il problema di stabilire alcuni principi per indirizzare lo sviluppo e l’implementazione del proprio software IA. Insieme ai principi guida è stato creato un comitato consultivo etico, una struttura che riunisce esperti del mondo accademico, politico e industriale esterni a SAP. Il comitato interagisce con un comitato direttivo interno, che include executive SAP provenienti da sviluppo, strategia e risorse umane. Le linee guida, il panel esterno e il comitato interno mirano ad assicurare che le capacità di IA supportate dalle funzionalità della tecnologia SAP siano sempre utilizzate per garantire integrità e affidabilità. Per SAP, queste linee guida sono un impegno per andare oltre quello che è richiesto dalle normative e per un coinvolgimento profondo e continuo con le più ampie sfide etiche e socioeconomiche, al fine di superare ogni possibile pregiudizio. Il pregiudizio può infatti avere un impatto negativo sul software di IA e, a sua volta, sulle persone e sui clienti, soprattutto quando sussiste il rischio di provocare discriminazioni.