di Francesco Domenico ATTISANO
L’intelligenza artificiale può consentire una gestione efficace del rischio analizzando i dati per prevedere potenziali minacce e anomalie, oltre a creare valore e successo per tutte le entity.
Utilizzando l’AI le organizzazioni (sia private che pubbliche) possono migliorare la qualità e la rappresentazione dei dati – ma, senza misure adeguate, l’intelligenza artificiale può anche rafforzare – incrementare, anziché mitigare, i pregiudizi – Bias preesistenti e futuri.
I sistemi di IA distorti e pregiudizievoli sono quelli che producono previsioni e risultati imprecisi e/o discriminatori per alcuni sottoinsiemi della popolazione o degli stakeholders di riferimento. I sistemi di AI distorti possono:
- assegnare ingiustamente minacce, opportunità, aggiungere o eliminare risorse o informazioni;
- violare le libertà civili;
- rappresentare una minaccia per le imprese, rappresentare un danno per la sicurezza degli individui;
- non fornire ad alcune persone la stessa qualità di servizio di altre; e,
- avere un impatto negativo sulla sostenibilità o addirittura sul benessere di una persona (essendo dispregiativi, offensivi, discriminatori).
I sistemi di IA che si rivelano distorti possono essere eliminati o necessitare di modifiche significative, con conseguenti costi elevati in termini di tempo dei dipendenti e di altre risorse investite.
Pertanto, affrontare i pregiudizi (i cd bias) nell’AI è una sfida complessa e continua. Man mano che l’intelligenza artificiale diventa sempre più integrata nella nostra società, è fondamentale garantire che il suo sviluppo e la sua diffusione siano guidati da considerazioni etiche e responsabili, sai da parte delle organizzazioni pubbliche che per le aziende private.
Riconoscendo i pregiudizi, promuovendo la trasparenza, impiegando approcci multidisciplinari, incoraggiando la responsabilità e garantendo la qualità, gli utenti e gli sviluppatori di intelligenza artificiale possono sforzarsi di creare sistemi di AI più inclusivi, equi e allineati ai valori sociali.
Inoltre, il quadro giuridico in evoluzione, rappresentato da nuove normative come la legge sull’intelligenza artificiale (l’AI Act dell’UE), rende la valutazione dei pregiudizi (i cd bias) dell’AI un must, quindi non è solo una questione etica e di responsabilità.
La necessità di conoscere e discutere sui pregiudizi dell’AI – con una visione a 360°, dal punto di vista dell’ingegneria, dell’economia aziendale, della sociologia, della scienza dei dati, dell’antropologia e filosofia- risulta essere un passo fondamentale per un’implementazione responsabile, sostenibile, affidabile, etica e trasparente dell’intelligenza artificiale di oggi e e dell’imminente futuro.
Le aziende, ma anche le organizzazioni pubbliche, che non considerano prioritario il problema dei pregiudizi nell’IA possono incorrere in molteplici rischi (intesa nell’accezione negativa) di varia natura e interconnessi fra di loro. Le minacce reputazionali, di business, di protezione e creazione di valore, di compliance, di sanzioni sono all’orizzonte.
Tali problematiche, difatti, hanno un costo economico per le organizzazioni ma anche sociale per la collettività (cittadini, istituzioni territoriali), in quanto incidono anche sulle future opportunità di sviluppo sostenibile, ma ancor di più sull’ambiente presente che ci circonda. Infatti, l’AI inquina, quindi la gestione e la riduzione degli impatti negativi dei bias, specie nella fase di addestramento iniziale, risulta essere un tema da non sottovalutare dal punto di vista dell’ambiente e in generale della sostenibilità dell’AI. Infatti, da una recente analisi(1) è emerso che scambiando venti messaggi con Chatgpt, si consuma mezzo litro d’acqua. Sembra poco, ma si pensi al fabbisogno idrico di una persona, specie in un paese in via di sviluppo, o il costo di una bottiglietta in plastica da 0,5 l, quando si va in palestra, in un parco giochi, al bar.
Le aziende tecnologiche più evolute (come Microsoft, Amazon, IBM) riconoscono da tempo questo rischio e stanno cercando di gestirlo. Ad esempio:
- Microsoft (in un rapporto alla Securities and Exchange Commission USA(2)) qualche anno fa aveva già segnalato il danno di reputazione e la responsabilità dovuta a sistemi di AI distorti come un evento rischioso per il suo business.
- Amazon, già nel 2018 aveva ritirato il suo strumento di assunzione guidato dall’IA e progettato per meccanizzare la ricerca dei migliori talenti, quando si è scoperto che era prevenuto nei confronti delle donne, penalizzando i candidati il cui curriculum includeva la parola “femminile”(3).
Quest’ultimo è un esempio lampante degli effetti dei bias all’interno delle nuove tecnologie. Ancora, la notizia di due settimane fa, passata forse in sordina:
- Gemini(4) (lo strumento di AI generativa di Google, ovvero il competitor del famoso ChatGPT) ha dovuto sospendere la sua capacità di generare immagini, dopo che è stato ampiamente scoperto che il modello generava bias culturali e anti storici; per tale motivo ha dovuto affrontare una significativa reazione online. A seguito della protesta pubblica, Google ha prontamente sospeso Gemini, riconoscendo il suo fallimento nel soddisfare le aspettative. Tuttavia, le successive risposte fornite dallo strumento hanno continuato a suscitare polemiche, virando verso una correttezza eccessivamente politicizzata.
Il punto focale della questione risiede nei dati utilizzati per addestrare modelli di AI generativa, molti dei quali provengono da fonti piene di pregiudizi inerenti alla cultura e alla storia umana. Il tentativo di Google di mitigare questi pregiudizi ha inavvertitamente portato a risultati totalmente errati, dimostrando l’inadeguatezza delle soluzioni puramente algoritmiche nell’affrontare questioni sociali sfumate.
Anche la scorsa settimana, leggendo un articolo sull’effetto distorsivo dell’AI e sulle risposte errate che può fornire ChatGPT, ho provato empiricamente ad effettuare un test similare con un’altra applicazione di AI generativa (Perplexity), che mi ha fornito lo stesso risultato sbagliato. Solo dopo averlo addestrato mi ha dato la risposta corretta (che ovviamente sapevo già, ma non ci avrei pensato probabilmente senza aver letto e studiato in precedenza).
Su questo bisogna riflettere a fondo, in quanto lo stesso difetto – pregiudizio che genera statistiche o rielabora informazioni o ci supporta nelle decisioni, può avere un impatto molto più dirompente e negativo in contesti più seri, quali la ricerca e sviluppo farmaceutico, la sanità(5) e gli studi medici, gli ambiti e questioni politiche, religiose, di parità di genere, di pace e di riduzione dei conflitti.
Posto ciò, strategie organizzative solide e robuste devono, quindi, necessariamente incorporare le minacce e le opportunità poste da questa tecnologia dinamica. Le pratiche di AI responsabile possono essere applicate a qualsiasi settore o funzione.
Ogni organizzazione dovrebbe partire da alcuni obiettivi fondamentali per l’applicazione e l’utilizzo dell’AI in maniera responsabile, tra cui ridurre al minimo i bias involontari, responsabilizzando l’AI che si approccia o che si sta utilizzando, per garantire che gli algoritmi, e i dati sottostanti, siano quanto più imparziali e rappresentativi possibili senza effetti distortivi o addirittura discriminatori. Infatti, i set di dati utilizzati per addestrare un algoritmo sono fondamentali; i sistemi AI imparano a prendere decisioni sulla base di questi set di dati di addestramento e ci sono vari punti in cui possono entrare in gioco pregiudizi. Vaste quantità di dati sono generate dalle attività quotidiane degli individui (ad esempio, il comportamento dei consumatori, le condizioni di salute) e i dati sono raccolti attraverso varie piattaforme, tecnologiche o meno. Si presume che i dati riflettano accuratamente il contesto, peraltro, l’influenza umana non può essere eliminata dai dati. In molti casi, l’uomo decide cosa, dove e come i dati vengono raccolti e categorizzati, nonché i parametri di un set di dati. I dati vengono anche etichettati, il che può essere soggettivo. I dati raccolti nel passato conservano e riflettono quel passato.
Insomma, indipendentemente:
- se dovuto all’intelligenza neurale che addestra quella artificiale ovvero
- è la stessa intelligenza artificiale che si autoalimenta erroneamente,
il bias è un bias, stop. È necessario per le organizzazioni gestire i rischi dei pregiudizi dell’AI.
Indipendentemente dalla posizione che si occupa all’interno dell’organizzazione, i leader innovativi – dell’AI, ma ancor di più il Board (inteso come organo di governo dell’entity) e il Top Management (sia privato che pubblico) hanno la necessità di gestire i rischi dell’AI; pertanto, devono rispondere alle opportunità e fronteggiare le minacce dell’AI.
I bias all’interno dei sistemi di intelligenza artificiale possono, difatti, manifestarsi in varie forme, tra cui bias di rappresentazione, di performance, di conferma informazioni, di dati limitati, cognitivi(6). Quindi, la supervisione umana, senza preconcetti e pregiudizi di qualsivoglia genere, rimarrà indispensabile per garantire che i risultati dell’intelligenza artificiale siano allineati alla realtà.
In conclusione, si ritiene prioritario gestire i rischi dei bias dei dati di formazione e addestramento sull’intelligenza artificiale e le sue applicazioni, specie in quelle che hanno effetto sulla collettività.
Bisogna, quindi, mitigare i pregiudizi nell’AI per sbloccare l’immenso valore che si può trarne, in modo responsabile, etico, trasparente per essere anche equi.
La gestione del rischio dei bias dell’AI nelle organizzazioni dovrebbe portare alla definizione di varie azioni di trattamento del rischio intese a mitigare o monitorare tali rischi, per prevenirli. Ad oggi non esiste una soluzione rapida a causa della natura multiforme del problema “bias”, ma questo non significa che non bisogna affrontarlo.
Per approfondimenti, consultare i seguenti link e/o riferimenti:
(1) Cfr. Fiore, Viscanti (2024), L’Intelligenza Artificiale inquina?, app Aiplay.it
(2) Cfr. SEC, Microsoft FORM 10-Q, January 2019
(3) Cfr. J. Dastin, (2022) “Ethics of Data and Analytics” – chapter: Amazon Scraps Secret AI Recruiting Tool that Showed Bias against Women, Taylor & Francis Group
(3) Cfr. CNBC, Amazon scraps a secret A.I. recruiting tool that showed bias against women, October 2018
(4) Cfr. Gemini ha la capacità di rispondere a query testuali e generare immagini basate su istruzioni di testo.
(5) Cfr. Z. Obermeyer, B. Powers, C. Vogeli, S. Mullainathan, Dissecting racial bias in an algorithm used to manage the health of populations, October 2018 – Science
(5) Cfr. M. Kruppa, Google CEO Calls AI Chatbot Responses Biased and Unacceptable, February 2024, WSJ
(6) Secondo il National Institute of Standards and Technology (NIST), questa fonte di pregiudizi è più comune di quanto si possa pensare. Nel suo rapporto Towards a Standard for Identification and Managing Bias in Artificial Intelligence (NIST Special Publication 1270) , il NIST ha osservato che “i fattori istituzionali e sociali umani e sistemici sono anche fonti significative di bias dell’IA e sono attualmente trascurati.