I Rischi dell'Intelligenza Artificiale: Minacce da individuare, comprendere e gestire

I Rischi dell’Intelligenza Artificiale: Minacce da individuare, comprendere e gestire

21 agosto 2024

di Francesco Domenico ATTISANO

AI Risk Repository del MIT una preziosa fonte informativa

Premessa 

L’Intelligenza Artificiale (IA) sta trasformando il mondo in maniera profonda e sorprendente; le soluzioni innovative stanno coinvolgendo positivamente tutti i settori: privati (e i loro utenti) e pubblici con i loro servizi impattanti in maniera diretta sui cittadini (ed in particolare: trasporti, istruzione, sanità, gestione dei rifiuti, servizi idrici, rapporti amministrativi con i cittadini). 

Tuttavia, accanto alle sue potenzialità rivoluzionarie, l’AI (Artificial Intelligence) comporta una serie di rischi significativi (in termini di minacce) e bias(1) che suscitano preoccupazione e inquietudine in una vasta gamma di portatori d’interesse ed in particolare in quelli più sensibili al tema  (professionisti delle funzioni di secondo e terzo livello, nonché tra ricercatori e professori universitari, aziende tecnologiche e di consulenza, organi politici e istituzioni).

Inoltre, la consapevolezza del pubblico(2) (dei cittadini) riguardo a queste problematiche rimane al momento limitata, così com’è stato per Internet nei primi anni novanta.

Il Problema di definire i Rischi dell’Intelligenza Artificiale… AI Risk Repository del MIT una fantastica soluzione 

La mancanza di una comprensione condivisa e strutturata dei rischi-minacce dell’AI rappresenta una sfida significativa. Senza un linguaggio comune per ragionare sui rischi AI, il confronto, l’applicazione e la ricerca su tale tema tendono a frammentarsi o di complessa applicazione, rendendo difficile prevenire e/o rispondere in modo efficace alle minacce emergenti dai modelli AI.

Difatti, i rischi legati all’IA sono spesso complessi, veloci nel cambiamento e complessi da categorizzare univocamente. A intricare ulteriormente la situazione, esistono molteplici tassonomie e framework che cercano di classificare i rischi dell’AI, ma la mancanza di uno standard condiviso impedisce di ottenere una visione olistica e sistematica del problema.

Per colmare tale lacuna,  prima di Ferragosto un gruppo di ricercatori del Massachusetts Institute of Technology (MIT) ha pubblicato un “AI Risk Repository(3), che come si legge dall’abstract intende essere “un database vivo contenente 777 rischi estratti da 43 diverse tassonomie”.

Secondo l’articolo(4)  del MIT Technology Review che delinea l’iniziativa, “I sistemi AI potrebbero essere distorti o ripetere a pappagallo falsità, o persino creare dipendenza(5). E questo prima di considerare la possibilità che l’IA possa essere utilizzata per creare nuove armi biologiche o chimiche, o persino un giorno sfuggire in qualche modo al controllo. Per gestire questi potenziali rischi, dobbiamo prima sapere quali sono”.

Dall’analisi del Repository del MIT e dei prodotti associati (ossia tassonomia causale, tassonomia dei domini, database dinamico e sito web), si ritiene che sia attualmente la migliore fonte informativa mondiale (essendo pure accessibile e aggiornabile pubblicamente)  per individuare, comprendere, analizzare e affrontare i rischi dell’Intelligenza Artificiale (che potrebbero sorgere dalla creazione e dall’implementazione di questi modelli). L’AI Repository sarà uno strumento prezioso per gli organi decisionali (pubblici e privati), per i professionisti e consulenti del settore (IT Security, Privacy, Risk Management, Compliance, Internal audit(6)) e per gli accademici. Il prodotto realizzato apre le porte a nuove ricerche e nel contempo all’applicazione pratica, essendoci una metodologia sottostante, chiara e trasparente.

I ricercatori del MIT sono stati chiari e hanno messo le mani avanti, affermando che: “Quello che ci preoccupa di più è se ci siano lacune”, “Intendiamo che questo sia un database vivo, l’inizio di qualcosa”, “Siamo molto ansiosi di ricevere feedback(7) su questo”, “Non lo abbiamo pubblicato dicendo: ”Abbiamo davvero capito e tutto ciò che abbiamo fatto sarà perfetto”.”  Difatti dalle FAQ(8) sull’AI Risk hanno dichiarato  anche le limitazioni dello strumento(9).

Sintesi dell’AI Risk Repository 

L’AI Risk Repository collega ogni rischio alle informazioni alla fonte di riferimento (titolo del documento, autori), alle prove di supporto (citazioni, numeri di pagina) e alle tassonomie elaborate, oltre a poterlo copiare su Google Sheets o One Drive. 

Per una comprensione più chiara e una gestione più efficace delle minacce, i rischi sono organizzati in due tassonomie principali, per Causale e per Domini.

Il Causal Taxonomy of AI Risks offre una classificazione dei rischi basata su tre fattori chiave:

  • Entità: Il rischio può derivare da azioni umane o da malfunzionamenti dell’AI.
  • Intenzionalità: I rischi possono essere il risultato di azioni intenzionali o non intenzionali.
  • Tempistica: I rischi possono emergere prima del deployment di un sistema AI (ad esempio, durante la fase di sviluppo) o successivamente, una volta che il sistema è operativo e accessibile al pubblico.

Tale struttura causale dovrebbe aiutare a comprendere le origini del rischio, facilitando l’identificazione di strategie preventive o correttive.

Il “Domain Taxonomy of AI Risks” classifica invece i rischi in sette macro-domini che coprono aree critiche:

  1. Discriminazione e tossicità: Sistemi IA che perpetuano o amplificano bias esistenti.
  2. Privacy e sicurezza: Compromissioni della privacy o vulnerabilità informatiche.
  3. Disinformazione: IA utilizzata per diffondere false informazioni, influenzando opinioni e decisioni.
  4. Attori malintenzionati e abuso: IA sfruttata per scopi illeciti o dannosi.
  5. Interazione uomo-computer: Problemi relativi alla comunicazione e comprensione tra umani e macchine.
  6. Implicazioni socioeconomiche e ambientali: Impatti negativi dell’IA sul lavoro, sulle disuguaglianze o sull’ambiente.
  7. Sicurezza del sistema IA, fallimenti e limitazioni: Problemi tecnici o carenzaa di affidabilità che possono compromettere l’efficacia o la sicurezza del sistema – modello.

Ogni dominio è ulteriormente suddiviso in 23 sottodomini, rendendo possibile una classificazione dettagliata e granulare dei rischi.

Conclusioni

L’AI in tutte le sue forme rappresenta probabilmente la più grande opportunità del terzo millennio, ma la sua adozione richiede un approccio incessante e rigoroso alla gestione del rischio. Insomma, un’efficace strategia di risk management deve integrare l’AI in modo da garantire che il suo sviluppo e utilizzo, da parte del pubblico, avvengano nel rispetto di standard di sicurezza, equità, integrità e fiducia

In ultima analisi, “il futuro positivo e sostenibile dell’Intelligenza Artificiale dipenderà dalla nostra intelligenza neurale nell’individuare(10), affrontare e mitigare le minacce che essa comporta, gestendo e cogliendo le opportunità degli eventi rischiosi, in modo intelligente, etico(11) e responsabile”. Mediante un approccio integrato di governance e risk management che mette al centro gli interessi degli stakeholder, “si può creare un ambiente in cui innovazione e responsabilità coesistono e crescono insieme, permettendo all’AI di evolvere e migliorare la società, a beneficio dell’intera collettività, in maniera sicura, trasparente e inclusiva”.

Per condividere il tema AI Risk con i professionisti di Risk & Compliance, per ulteriori approfondimenti, si riporta un elenco di altri database di AI Risk; taluni dei quali forniscono anche una panoramica dei rischi e delle vulnerabilità associati ai modelli di apprendimento automatico pubblici.

ATT&CK Matrix for Enterprise

AI Risk Database

AVID – AI Vulnerability Database

AI Tracker


Per approfondimenti, consultare i seguenti link e/o riferimenti:

(1) Cfr. Attisano F.D. (2024), “Il Risk Management dei bias nell’intelligenza artificiale” – Risk & Compliance Platform Europe, www.riskcompliance.it

(2) Sebbene il dibattito sull’IA sia ampiamente diffuso molti cittadini non sono ancora pienamente informati sulla rapidità con cui vengono sviluppate e integrate nuove applicazioni di IA in vari settori, ognuna delle quali presenta numerose soluzioni già implementate e molte altre in fase di sviluppo, figuriamoci sulle minacce che può comportare l’intelligenza artificiale.

(3) Cfr. AI Risk Repository | MIT (Massachusetts Institute of Technology), August 2024

(4) Cfr. S J Mulligan (14-08-2024) “A new public database lists all the ways AI could go wrong. Its creators hope their work could lead to further research to determine which risks to take more seriously” – MIT Technology Review

(5) Cfr. R. Mahari & Pat Pataranutaporn (05-08-2024) “We need to prepare for ‘addictive intelligence’. The allure of AI companions is hard to resist. Here’s how innovation in regulation can help protect people“- MIT Technology Review

(6) Cfr. Attisano F.D. (2024), “Artificial intelligence: Internal Audit prova d’esame in AI Governance” – Risk & Compliance Platform Europe, www.riskcompliance.it

(7) Cfr. Feedback AI Risk Repository | MIT (Massachusetts Institute of Technology), August 2024

(8) Cfr. FAQ-Frequently Asked QuestionsAI Risk Repository | MIT (Massachusetts Institute of Technology), August 2024

(9)  Sintesi delle limitazioni dell’AI Risk Repository: Limitato ai rischi di 43 documenti analizzati, con 17.000 record- Potrebbero mancare rischi emergenti, specifici del dominio e rischi non pubblicati. Presenta un potenziale di errore e di distorsione soggettiva, avendo utilizzato un unico revisore esperto per l’estrazione e la codifica. Potrebbero includere rischi poco chiari o poco comunicati. Le tassonomie privilegiano la chiarezza e la semplicità rispetto alle sfumature. Le tassonomie non categorizzano i rischi in base a fattori potenzialmente importanti, quali l’impatto e la probabilità del  rischio, né prendono in esame l’interazione tra i rischi.

(10) Cfr. How to use the AI Risk RepositoryAI Risk Repository | MIT (Massachusetts Institute of Technology), August 2024

(11) Cfr. Attisano F.D. (2024), “ISO 42001 – lo standard per un sistema di gestione responsabile ed etico dell’intelligenza artificiale”  – Risk & Compliance Platform Europe, www.riskcompliance.it



Lascia un Commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono segnati con *