di Tony DE BREE
All’inizio di dicembre, in Europa è stata approvata la normativa sull’IA (AI Act).(1) Secondo molti, si tratta di una “legge rivoluzionaria” che dovrebbe delimitare l’uso dell’IA, degli algoritmi e dell’apprendimento automatico (machine learning) e richiede che i rischi per le persone e la società siano ridotti al minimo.
I punti chiave della Legge Europea sull’Intelligenza Artificiale (AI Act) sono:
1. Approccio basato sul rischio: l’AI Act distingue quattro livelli di rischio per i sistemi di IA: rischio inaccettabile, rischio elevato, rischio limitato e rischio minimo. I sistemi di IA con un rischio inaccettabile sono vietati, mentre i sistemi di IA ad alto rischio devono rispettare i requisiti più rigorosi.
2. Trasparenza e tracciabilità: i sistemi di IA devono essere trasparenti e tracciabili. Ciò significa che gli utenti dei sistemi di IA devono essere in grado di capire come funziona il sistema e come vengono prese le decisioni. Inoltre, i dati utilizzati per addestrare il sistema devono essere conservati.
3. Non discriminazione: i sistemi di IA non devono discriminare sulla base di razza, genere, religione, orientamento sessuale, opinione politica o altre caratteristiche personali.
4. Sostenibilità (Eco-compatibilità): i sistemi di IA dovrebbero essere progettati e gestiti in modo rispettoso dell’ambiente.
5. Controllo umano: i sistemi di IA devono essere supervisionati da esseri umani. Ciò significa che le persone devono essere in grado di controllare e correggere le decisioni del sistema.
L’AI Act è una legge che mira a regolamentare lo sviluppo e l’uso dell’IA nella UE. La Legge pone requisiti elevati ai sistemi di intelligenza artificiale, ma offre anche opportunità di innovazione e crescita. L’AI Act entrerà in vigore nel 2026.
Sorgono allora spontanee una serie di domande pratiche:
- Quale problema risolve questa legge?
- Chi effettuerà la supervisione/vigilanza?
- La Legge funzionerà?
La scomoda verità è che, a causa dello sviluppo esplosivo dell’IA – compresa la cd. “democratizzazione dell’IA” che si è avuta da quando, lo scorso anno è stato lanciato ChatGPT – a livello mondiale migliaia di “sistemi di IA” fondati sulle tecnologie OpenAI, Google AI e Microsoft (Open-AI), stanno arrivando online ogni giorno in tutti i Paesi dell’UE.
Io stesso ho più di 50 App – non ufficiali ma liberamente scaricabili – basate sull’intelligenza artificiale e ospitate nel Cloud in tutti i Paesi del mondo. App di intelligenza artificiale che mi offrono enormi miglioramenti della produttività a vantaggio dei miei clienti.
Inoltre, Google ora integra in tutte le App la propria intelligenza artificiale e la rende disponibile a chiunque per le proprie App personali. Microsoft integra la propria intelligenza artificiale in tutto il proprio software ovunque, incluso Microsoft Office. E, anche molte terze parti, tra cui molte piattaforme online come LinkedIn, stanno integrando l’intelligenza artificiale nelle loro piattaforme. In base agli LLM (Large Language Model) di queste tre principali società e di tanti fornitori più piccoli. Quindi, da un punto di vista pratico, la risposta a tutte e tre le domande è “no”.
Sembra invece che i politici ed i cittadini dell’Unione europea pensino ancora una volta che “Internet” possa essere regolamentato. La scomoda realtà è che coloro che preparano e fanno le leggi non hanno idea di quanto velocemente, in tutto il mondo, vadano online gli sviluppi che riguardano l’IA. Come già avvenuto in passato durante il lancio di Internet. E, infatti, proprio come accade in Olanda, con stime e risposte palesemente errate alle domande dei membri del Parlamento in merito all’impatto dell’IA sul mercato del lavoro e sull’istruzione.
Se c’è qualcosa di cui c’è bisogno a breve termine, è una rapida formazione di tutti coloro che sono coinvolti nella preparazione e nell’elaborazione delle leggi. Compresi i membri dei Parlamenti nazionali. E questo vale anche per i funzionari dei ministeri coinvolti e per i professori che ho incontrato. Le loro conoscenze non sono aggiornate. E questa è un’osservazione preoccupante adesso che, online in tutto il mondo, siamo già alla versione 4 di App fondate sull’intelligenza artificiale; mentre nelle capitali dei Paesi europei ed a Bruxelles si parla ancora di ChatGPT (puro) e Midjourney (puro) e ci sono ministri che intendono vietare l’uso di ChatGPT e Midjourney da parte dei dipendenti pubblici.
Intervento di Tony de BREE | Consulente ed esperto di strategia digitale con appronfondita conoscenza del settore bancario e finanziario. Attualmente CEO c/o Fintech Startup Partners. Autore per www.riskcompliance.nl
Per approfondimenti, consultare i seguenti link e/o riferimenti:
(1) Consiglio Europeo, Regolamento sull’intelligenza artificiale: il Consiglio e il Parlamento raggiungono un accordo sulle prime regole per l’IA al mondo, dicembre 2023