Le novità più rilevanti introdotte dal Parlamento UE
Le Commissioni IMCO e LIBE hanno proposto numerose modifiche e integrazioni alla bozza dell'AI Act (rispetto alla versione del 2021 della Commissione) che il Parlamento UE, nella seduta plenaria del 14 giugno, ha sostanzialmente approvato. Alcune fra le più rilevanti sono le seguenti.
Definizione di IA
La definizione di Intelligenza Artificiale è centrale, poiché da essa dipende l'ampiezza del campo di applicazione della normativa. È stata estesa come segue: artificial intelligence system (AI system) means a machine-based system that is designed to operate with varying levels of autonomy and that can, for explicit or implicit objectives, generate outputs such as predictions, recommendations, or decisions that influence physical or virtual environments.
Invece, la proposta della Commissione faceva riferimento, in modo più restrittivo, a un software sviluppato con alcune caratteristiche espressamente elencate. Una definizione sganciata da determinate caratteristiche tecniche sembra maggiormente idonea a coprire le numerose possibili applicazioni e ad assicurare una maggiore durata alla normativa. Il rischio di una prematura obsolescenza delle regole collegate all'uso della tecnologia, infatti, è molto alto, se le norme sono troppo specifiche. Uno dei motivi del successo del GDPR, per fare un parallelismo con una normativa attigua a quella in oggetto, è la sua “neutralità tecnologica”, che consente una applicazione delle regole in modo trasversale. L'AI Act – per raggiungere l'ambizioso risultato sperato di normare una materia estremamente complessa, lasciando che questa si sviluppi, ma garantendo ai cittadini la necessaria sicurezza – dovrà riuscire a raggiungere lo stesso risultato.
Pratiche di IA vietate e sistemi ad alto rischio
L'AI Act, come anticipato, prevede che alcune pratiche siano espressamente vietate. L'elenco di queste è stato esteso dal Parlamento, introducendo così nell'ordinamento europeo un livello di protezione più alto per le persone.
Nel nuovo testo del Regolamento, inoltre, è stato aggiunto un ulteriore livello di applicazioni di IA ad alto rischio: un sistema di intelligenza artificiale rientrerebbe in questa categoria, in generale, se ponesse un rischio significativo di danneggiare l'ambiente, la salute, la sicurezza o i diritti fondamentali delle persone. Anche l'Allegato III, che riporta l'elenco delle applicazioni a rischio alto, è stato notevolmente ampliato.
Gli obblighi per i fornitori di IA ad alto rischio sono aumentati, in particolare con riferimento agli adempimenti in tema di gestione del rischio, di governance dei dati, di documentazione tecnica e di tenuta dei registri. È stato introdotto anche l'obbligo di condurre una valutazione dell'impatto sui diritti fondamentali, considerando anche aspetti peculiari, come i possibili effetti negativi dell'AI sui gruppi di persone più emarginate e sull'ambiente.
Sistemi di IA con finalità generali
La proposta della Commissione non includeva questo tipo di sistemi. L'enorme successo di ChatGPT e di altri Large Language Models (LLMs), in particolare negli ultimi mesi, ha richiesto un intervento urgente e sono stati quindi introdotti alcuni obblighi che si applicano nel caso in cui i cd. General Purpose AI (GPAI) – definiti come i sistemi di AI che possono essere usati e adattati per una vasta serie di applicazioni per cui non erano stati progettati espressamente – siano considerati ad alto rischio o siano integrati in applicazioni ad alto rischio.
Foundation model e AI generativa
Il nuovo testo del Regolamento ha preso in considerazione anche l'AI generativa, ossia quella che è in grado di generare testi, immagini, video, musiche o altri output in risposta a determinate richieste. I foundation model sono modelli di intelligenza artificiale sviluppati per essere altamente versatili e generici nella loro capacità di produrre output. Questi modelli vengono addestrati su una ampia gamma di dati per affrontare numerosi compiti, compresi quelli per i quali non sono stati sviluppati e addestrati. Questi modelli stanno assumendo un'importanza crescente.
Nel caso in cui i foundation model siano forniti come servizio, ad esempio tramite API (Application Programming Interfaces), il fornitore originale deve collaborare con i fornitori successivi che usano il servizio, a meno che il fornitore originale trasferisca il modello di addestramento e informazioni dettagliate sui set di dati e sul processo di sviluppo del sistema, oppure limiti il servizio, in modo tale che il fornitore successivo che fa ricorso al foundation model sia in grado di ottemperare pienamente al regolamento senza ulteriore supporto dal fornitore originale.
Visti i rischi significativi collegati ai foundation model, devono essere implementate adeguate misure di data governance, anche per evitare l'incorporazione di possibili pregiudizi (bias) nel sistema. Il testo del regolamento approvato dal Parlamento richiede anche che tali modelli siano progettati in modo tale da garantire adeguati livelli di sicurezza e il rispetto dell'ambiente. I modelli di AI generativa, inoltre, devono assicurare trasparenza rispetto al fatto che gli output sono generati da una macchina e non da esseri umani e devono essere sviluppati in modo da evitare che i contenuti generati risultino in violazione delle leggi europee (incluse quelle sulla tutela del diritto d'autore) e dei diritti fondamentali delle persone.
Privacy e data protection
È stato sottolineato con forza che i diritti alla privacy e alla protezione dei dati personali (entrambi tutelati dalla Carta dei diritti fondamentali dell'UE, oltre che dal GDPR) devono essere garantiti durante tutto il ciclo di vita del sistema di intelligenza artificiale. L'attuazione dei principi di minimizzazione e di privacy by design e by default risulta essenziale. Per garantire il rispetto di questi diritti fondamentali e la sicurezza dei sistemi di AI è necessario implementare misure tecniche e organizzative all'avanguardia. Tali misure dovrebbero includere non solo l'anonimizzazione e la crittografia, ma anche l'utilizzo di tecnologie che consentono agli algoritmi di lavorare riducendo l'impatto sui dati.
I fornitori di AI ad alto rischio devono predisporre una dichiarazione di conformità del sistema, da tenere a disposizione delle Autorità per 10 anni. Nel caso in cui il sistema di AI preveda il trattamento di dati personali, la dichiarazione deve prevedere anche la conformità del sistema alla normativa europea in materia di protezione dei dati personali.
AI Office
Il Parlamento ha ritenuto necessario attribuire una serie di compiti allo European Artificial Intelligence Office (AI Office), un organismo indipendente che dovrà essere appositamente costituito. Questo avrà sede a Bruxelles e sarà gestito da un board composto da rappresentati della Commissione, delle Autorità di controllo locali (che ogni Stato membro deve individuare per vigilare il rispetto delle norme sull'AI), dell'EDPS, dell'ENISA e dell'Agenzia per i diritti fondamentali, tra cui anche i seguenti:
- fornire supporto e consulenza agli Stati membri, alle Autorità di controllo nazionali e alla Commissione rispetto all'implementazione dell'AI Act, facilitando altresì la creazione di un pool di esperti in materia (sul modello di quanto fatto recentemente dall'EDPB);
- assistere le Autorità nazionali nella costituzione di sandbox regolamentari;
- assicurare una applicazione coerente del Regolamento;
- fornire consulenza alla Commissione affinché questa sviluppi linee guida sulla implementazione pratica del Regolamento;
- fornire linee guida in materia di sicurezza dei sistemi di AI a alto rischio;
- coordinare indagini congiunte;
- cooperare con le Autorità di paesi terzi e con organizzazioni internazionali;
- promuovere una pubblica consapevolezza in merito ai benefici, ai rischi, alle tutele e ai diritti collegati all'uso dell'AI.