AI Act: il nuovo Regolamento europeo sull’Intelligenza Artificiale

15 Luglio 2024

Il 12 luglio 2024 è stato pubblicato nella Gazzetta Ufficiale dell’UE l’Artificial Intelligence Act, il Regolamento che mira, da un lato, a disciplinare l’Intelligenza Artificiale affinché risulti sicura e rispettosa dei principi europei e, dall’altro, a stimolare investimenti e sviluppo in tale ambito. L’iniziativa legislativa, avviata dalla Commissione nel 2021, è stata strutturata seguendo l’approccio che a livelli di rischio maggiori corrispondono regole più stringenti. Alcuni sistemi di intelligenza artificiale sono stati espressamente vietati, mentre per quelli considerati ad alto rischio sono stati introdotti numerosi obblighi, in capo non solo ai produttori della tecnologia, ma anche a chi la utilizza. L’AI Act acquisterà efficacia con termini differiti, per consentire un adeguamento graduale ai nuovi obblighi...

Ambito di applicazione del regolamento

L’AI Act ha un ambito di applicazione molto ampio, anche extra territoriale. Infatti, il Regolamento si applica ai seguenti soggetti, sia pubblici che privati:

  • fornitori che immettono sul mercato o mettono in servizio sistemi di IA (o immettono sul mercato modelli di IA per finalità generali) nell’UE, indipendentemente dal fatto che siano stabiliti o ubicati nell’UE o in un paese terzo;
  • deployer di sistemi di IA che hanno il loro luogo di stabilimento o sono situati all’interno dell’UE;
  • fornitori e deployer di sistemi di IA che hanno il loro luogo di stabilimento o sono situati in un paese terzo, laddove l’output prodotto dal sistema di IA sia utilizzato nell’UE;
  • importatori e distributori di sistemi di IA;
  • fabbricanti di prodotti che immettono sul mercato o mettono in servizio un sistema di IA insieme al loro prodotto e con il loro nome o marchio;
  • rappresentanti autorizzati di fornitori, non stabiliti nell’UE;
  • persone interessate che si trovano nell’UE.

Il nuovo quadro giuridico impatta quindi sia i fornitori della tecnologia (ad esempio, lo sviluppatore di un tool di screening dei CV) che i suoi utilizzatori (ad esempio, una banca che utilizzi tale strumento per efficientare il proprio recruitment). Sono previsti anche obblighi per gli importatori che, prima di immettere sul mercato un sistema di IA ad alto rischio, devono assicurarsi che il fornitore straniero abbia svolto una serie di attività, tra cui la valutazione della conformità, e che il sistema di IA sia corredato da adeguata documentazione tecnica, dalle istruzioni d’uso e rechi una marcatura di conformità europea (CE).

Specifici obblighi sono inoltre previsti per i fornitori di modelli di IA per finalità generali, compresi i modelli di IA generativa di grandi dimensioni. Invece, i fornitori di modelli rilasciati con licenza libera e open source non sono soggetti agli obblighi previsti dalle nuove norme, salvo nel caso in cui comportino rischi sistemici.

Il Regolamento non si applica invece alle attività di ricerca, prova o sviluppo relative a sistemi o modelli di IA prima della loro immissione sul mercato o messa in servizio, e ai sistemi di IA o modelli di IA (inclusi i loro output) specificamente sviluppati e messi in servizio al solo scopo di ricerca e sviluppo scientifici. Il Regolamento non si applicherà nemmeno ai sistemi di IA immessi sul mercato, messi in servizio o utilizzati esclusivamente per scopi militari, di difesa o di sicurezza nazionale.

Entrata in vigore e applicazione progressiva

L’AI Act è stato pubblicato nella Gazzetta Ufficiale dell’UE il 12 luglio 2024, entra in vigore dopo venti giorni e si applica a decorrere dal 2 agosto 2026. Tuttavia, alcune disposizioni di applicheranno:

  • 6 mesi dopo l’entrata in vigore, ossia dal 2 febbraio 2025 (i.e. le disposizioni generali del Regolamento, incluse quelle relative agli obblighi di formazione anche per i deployer e le norme in materia di sistemi vietati);
  • 12 mesi dopo l’entrata in vigore, ossia 2 agosto 2025 (i.e. le norme in materia di autorità di notifica e organismi notificati, governance e sanzioni, ad eccezione delle sanzioni pecuniarie per i fornitori di modelli di IA per finalità generali);
  • 36 mesi dopo l’entrata in vigore, ossia dal 2 agosto 2027 (i.e. sistemi ad alto rischio definiti nell’allegato I - elenco della normativa di armonizzazione dell’UE).

Categorie di rischio

L’AI Act attribuisce ai sistemi di IA diversi livelli di rischio.

  1. Rischio inaccettabile: applicazioni di IA vietate, in quanto lesive di diritti fondamentali europei e dannose, tra cui:
    • valutazione e classificazione delle persone sulla base del comportamento sociale, delle caratteristiche personali o della personalità, con conseguente social scoring;
    • tecniche subliminali, manipolative o ingannevoli aventi lo scopo o l’effetto di distorcere materialmente il comportamento delle persone;
    • sfruttamento delle vulnerabilità delle persone con l’obiettivo di distorcerne il comportamento;
    • identificazione biometrica remota in tempo reale in spazi accessibili al pubblico per attività di contrasto (fatte salve alcune eccezioni);
    • categorizzazione biometrica delle persone sulla base di dati biometrici, per dedurne o inferirne la razza, le opinioni politiche, l’appartenenza sindacale, le convinzioni religiose o filosofiche, la vita sessuale o l’orientamento sessuale (fatte salve alcune eccezioni);
    • polizia predittiva su singoli (fatte salve alcune eccezioni);
    • riconoscimento delle emozioni sul luogo di lavoro e negli istituti di istruzione, eccetto per motivi medici o di sicurezza (e.g. monitoraggio dei livelli di stanchezza di un pilota);
    • scraping non mirato di immagini facciali da internet o da filmati di telecamere a circuito chiuso per la creazione o l’espansione delle banche dati di riconoscimento facciale.

  1. Rischio alto: è considerato ad alto rischio un numero predefinito di sistemi di IA, che potenzialmente possono avere ripercussioni negative sulla sicurezza delle persone o sui loro diritti fondamentali, tutelati dalla Carta dei diritti fondamentali dell’UE. L’elenco dei sistemi di IA ad alto rischio può essere aggiornato per tenere conto dell’evoluzione della tecnologia.

  1. Rischio limitato: a determinati sistemi di IA sono imposti specifici obblighi di trasparenza, affinché gli utenti siano resi consapevoli del fatto che stanno interagendo con una macchina, come un chatbot. Viene incoraggiata, inoltre, l’adozione di codici di condotta, sia da parte dei fornitori che dei deployer della tecnologia.

  1. Rischio minimo: tutti gli altri sistemi di IA possono essere sviluppati e utilizzati senza ulteriori obblighi, nel rispetto naturalmente di ulteriori normative eventualmente applicabili, ad esempio in materia di protezione dei dati personali. I fornitori di tali sistemi, così come i deployer, possono comunque decidere di applicare, su base volontaria, i requisiti per un’IA affidabile e aderire a codici di condotta.

Inoltre, il Regolamento prende in considerazione i rischi sistemici che potrebbero derivare dai modelli di IA per finalità generali, compresi i grandi modelli di IA generativa, molto diffusi anche nell’UE. Modelli particolarmente potenti potrebbero causare incidenti gravi e su larga scala o essere utilizzati impropriamente, potenzialmente anche per attacchi informatici e cyber crimes.

Rientra fra le ipotesi di rischio inaccettabile l’uso dell’identificazione biometrica remota in tempo reale in spazi accessibili al pubblico (e.g. il riconoscimento facciale mediante telecamere a circuito chiuso) a fini di attività di contrasto. Tali sistemi sono quindi vietati nell’UE, a meno che non vengano utilizzati in uno dei seguenti casi:

  • attività di contrasto alla criminalità relativamente a 16 reati particolarmente gravi, tra cui terrorismo, traffico di stupefacenti o armi, omicidio, rapina a mano armata;
  • ricerca mirata di persone specifiche (e.g. in caso di vittime di sottrazione, tratta di esseri umani, sfruttamento sessuale di esseri umani e ricerca di persone scomparse);
  • prevenzione di una minaccia specifica, sostanziale e imminente per la vita o l’incolumità fisica delle persone fisiche o di una minaccia reale e attuale o reale e prevedibile di un attacco terroristico.

L’identificazione biometrica remota in tempo reale in spazi accessibili al pubblico, anche nei casi in cui è ammessa, è comunque subordinata a un’autorizzazione preventiva da parte di un’autorità giudiziaria o amministrativa indipendente. L’uso del sistema di identificazione biometrica, inoltre, deve essere preceduto dallo svolgimento, da parte dell’autorità di contrasto, di una valutazione d’impatto sui diritti fondamentali e dalla notifica alle competenti autorità di vigilanza del mercato e per la protezione dei dati.

Sistemi di ai ad alto rischio

L’AI Act ha introdotto una metodologia per individuare i sistemi di IA ad alto rischio in linea con la normativa europea sulla sicurezza dei prodotti: la classificazione del rischio è basata sulla funzione svolta dal sistema di IA e dalle sue modalità di utilizzo.

L’allegato III del Regolamento elenca i casi d’uso ritenuti ad alto rischio, da tenere aggiornato, nelle seguenti aree:

  • infrastrutture critiche (e.g. fornitura di acqua e energia);
  • accesso a servizi privati essenziali e a prestazioni e servizi pubblici essenziali (e.g. valutazione dell’ammissibilità ai servizi di assistenza sanitaria, dell’affidabilità creditizia delle persone fisiche e dei premi assicurativi);
  • istruzione e formazione professionale (e.g. per valutare i risultati dell’apprendimento);
  • occupazione, gestione dei lavoratori e accesso al lavoro autonomo (e.g. valutazione dei candidati);
  • attività di contrasto, del controllo delle frontiere, migrazione e asilo e dell’amministrazione della giustizia e dei processi democratici;
  • biometria, in particolare i sistemi di identificazione biometrica remota, di categorizzazione biometrica basata sui dati sensibili e di riconoscimento delle emozioni (al di fuori delle situazioni in cui vige il divieto).

L’elenco non include i sistemi di raccomandazione delle piattaforme online di dimensioni molto grandi, in quanto disciplinati da altre normative europee specifiche, ossia i regolamenti sui mercati digitali e sui servizi digitali.

Non sono ritenuti ad alto rischio i sistemi che, sebbene inclusi nell’elenco, svolgono compiti procedurali limitati, migliorano i risultati di attività umane precedentemente completate, non sostituiscono o influenzano la valutazione umana precedentemente completata senza un’adeguata revisione umana (nel caso in cui il sistema di IA sia destinato a rilevare schemi decisionali o deviazioni da schemi decisionali precedenti) o svolgono compiti preparatori ai fini della valutazione dei casi d’uso indicati nell’Allegato III. Invece, un sistema di IA di cui all’allegato III utilizzato per profilare le persone è considerato sempre ad alto rischio.

Principali obblighi

I sistemi di IA ad alto rischio devono essere sottoposti innanzitutto a una procedura di valutazione della conformità, prima che siano immessi sul mercato o messi in servizio nell’UE. La valutazione è volta a dimostrare che il sistema è conforme ai requisiti obbligatori per un’IA affidabile, in termini di gestione dei rischi, qualità dei dati, documentazione tecnica, conservazione delle registrazioni, trasparenza e fornitura di informazioni ai deployer, sorveglianza umana e accuratezza, robustezza e cybersicurezza. Laddove il sistema di IA ad alto rischio dovesse subire modifiche sostanziali, la valutazione dovrebbe essere ripetuta.

I sistemi biometrici di IA ad alto rischio e alcuni sistemi di IA disciplinati da normative settoriali sono soggetti a una specifica valutazione di conformità.

Inoltre, i fornitori di sistemi di IA ad alto rischio devono implementare sistemi di gestione della qualità (che includono anche un sistema di gestione del rischio), per garantire la conformità ai nuovi requisiti e ridurre al minimo i rischi per gli utenti, anche dopo l’immissione sul mercato del sistema di IA.

I sistemi di IA ad alto rischio, ad eccezione di quelli destinati all’utilizzo come componenti di sicurezza nel campo delle infrastrutture critiche, devono essere registrati in una banca dati dell’UE.

L’AI Act prevede, inoltre, che le autorità di vigilanza del mercato contribuiscano al monitoraggio successivo all’immissione sul mercato mediante procedure di prova e audit e offrendo ai fornitori la possibilità di segnalare incidenti gravi derivanti dall’uso dei loro sistemi di IA, tra cui la violazione degli obblighi connessi al rispetto dei diritti fondamentali. In situazioni eccezionali, le autorità di vigilanza del mercato possono autorizzare l’immissione sul mercato o la messa in servizio di specifici sistemi di IA ad alto rischio per un periodo di tempo limitato.

Modelli di AI per finalità generali

L’AI Act obbliga i fornitori di modelli di IA per finalità generali, compresi i grandi modelli di IA generativa, ad elaborare, mantenere aggiornate e mettere a disposizione determinate informazioni e documentazione per i fornitori di sistemi di IA che intendono integrare tale modello nei loro sistemi. Inoltre, tali soggetti sono tenuti a redigere e mantenere la documentazione tecnica del modello, inclusi il processo di addestramento e prova e i risultati della sua valutazione. Tali requisiti di trasparenza sono volti a rendere comprensibili i modelli di IA per finalità generali, che possono essere particolarmente complessi e utilizzati per vari compiti.

I fornitori di modelli di IA per finalità generali sono tenuti anche a fornire informazioni sul consumo energetico dei modelli.

I fornitori di questo tipo di tecnologia devono inoltre disporre di procedure per garantire il rispetto del diritto d’autore nell’ambito della formazione dei loro modelli.

Alcuni di questi modelli potrebbero comportare rischi sistemici, considerata in particolare la loro diffusione.

I fornitori di modelli che comportano rischi sistemici sono invitati a elaborare codici di condotta, ma sussistono comunque in capo ad essi alcuni obblighi specifici, oltre a quelli già applicabili per i modelli di IA per finalità generali, tra cui i seguenti:

  • valutare i modelli in conformità di protocolli e strumenti standardizzati che rispecchiano lo stato dell’arte;
  • valutare e attenuare i possibili rischi sistemici a livello UE;
  • tenere traccia, documentare e segnalare incidenti gravi ed eventuali misure correttive;
  • garantire un livello adeguato di cybersicurezza per il modello di IA e la relativa infrastruttura fisica.

Tutela dei diritti fondamentali

L’approccio europeo al tema dell’IA si definisce antropocentrico, in quanto si caratterizza per la centralità dei diritti fondamentali dell’uomo.

Gli stringenti requisiti previsti dal Regolamento – con riferimento soprattutto ai sistemi di IA ad alto rischio – mirano a fare sì che già nella fase di sviluppo vengano adottate le misure necessarie a garantire il rispetto di questi diritti, tra cui anche quelli alla privacy e alla protezione dei dati personali.

In caso di violazioni, le autorità nazionali sono dotate di poteri per verificare se il sistema di IA sia stato effettivamente progettato e usato in modo conforme al diritto dell’UE.

Inoltre, per determinati sistemi di IA ad alto rischio, l’AI Act impone di effettuare una valutazione d’impatto sui diritti fondamentali sia (i) ai deployer dei sistemi di IA che valutano l’affidabilità e il merito creditizio e di quelli che valutano i rischi e la determinazione dei prezzi nel caso di assicurazioni sulla vita e sanitarie, sia (ii) a quei deployer che sono organismi di diritto pubblico o enti privati che forniscono servizi pubblici.

La valutazione, effettuata dal deployer, deve comprendere i seguenti elementi:

  • la descrizione dei processi del deployer in cui il sistema di IA ad alto rischio sarà utilizzato in linea con la sua finalità prevista;
  • la descrizione del periodo di tempo e della frequenza in cui il sistema di IA ad alto rischio è destinato a essere utilizzato;
  • le categorie di persone fisiche e dei gruppi verosimilmente interessati dal suo uso nel contesto specifico;
  • i rischi specifici di danno che possono incidere sulle categorie di persone o sui gruppi di persone interessati;
  • la descrizione dell’attuazione delle misure di sorveglianza umana;
  • le misure da adottare qualora tali rischi si concretizzino.

I risultati della valutazione devono essere comunicati all’autorità di vigilanza del mercato da parte del deployer.

Protezione dei dati personali

Le sfide che vengono poste dall’IA adottando un’ottica di data protection sono molteplici. Gli algoritmi che stanno alla base di ogni sistema di IA lavorano infatti essenzialmente sui dati (a livello di input, di training, di output e di feedback) e difficilmente è possibile escludere che le informazioni processate siano anche di tipo personale.

In proposito, alcuni fra i principali punti di attenzione che le autorità di controllo privacy e i professionisti del settore hanno messo in evidenza sono i seguenti:

  • in generale, aspetti connessi alla liceità e alla trasparenza dei trattamenti dei dati elaborati dai sistemi di IA;
  • definizione e formalizzazione dei ruoli privacy di tutti i soggetti coinvolti nella filiera;
  • protezione dei dati disponibili sul web, a cui molti sistemi di IA attingono senza particolari accorgimenti (cd. data scraping, tema su cui il Garante Privacy ha recentemente avviato un’indagine conoscitiva);
  • tutela dei dati trasmessi dagli interessati quando utilizzano un sistema di IA, dalla loro raccolta tramite l’interfaccia del tool al loro possibile utilizzo anche per l’allenamento della macchina;
  • rispetto dei diritti sanciti dal GDPR, tra cui quelli di accesso, rettifica, cancellazione e opposizione;
  • discriminazione degli interessati derivante da possibili pregiudizi (bias) insiti nei sistemi;
  • decisioni completamente automatizzate alle quali non sia possibile opporsi;
  • profilazione invasiva;
  • sfide di sicurezza inedite.

I diritti alla privacy e alla protezione dei dati personali – tutelati anche dalla Carta dei diritti fondamentali dell’UE, ancora prima che dal GDPR – devono quindi essere tenuti in debito conto e garantiti durante tutto il ciclo di vita del sistema di intelligenza artificiale.

Per poter rispettare questi diritti fondamentali e offrire sistemi di IA sicuri è quindi necessario mettere in atto presidi avanzati a protezione dei dati, implementando misure tecniche e organizzative adeguate, che dovrebbero includere non solo l’anonimizzazione e la crittografia, ad esempio, ma anche l’utilizzo di tecnologie che consentano agli algoritmi di lavorare riducendo l’impatto sui dati. Le cosiddette Privacy Enhancing Technologies (PETs), volte a dare attuazione ai principi di privacy by design e by default, e l’uso di dati sintetici possono assumere un ruolo centrale in questo contesto, fra l’altro per escludere o minimizzare il trattamento di dati personali nei training set dei sistemi di IA.

Lo svolgimento della valutazione d’impatto sui diritti fondamentali, nei casi in cui è richiesta, non fa venire meno l’obbligo di effettuare anche la valutazione d’impatto sulla protezione dei dati (DPIA), sussistendone i requisiti previsti dal GDPR e dalle linee guida in materia. In particolare, in base a quanto previsto dall’art. 27 dell’AI Act, la valutazione d’impatto sui diritti fondamentali deve integrare la valutazione d’impatto sulla protezione dei dati.

Governance e enforcement

Il Regolamento prevede la seguente struttura di governance e di enforcement per presidiare la legalità dell’IA.

  • L’AI Office, istituito all’interno della Commissione, ha il compito di sviluppare le competenze e le capacità dell’UE nel settore dell’AI e contribuire all’attuazione, al monitoraggio e alla supervisione della normativa in materia di sistemi di IA e di governance. Tale ufficio deve attuare e supervisionare le nuove regole per i modelli di IA per finalità generali. Inoltre, incoraggia e agevola l’elaborazione di codici di buone pratiche al fine di contribuire alla corretta applicazione del Regolamento. Ha il potere di richiedere documentazione, condurre valutazioni dei modelli, indagare sulle segnalazioni e chiedere di adottare misure correttive.
  • Un gruppo di esperti scientifici indipendenti, che fornisce consulenza e sostegno all’AI Office.
  • L’AI Board (anche “Comitato”), composto dai rappresentanti degli Stati membri e, come membri osservatori, dall’AI Office e dall’EDPS, che fornisce consulenza e assistenza sull’applicazione del Regolamento, soprattutto in materia di modelli di IA per finalità generali, e facilita un’attuazione efficace e coerente della normativa.
  • Il foro consultivo, con membri provenienti da industria, mondo accademico, startup, PMI e società civile, che ha il compito di fornire consulenza e competenze tecniche al comitato e alla Commissione.
  • Una o più autorità di vigilanza del mercato e almeno un’autorità di notifica, istituite o designate da ciascuno Stato membro, che devono vigilare l’applicazione e l’attuazione del Regolamento.

Sanzioni

Nel caso in cui gli operatori non rispettino i requisiti del Regolamento, saranno gli Stati membri a dover stabilire sanzioni effettive, proporzionate e dissuasive e altre misure di esecuzione, inclusi avvertimenti e misure non pecuniarie, e comunicarle alla Commissione. Gli Stati membri, inoltre, dovranno tenere conto degli orientamenti emanati dalla Commissione.

Il Regolamento stabilisce le soglie da tenere in considerazione:

  • sanzioni amministrative pecuniarie fino a 35 milioni di euro o, se l’autore della violazione è un’impresa, fino al 7% del fatturato mondiale totale annuo dell’esercizio precedente (se superiore) per violazioni relative a pratiche vietate;
  • sanzioni amministrative pecuniarie fino a 15 milioni di euro o, se l’autore della violazione è un’impresa, fino al 3% del fatturato mondiale totale annuo dell’esercizio precedente per l’inosservanza di altre disposizioni in materia di operatori e organismi notificati;
  • sanzioni amministrative pecuniarie fino a 7,5 milioni di euro o, se l’autore della violazione è un’impresa, fino all’1% del fatturato mondiale totale annuo dell’esercizio precedente per la fornitura di informazioni inesatte, incomplete o fuorvianti agli organismi notificati e alle autorità nazionali competenti in seguito a una richiesta.

Per ciascuna categoria di violazione la soglia per le PMI, incluse le start-up, sarà l’importo più basso tra le percentuali e gli importi sopra riportati.

In conclusione

L’iter che ha portato all’accordo delle Istituzioni sulle regole europee in materia di Intelligenza Artificiale è stato complesso, in considerazione di vari fattori, tra cui anche la rapida evoluzione di questa tecnologia, l’enorme successo di alcuni sistemi di IA generativa (che hanno portato con loro, insieme alle opportunità, significative criticità), l’entità degli interessi economici in gioco e le conseguenti pressioni esercitate da alcuni stakeholder, la diversità di approccio rispetto a certi temi (tra cui l’identificazione biometrica) tra formazioni politiche diverse (alcune più orientate a favorire il controllo delle autorità, altre invece più inclini alla definizione di argini a tali poteri, a maggior tutela dei diritti dei cittadini).

In un simile contesto, è risulto particolarmente ambizioso l’obiettivo di definire un framework legale che fosse in grado al contempo di fare da volano al settore dell’IA in Europa (dove, peraltro, si sconta un notevole ritardo rispetto a USA e Cina, a livello di investimenti e di maturità delle imprese) e di contenere i rischi che questa tecnologia strutturalmente incorpora. I tempi previsti per l’acquisto progressivo di efficacia delle nuove regole consentiranno alle organizzazioni impattate – una vasta platea, visto l’ambito di applicazione anche extra territoriale del Regolamento – di porre in essere gli adempimenti necessari per un uso lecito e affidabile degli strumenti di IA.

Questa prima fase sarà contraddistinta da complessi progetti di compliance, avviati in certi casi anche su base volontaria. Solo in un secondo momento, invece, sarà possibile valutare se il Regolamento si sarà rivelato da un lato abbastanza flessibile da reggere l’evoluzione incessante delle soluzioni di IA offerte sul mercato (come lo è stato il GDPR, essendo contraddistinto da un concetto di neutralità tecnologica) e, dall’altro, in grado di soddisfare quel contemperamento di esigenze diverse, consentendo l’auspicato progresso economico e tecnologico e il contenimento dei possibili impatti negativi per le persone.

Vuoi leggere tutti i contenuti?

Attiva la prova gratuita per 15 giorni, oppure abbonati subito per poter
continuare a leggere questo e tanti altri articoli.

Sommario