Via libera del Parlamento europeo alle norme sull'Intelligenza Artificiale

La Redazione
14 Giugno 2023

Divieto assoluto dell’uso dell'Intelligenza Artificiale per attività di sorveglianza biometrica, riconoscimento delle emozioni e polizia predittiva. Considerati ad alto rischio i sistemi di IA utilizzati per influenzare gli elettori. I sistemi di IA generativa, come ChatGPT, devono dichiarare come è stato generato il contenuto. Questi i punti cardine delle nuove norme su cui il Parlamento europeo ha espresso la propria posizione con la votazione di oggi.

Con 499 voti a favore, 28 contrari e 93 astensioni, il Parlamento europeo ha approvato la regolamentazione dell'intelligenza artificiale. Si tratta del primo atto normativo al mondo pensato per imporre alle tecnologie come ChatGPT il rispetto delle leggi comunitarie e dei suoi valori fondamentali. Si aprono ora i colloqui con i Paesi membri e la Commissione, il cui primo incontro si terrà già oggi, per arrivare al testo definitivo.

Pratiche di IA vietate

Le norme seguono un approccio basato sul rischio e stabiliscono obblighi per fornitori e operatori dei sistemi di IA a seconda del livello di rischio. Saranno quindi vietati i sistemi di IA che presentano un livello di rischio inaccettabile per la sicurezza delle persone, come quelli utilizzati per il punteggio sociale (classificare le persone in base al loro comportamento sociale o alle loro caratteristiche personali). L'elenco delle pratiche vietate è stato ampliato, andando ad includere usi intrusivi e discriminatori dell'IA, come:

  • l'uso di sistemi di identificazione biometrica remota "in tempo reale" e "a posteriori" in spazi accessibili al pubblico;
  • i sistemi di categorizzazione biometrica basati su caratteristiche sensibili (ad esempio genere, razza, etnia, cittadinanza, religione, orientamento politico);
  • i sistemi di polizia predittiva (basati su profilazione, ubicazione o comportamenti criminali passati);
  • i sistemi di riconoscimento delle emozioni utilizzati dalle forze dell'ordine, nella gestione delle frontiere, nel luogo di lavoro e negli istituti d'istruzione;
  • l'estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy).

IA ad alto rischio

Il Parlamento ha incluso nella classificazione delle applicazioni ad alto rischio anche i sistemi di IA che comportano danni significativi per la salute, la sicurezza, i diritti fondamentali delle persone o l'ambiente. Nella lista ad alto rischio rientrano ora anche i sistemi di intelligenza artificiale utilizzati per influenzare gli elettori e l'esito delle elezioni e i sistemi di raccomandazione utilizzati dalle piattaforme di social media (con oltre 45 milioni di utenti).

Obblighi relativi ai sistemi di IA per finalità generali

I fornitori di modelli di base dovranno valutare e mitigare i possibili rischi (alla salute, alla sicurezza, ai diritti fondamentali, all'ambiente, alla democrazia e allo Stato di diritto) e registrare i loro modelli nella banca dati dell'UE prima della loro immissione sul mercato europeo. I sistemi di IA generativa che si basano su tali modelli, quali ChatGPT, dovranno rispettare i requisiti di trasparenza (dichiarando che il contenuto è stato generato dall'IA), aiutando anche a distinguere le immagini deep-fake e da quelle reali.

Innovazione e tutela dei diritti dei cittadini

Il Parlamento non trascura la necessità di stimolare l'innovazione nel campo dell'IA e sostenere le PMI: sono previste esenzioni per le attività di ricerca e le componenti dell'IA fornite con licenze open-source. Vengono promossi i c.d. spazi di sperimentazione normativa, o ambienti di vita reale, creati dalle autorità pubbliche per testare l'IA prima che venga implementata. Infine, per rafforzare il diritto dei cittadini di presentare reclami viene prevista la possibilità di chiedere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio con un impatto significativo sui loro diritti fondamentali. L'Ufficio dell'UE per l'IA avrà il compito di monitorare l'attuazione delle norme sull'IA.

Dopo il voto, il correlatore Brando Benifei (S&D, Italia) ha dichiarato: «Oggi tutti gli occhi sono puntati su di noi. Mentre le Big Tech lanciavano l'allarme per le loro creazioni, l'Europa è andata avanti e ha proposto una risposta concreta ai rischi che l'IA sta iniziando a rappresentare. Vogliamo che il potenziale creativo e produttivo dell'IA venga sfruttato. Tuttavia, durante i negoziati con il consiglio ci batteremo per proteggere la nostra posizione e contrastare i pericoli per la democrazia e la libertà».

Il correlatore Dragos Tudorache (Renew, Romania) ha aggiunto: «La legge sull'intelligenza artificiale stabilirà uno standard a livello mondiale per lo sviluppo e la governance dell'intelligenza artificiale, assicurando che questa tecnologia - destinata a trasformare radicalmente le nostre società grazie agli enormi benefici che può offrire - si evolva e venga utilizzata nel rispetto dei valori europei della democrazia, dei diritti fondamentali e dello Stato di diritto».

(fonte: Diritto e Giustizia)

Vuoi leggere tutti i contenuti?

Attiva la prova gratuita per 15 giorni, oppure abbonati subito per poter
continuare a leggere questo e tanti altri articoli.