Regolamento europeo sull’intelligenza artificiale: l’AI Act
20 Dicembre 2023
L’obiettivo dell’AI Act è garantire che l’intelligenza artificiale in Europa sia sicura e rispetti i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale, consentendo al contempo alle imprese che intendono investire nel settore la possibilità di crescere e innovarsi rendendo l’Europa leader in questo campo. La rilevanza dell’accordo è data dal fatto che si tratta della prima legge al mondo sull’intelligenza artificiale, concepita, tra l’altro, con il preciso intento di guidarne lo sviluppo e l’evoluzione in una direzione incentrata sull’uomo. Quali sono i punti principali dell’accordo? L’accordo raggiunto riguarda in generale i seguenti punti:
Che tipo di approccio ha l’AI act? L'approccio della disciplina europea è basato sul rischio (risk-based): i sistemi di AI sono, cioè, classificati in base al loro rischio. A ogni livello vengono associati obblighi precisi e stringenti per i fornitori e gli sviluppatori di tali sistemi. L’AI Act in particolare individua 4 livelli di rischio:
Quando il rischio è considerato inaccettabile? Riconoscendo la potenziale minaccia ai diritti dei cittadini e alla democrazia portate da determinati sistemi di AI, nel regolamento si intende vietare:
Il caso particolare dei sistemi di identificazione biometrica Il regolamento contiene anche una serie di garanzie ed eccezioni per limitare l’uso di sistemi di identificazione biometrica (RBI) da parte delle forze dell’ordine. Tale utilizzo è consentito in spazi accessibili al pubblico e per scopi di contrasto solo a seguito di autorizzazione giudiziaria e per una serie di reati gravi rigorosamente individuati e definiti. L’RBI può essere utilizzato nella ricerca mirata di una persona condannata o sospettata di aver commesso un reato grave. L'RBI utilizzata in tempo reale deve rispettare condizioni rigorose e il suo utilizzo è limitato nel tempo e nel luogo e consentito solo per:
Quando il rischio è alto? I sistemi di AI identificati come ad alto rischio a causa del loro significativo potenziale danno alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto, sono sintetizzati nella tabella seguente.
Obblighi da osservare in caso di rischio alto Per i sistemi di AI classificati come ad alto rischio sono stati concordati degli obblighi ulteriori rispetto a quelli di trasparenza, stesura di documentazione tecnica, rispetto della normativa UE sul diritto d'autore e diffusione di riepiloghi dettagliati sui contenuti utilizzati per la formazione, previsti in generale dalla disciplina. Essi, infatti, possono essere messi sul mercato solo a condizione che siano rispettati gli obblighi rigorosi indicati nella seguente tabella.
Fino a quando non verranno pubblicate le norme del regolamento, i sistemi di AI ad alto rischio potranno fare affidamento su dei codici di condotta sviluppati dall'industria, dalla comunità scientifica e dalla società civile insieme alla Commissione. Quando il rischio è limitato? Il rischio limitato si riferisce ai sistemi di AI come i chatbot. Essi devono rispettare specifici obblighi di trasparenza: quando si utilizzano tali sistemi gli utenti devono essere informati del fatto che stanno interagendo con un sistema non umano, in modo da poter decidere in maniera consapevole se continuare o terminare l’interazione. Quando il rischio è minimo o nullo? Il rischio minimo interessa la stragrande maggioranza dei sistemi di AI attualmente utilizzati nell'UE, come quelli di raccomandazione, i filtri antispam o i videogiochi abilitati per l’intelligenza artificiale. Tali sistemi non hanno praticamente obblighi perché presentano un rischio nullo o trascurabile per i diritti o la sicurezza dei cittadini. Tuttavia, le aziende possono impegnarsi a rispettare codici di condotta aggiuntivi. Misure a sostegno dell'innovazione e delle PMI L’AI Act intende inoltre garantire che le imprese, e in particolare le PMI, possano sviluppare soluzioni di intelligenza artificiale senza indebite pressioni da parte dei giganti del settore. A tal fine, l’accordo promuove i c.d. sandbox normativi istituiti dalle autorità nazionali per sviluppare e formare un’AI innovativa prima del collocamento sul mercato. I sandbox sono ambienti in cui le aziende possono sperimentare nuovi prodotti o servizi tecnologici sotto la supervisione delle autorità di settore, per un periodo limitato, e con la possibilità di beneficiare di deroghe alle norme vigenti. Quali sono le prossime tappe? Le reali tempistiche del Regolamento sull’AI non sono ancora note né facili da prevedere. Presumibilmente le prossime tappe saranno le seguenti:
Per superare questo lungo periodo di transizione, la Commissione ha dichiarato di voler lanciare un Patto per l'IA. Con esso gli sviluppatori di IA si impegnano su base volontaria ad attuare gli obblighi principali dell’AI Act prima della sua entrata in vigore. (Fonte: Diritto e Giustizia) |