Il regolamento europeo sull'intelligenza artificiale. I principi generali

Roberto Cosio
Roberta Cosio
06 Settembre 2023

Lo scritto analizza l'art. 4-bis del Regolamento sull'intelligenza artificiale approvato dal Parlamento europeo il 14 giugno 2023. Il Parlamento, con questa disposizione innovativa, ha predisposto un elenco di principi generali. Gli Autori, dopo avere esaminato il contenuto di questi principi, propongono un loro inquadramento sul piano della teoria generale. Vengono, infine, analizzate le diverse funzioni che i principi generali dovranno assolvere sulla base di una distinzione tra il primo e il secondo paragrafo dell'art. 4-bis del citato regolamento.
Premessa: Il Regolamento sull'IA approvato dal Parlamento europeo

Le potenzialità dell' intelligenza artificiale [1] sono straordinarie: può migliorare l'assistenza sanitaria, ridurre il consumo di energia, prevedere i cambiamenti ambientali e climatici, migliorare la gestione dei rischi finanziari, contribuire a intercettare le frodi e le minacce di cybersicurezza e consentire alle forze dell'ordine di lottare con più efficacia contro la criminalità.

Ma l'intelligenza artificiale va governata [2].

La Commissione europea, il 21 aprile del 2021, ha formulato una Proposta di Regolamento che si basava su una serie di documenti elaborati nel triennio 2018- 2020. Tra gli altri si ricorda la strategia europea sull'IA (aprile 2018), le Linee guida per un' IA affidabile (aprile 2019) e l'Assesment List per l'IA affidabile elaborate dal Gruppo di esperti di alto livello dell'IA nominato dalla Commissione (“HLEG”), la creazione della AI Alliance, un primo piano coordinato sull'IA pubblicato nel dicembre 2018, il Libro Bianco della Commissione sull' IA, pubblicato nel febbraio 2020 e la consultazione pubblica sul Libro Bianco che ha avuto luogo da febbraio a giugno 2020.

In particolare, negli orientamenti etici per una IA affidabile (aprile 2019) veniva sottolineata la necessità di preservare la dimensioneumano-centrica” delle nuove tecnologie mentre l'EGE ribadiva l'importanza «che gli esseri umani – e non i computer e i loro algoritmi – debbano in definitiva mantenere il controllo, e quindi essere moralmente responsabili».

Il libro bianco della Commissione europea del 2020 sull'intelligenza artificiale sottolineava, infine, che «le caratteristiche specifiche di molte tecnologie di intelligenza artificiale (…) possono rendere difficile la verifica del rispetto e possono ostacolare l'effettiva applicazione delle norme del diritto Ue esistente per proteggere i diritti fondamentali».

La proposta di Regolamento [3] si basava su tre elementi portanti e un'idea di fondo.

Il primo elemento era il perimetro di applicazione. Esso mirava a raggiungere non solo i programmatori, produttori e fornitori localizzati nei Paesi europei ma prendeva a riferimento la circolazione del prodotto sul mercato europeo, qualunque sia il luogo della sua produzione.

Il secondo elemento era l'approccio regolatorio basato sul rischio [4]. La disciplina prevedeva un diverso trattamento giuridico dei sistemi di IA a seconda dei rischi potenziali per i diritti fondamentali, la sicurezza e la privacy dei cittadini europei. Venivano individuate tre categorie di rischio: i sistemi vietati (salvo eccezioni), la categoria dei sistemi ad alto rischio e i sistemi a basso o minimo rischio [5]. La parte più consistente della proposta del Regolamento era dedicata – comprensibilmente – alle applicazioni di IA ad alto rischio: ovvero a quelle pratiche che sono consentite, ma che per le loro caratteristiche presentano rischi elevati rispetto alla tutela dei diritti delle persone.

Il terzo elemento riguardava i sistemi di verifica del rispetto da parte delle applicazioni di IA dei requisiti sopra elencati. L'idea di fondo si basava su un approccio europeo antropocentrico che il Regolamento approvato dal Parlamento europeo ha confermato.

Come si legge nel considerando 1 del Regolamento approvato dal Parlamento europeo il 14 giugno 2023, lo scopo del provvedimento «è promuovere la diffusione di una intelligenza artificiale antropocentrica e affidabile e garantire un livello elevato di protezione della salute, della sicurezza, dei diritti fondamentali, della democrazia e dello Stato di diritto, nonché dell'ambiente, dagli effetti nocivi dei sistemi di intelligenza artificiale nell'Unione, sostenendo nel contempo l'innovazione e migliorando il funzionamento del mercato interno».

In estrema sintesi, l'obiettivo del Regolamento è bilanciare l'innovazione tecnologica con il rispetto dei diritti fondamentali.

Una “riserva di umanità”, come si legge in una recente monografia [6], dove deve essere chiara la contrapposizione tra intelligenza artificiale e coscienza: «La coscienza, intesa come consapevolezza della propria e altrui esistenza e delle conseguenze del proprio operato, resta così l'ultimo tratto davvero caratterizzante l'io e l'umano, che lo rende irriducibile ad una macchina. E la coscienza è il presupposto ineliminabile per il rapportarsi secondo morale ed etica in qualsiasi decisione (...) Ne discende che non è ammissibile che un'entità morale sia sottoposta al giudizio ed alla decisione di un'entità non morale o, comunque, incapace, come la macchina dotata di forme di intelligenza artificiale, di formulare giudizi morali».

La scelta di utilizzare un Regolamento per disciplinare la materia è strumentale all'esigenza di ridurre la frammentazione giuridica, evitando normative nazionali divergenti che ostacolino lo sviluppo di un mercato unico per sistemi di IA leciti, sicuri e affidabili [7].

Scelta non da tutti condivisa.

In primo luogo, perché si innesta su un impianto regolatorio tendenzialmente flessibile.

In secondo luogo, perché la fiducia nell'IA antropocentrica sembra cozzare «con l'obiettivo inconciliabile di accrescere la competitività del mercato europeo» [8].

Le obiezioni sembrano, però, superabili ove si consideri l'uso di concetti indeterminati contenuti nel Regolamento e la previsione di diversi meccanismi di riesame della disciplina che non attiene solo agli allegati ma, anche, alla revisione del regolamento che, nel caso della valutazione dei sistemi di IA ad alto rischio, ha cadenza annuale [9].

In questo contesto si colloca la previsione innovativa contenuta nell'art. 4-bis del Regolamento approvato dal Parlamento europeo che formula un catalogo di “principi generali”.

All'esame di tale disposizione è dedicata questa riflessione.

I sei principi generali

L'art. 4-bis del Regolamento sulla IA elenca sei principi generali.

Il primo principio, titolato “intervento e sorveglianza umani”, riprende l'approccio europeo antropocentrico che sta alla base della ratio del regolamento. I sistemi di IA sono sviluppati e utilizzati «come strumenti al servizio delle persone, nel rispetto della dignità umana e dell'autonomia personale».

I sistemi IA devono promuovere lo sviluppo di una società fiorente ed equa sostenendo, per un verso, i diritti fondamentali (primo fra tutti il rispetto della dignità umana) e senza limitare o fuorviare l'autonomia umana. La sorveglianza umana, in questo contesto, contribuisce a garantire che i sistemi IA non mettano in pericolo l'autonomia umana con l'adozione di meccanismi di controllo di varia natura che garantiscano un intervento umano, una supervisione umana o un mero controllo umano [10].

Il secondo principio, titolato “robustezza tecnica e sicurezza”, tende ad assicurare che gli algoritmi siano sicuri, affidabili e sufficientemente robusti da far fronte a errori e incongruenze durante tutte le fasi del ciclo di vita del sistema IA, oltre che essere adeguatamente capaci di gestire risultati sbagliati.

In particolare, i sistemi di IA dovrebbero contenere meccanismi di sicurezza fin dalla progettazione, per garantire che siano sicuri in modo verificabile in ogni fase, considerata la necessità di garantire la sicurezza fisica e mentale di tutte le persone coinvolte.

Principio che deve ispirare la lettura delle disposizioni in materia di sicurezza dei prodotti, impregiudicati gli obblighi nascenti in materia di protezione dei consumatori.

Il terzo principio, titolato “vita privata e governance dei dati”, tende ad assicurare la tutela della riservatezza e la protezione dei dati in tutte le fasi del ciclo della vita del sistema IA. Dal momento che l'intelligenza artificiale si basa sul trattamento di grandi volumi di dati è fondamentale il rispetto dell' art. 16 TFUE che sancisce il diritto alla protezione delle persone fisiche con riguardo al trattamento dei dati personali e prevede l'adozione di regole sulla protezione delle persone fisiche con riguardo al trattamento dei dati personali. Le registrazioni digitali del comportamento umano, infatti, possono consentire, anche indirettamente, di effettuare delle scelte discriminatorie.

Oltre alla salvaguardia della riservatezza e dei dati personali devono essere soddisfatti i requisiti necessari per garantire che i sistemi di IA siano di qualità elevata.

Il quarto principio, titolato “trasparenza” [11], intende garantire la tracciabilità dei sistemi IA. In questo contesto dovrebbe essere prevista, per quanto possibile, la spiegabilità del processo decisionale degli algoritmi.

Infine, è importante comunicare, opportunamente e in modo adeguato al caso in esame, le capacità e i limiti di sistema di IA ai diversi portatori di interessi coinvolti.

Il quinto principio, titolato “diversità, non discriminazione ed equità”, intende favorire i sistemi di IA utilizzati in modo da includere soggetti diversi e promuovere la parità di accesso, l'uguaglianza del genere e la diversità culturale.

Al contempo intende contrastare i sistemi di IA intrusivi che violano la dignità umana e presentano un elevato rischio di discriminazione.

Da questo punto di vista, il principio si pone in linea con l' art. 21 della Carta dei diritti fondamentali dell'Unione europea e con l'art. 9 del regolamento n. 2016/679.

Il sesto principio, titolato “benessere sociale e ambientale”, intende incoraggiare la sostenibilità e la responsabilità ecologica dei sistemi di IA.

L'impatto dei sistemi di IA dovrebbe essere considerato non solo da una prospettiva individuale, ma anche dal punto di vista della società nel suo complesso.

Va inoltre tenuto presente l'impatto sociale della IA.

I sistemi IA possono essere utilizzati per migliorare le competenze sociali, ma possono anche contribuire al loro deterioramento [12].

Esaminato il contenuto dei principi occorre verificare il loro inquadramento giuridico.

Inquadramento e funzioni

L'art. 4-bis si apre con una enunciazione di grande respiro: “Principi generali applicabili a tutti i sistemi di IA”.

Che si tratti di principi generali non appare dubbio. Perlomeno, per due ragioni.

In primo luogo, per l'espressa qualificazione del Legislatore europeo (si tratta di principi generali espressi [13]).

In secondo luogo, perché il loro contenuto ha carattereindeterminato” [14].

Il grado elevato di indeterminatezza dei principi enunciati nel 1 comma dell'art. 4-bis «li fa gravitare sul dover essere della situazione auspicata piuttosto che sul dover-fare dell'azione realizzatrice» [15].

In breve, alle regole «si ubbidisce (…) ai principi si aderisce» [16].

Questi principi devono essere intesi nel loro ethos, comprendendo il mondo di valori che è loro sotteso.

I principi generali enunciati nel primo comma dell'art. 4-bis richiamano, infatti, il catalogo di principi etici elaborati da un gruppo di esperti nel 2018. Codice etico che è stato “positivizzato” attraverso un catalogo di principi generali «applicabili a tutti i sistemi IA».

Un approccio europeo antropocentrico «coerente a una intelligenza artificiale etica e affidabile» (come recita il primo comma dell'art. 4-bis) che tutti gli operatori che rientrano nel raggio di azione del regolamento dovranno sviluppare e utilizzare “al massimo” delle loro possibilità.

Il carattere assiologico dei principi enunciati nel primo comma dell'art. 4-bis non è uguale per tutti. In alcuni casi (come nell'enunciazione del rispetto della dignità umana) si tratta di veri e propri principi fondamentali contraddistinti da una più elevata idealità assiologica.

Sono principi (in questo caso, fondamentali) che «sono proiettati verso il superamento medio della vita sociale e il miglioramento della sua qualità e si atteggiano come una sorta di escatologia mondana che orienta verso questo alto traguardo i comportamenti degli individui, delle formazioni sociali, delle istituzioni pubbliche» [17].

Dal punto di vista della metodologia del diritto siamo in presenza di principi dogmatici o assiologici che non hanno bisogno di alcuna giustificazione di ordine sostanziale [18].

A differenza di altri principi (come quello di trasparenza) che rientrano nei principi problematici (o dialettici) i quali forniscono «premesse verosimili, punti di partenza accettabili di argomentazioni di tipo dialettico, che concludono con un giudizio di preferenza tra più ipotesi possibili di soluzione di un caso concreto »[19].

Si tratta di principi generali dell'ordinamento dell'Unione europea il cui connotato fondante ha affaticato non poco la dottrina che ha studiato la materia.

Si pensi agli studi di John Usher, di Takis Tridimas o di Fabio Torello [20].

Ma come sottolineava il compianto maestro del diritto dell'Unione Giuseppe Tesauro [21] «le diverse espressioni utilizzate – principi generali, principi comuni o i brocardi ripresi da più antiche esperienze, come quelle del diritto romano, sembrano quasi voler sminuire la portata di tali principi sottolineandone l'origine estranea al diritto comunitario. È ben chiaro, viceversa, che la prospettiva non ha un serio fondamento. Si tratta ormai di principi propri del diritto comunitario a tutti gli effetti ed a titolo originario, che non sono affatto presi da altri sistemi giuridici; essendo forse la differenza più rilevante quella tra principi che nei trattati (ed oggi nella Carta) trovano riscontro e quelli che sono il risultato della rilevazione del giudice come accade nelle giurisprudenze nazionali che comunque sono assunti a parametri di legittimazione e quindi creatrici di diritti e obblighi»[22].

All'interno dell'art. 4-bis occorre, però, fare una distinzione.

I principi enunciati nel primo paragrafo dell'art. 4-bis non hanno una funzione accessoria rispetto alle “regole” che popolano il Regolamento. Essi hanno, in quanto principi espressi, una funzione interpretativa autonoma (che prescinde dalla ricaduta su precise disposizioni) al fine di assicurare una interpretazione adeguatrice, dell'intero corpus normativo del Regolamento all'obiettivo che si è proposto (bilanciare l'innovazione tecnologica con i diritti fondamentali).

Questi principi (che non prendono in considerazione un'azione conforme ad una fattispecie) impongono una presa di posizione in linea con il loro ethos di fronte «a tutte le non precisate né preventivamente precisabili evenienze concrete della vita in cui può essere sollevata, per l'appunto, una questione di principio» [23].

La funzione di questi principi, nell'economia del secondo paragrafo, è in parte diversa.

Per i sistemi ad alto rischio, sono “tradotti e rispettati” dai fornitori e dagli operatori mediante i requisiti di cui agli artt. da 8 a 15 e i pertinenti obblighi stabiliti al capo 3 del Titolo III del regolamento.

Per i modelli di base sono “applicati e rispettati” dai fornitori mediante i requisiti di cui agli articoli da 28 a 28-ter.

Per tutti i sistemi i IA, l'applicazione dei principi di cui al paragrafo 1 può essere conseguita, a seconda dei casi, mediante le disposizioni dell'art. 28 e dell'art. 52 o mediante l'applicazione di norme armonizzate, specifiche tecniche e codici di condotta di cui all'art. 69, senza creare nuovi obblighi a norma del presente regolamento.

Si tratta di una funzione suppletiva, integrativa o correttiva delle regole richiamate che si modula in modo diverso a seconda delle ipotesi contemplate [24].

Per i sistemi ad alto rischio il “rispetto” dei principi (da parte dei fornitori o degli operatori) è più accentuato riguardando non solo i requisiti di cui agli articoli da 8 a 15 ma anche i pertinenti obblighi stabiliti al capo 3 del Titolo III del regolamento.

Per i modelli di base il “rispetto” dei principi sembra essere limitato sotto l'aspetto soggettivo (ai soli fornitori) e quello oggettivo (con riferimento ai requisiti di cui agli articoli da 28 a 28-ter).

Per tutti i sistemi i IA, l'applicazione dei principi di cui al paragrafo 1 può essere conseguita, a seconda dei casi, mediante diverse modalità: attraverso le disposizioni dell'art. 28 e dell'art. 52 o mediante l'applicazione di norme armonizzate, specifiche tecniche e codici di condotta di cui all'art. 69.

In questo caso, però, viene espressamente esclusa la possibilità che dalla “applicazione” dei principi generali sorgano “nuovi obblighi” sulla base del Regolamento.

Ma i principi generali sono destinati ad operare in un sistema in “rete” che occorre esaminare.

Il sistema in rete in cui operano i principi generali

I principi generali devono essere applicati “in linea con la Carta e con i valori su cui si fonda l'Unione” (comma 1) e “impregiudicati gli obblighi stabiliti dal diritto dell'Unione e nazionale vigente” (comma 2).

Il riferimento alla Carta dei diritti fondamentali è fondamentale.

La dignità umana, come si legge nelle spiegazioni della Carta, «non è soltanto un diritto fondamentale in sé, ma costituisce la base stessa dei diritti fondamentali. (…) Ne consegue, in particolare, che nessuno dei diritti sanciti dalla Carta può essere usato per recare pregiudizio alla dignità altrui e che la dignità della persona umana fa parte della stessa sostanza dei diritti sanciti dalla Carta. Essa non può pertanto subire pregiudizio, neanche in caso di limitazione di un diritto».

La dignità umana è il vero centro dell'intero sistema della Carta e funge da pilastro dell'intero ordinamento dell'Unione europea. Di essa la Carta dice che “è inviolabile” e che “deve essere rispettata e tutelata”. Una sorta di “superdiritto” che è la stessa base dei diritti.

Non si tratta di una affermazione retorica. Basta scorrere le sentenze delle Alte Corti per rendersene conto.

Si pensi, a mero titolo di esempio, alle sentenze della Corte di giustizia relative ai casi Kreil [25], Scmidberger [26], Omega [27], K.B. [28], Richards [29] e Todaro Maruko [30].

O, sul versante nazionale, alla straordinaria sentenza della Corte costituzionale [31] che ha ammesso la responsabilità dello Stato tedesco, per l'eccidio di civili da parte delle truppe tedesche nel corso della Seconda guerra mondiale, che ha superato il principio di immunità [32].

Ma se questo è il cuore pulsante della Carta il suo braccio armato è il diritto antidiscriminatorio.

L'art. 21 della Carta ha codificato il principio generale di non discriminazione già presente nell'ambito dell'ordinamento dell'Unione europea grazia all'opera “creatrice” della Corte di giustizia che nella sentenza Mangold [33] ha tratto ispirazione dai trattati internazionali e dalle tradizioni costituzionali comuni.

Orientamento, relativo alle discriminazioni per ragioni di età, che si è consolidato nella sentenza Kucukdeveci [34].

Nella sentenza Association de mediation sociale [35] la Corte di giustizia ha poi chiarito che il principio di non discriminazione, sancito nell'art. 21 della Carta, «è di per sé sufficiente per conferire ai singoli un diritto soggettivo invocabile in quanto tale», con una conclusione che può essere estesa a tutti i motivi di discriminazione contemplati nell'art. 21 [36].

Ma il riferimento alla Carta non basta.

Il Regolamento sulla IA impone «che l'intelligenza artificiale e il suo quadro normativo siano sviluppati conformemente ai valori dell'Unione sanciti dall' art. 2 TUE» [37].

Come ricorda l'Avvocato generale Giovanni Petruzzella, in un recente saggio [38], «l'ultima tappa nella costante evoluzione dell' Unione europea porta a configurarla come una comunità di valori che sono soprattutto quelli consacrati dall' art. 2 TUE tra i quali spicca quello dello stato di diritto. Dall'Europa del mercato si è passati all'Europa dei diritti per poi giungere alla comunità dei valori, in un processo in cui ogni fase conserva ed arricchisce l'acquis della fase precedente».

Com' è noto l' art. 2 TUE ha delineato quali siano i valori dell'Unione: dignità umana, libertà, democrazia, uguaglianza, stato di diritto e rispetto dei diritti umani, stabilendo poi all' art. 7 una procedura ad hoc per la loro tutela.

A questi “valori” si ispira il Regolamento, riproponendo la loro rilevanza in varie parti del testo.

Ma il quadro normativo, in cui si innestano i principi generali, non è solo questo.

I principi generali, infatti, devono lasciare impregiudicati «gli obblighi derivanti dal diritto dell'Unione e nazionale vigente».

Si pensi al regolamento generale sulla protezione dei dati, alla direttiva sulla responsabilità dei prodotti, al regolamento sulla libera circolazione dei dati non personali, alle direttive antidiscriminatorie, al diritto dei consumatori e alle direttive in materia di salute e sicurezza sul lavoro.

Dovranno, poi, essere osservati gli obblighi derivanti dai trattati delle Nazioni unite in materia di diritti umani e la Convenzione europea dei diritti dell'uomo. Senza dimenticare le norme specifiche a taluni settori che si applicano a specifiche disposizioni dell'IA (ad esempio il regolamento sui dispositivi medici del settore sanitario).

A tali obblighi si aggiungono quelli previsti dal diritto nazionale.

Si pensi al rispetto della dignità umana (contenuto negli artt. 3, comma 1, 36 e 41, comma 2, Cost.) che costituisce la pietra angolare che ispira la Dichiarazione universale dei diritti dell'uomo e la stessa Carta di Nizza.

Ma il richiamo al diritto nazionale sarebbe incompleto senza un riferimento alla giurisprudenza.

La giurisprudenza amministrativa si è già confrontata su diversi problemi. La sentenza del Tar Lazio, 22 marzo 2017, n, 3769, ha ammesso, per la prima volta, l'accesso direttamente alla “espressione algoritmica”, al codice sorgente che gestisce il software relativo ai trasferimenti provinciali del personale docente [39].

In due sentenze del Consiglio di Stato, del 2019 (la n. 2270 dell' 8 aprile e la n. 8472 del 13 dicembre) viene, poi, chiarito il profilo dell'impugnazione di un «atto amministrativo (pienamente) informatico».

In sintesi, si afferma che la regola tecnica che governa ciascun algoritmo resta pur sempre una regola amministrativa generale, costruita dall'uomo e non dalla macchina, per poi essere applicata da quest'ultima.

Insomma, si tratta comunque di un atto amministrativo informatico, ma pur sempre soggetto alle regole del diritto pubblico.

Da tale affermazione discendono due regole. “L'atto amministrativo, in quanto tale: a) deve essere conoscibile in ogni aspetto e b) deve essere sindacabile da parte del giudice amministrativo”.

Affermazioni che vengono sviluppate, nella sentenza n. 8472/2019, che affronta il profilo dell'attività discrezionale della P.A. e il rapporto tra il procedimento regolato dall'algoritmo e i meccanismi della legge n. 241/1990 [40].

Non meno interessanti le suggestioni che provengono dalla dottrina e giurisprudenza lavoristica. Si pensi alla questione che sorge dall'automazione del ciclo produttivo delle imprese di logistica che si avvalgono dell'apporto di soggetti terzi in appalto.

La questione è la seguente: può un sistema automatizzato di gestione del ciclo produttivo aziendale consistente in un software di proprietà del committente, determinare l'imputazione dei poteri datoriali a quest'ultimo in luogo del formale titolare del rapporto di lavoro nel caso in cui le lavorazioni vengano svolte sulla base di un contratto di appalto?

Sul tema il Tribunale di Padova, in una sentenza del 3 marzo 2023, riafferma l'orientamento [41], che si sta consolidando nelle corti di merito, in base al quale se il committente è il proprietario e gestisce il programma che organizza l'attività dei lavoratori impiegati nell'appalto, deve essere considerato l'effettivo datore di lavoro.

Più in generale, occorre approfondire, come suggerito dalla dottrina [42], alcune questioni.

La prima attiene ai criteri di qualificazione dei rapporti di lavoro attivati tramite gli strumenti digitali, in particolare attraverso la gestione più o meno diretta delle piattaforme. Si tratta della nota questione circa la natura subordinata o meno dei loro rapporti, che, allo stato, non ha raggiunto soluzioni da tutti condivise [43].

La seconda attiene alla gestione algometrica del lavoro. Si pensi ai meccanismi di “scoring”, ampiamente impiegati nella prassi digitale, per selezionare gli aspiranti ad una posizione lavorativa che possono condurre alla mancata assegnazione di un posto di lavoro.

La terza questione attiene alle implicazioni della crescente dimensione sovranazionale dei lavori digitali, con ricadute sulla legge applicabile e all'individuazione delle giurisdizioni competenti.

All'interno di questo complesso quadro normativo operano i principi generali elencati nell'art. 4-bis del Regolamento sulla IA. Un sistema complesso nel quale convivono norme appartenenti a ordinamenti diversi.

Verso un sistema di sistemi

La Consulta, sul tema, ha formulato, di recente, affermazioni di grande rilievo.

La Corte costituzionale italiana ritiene di essere “competente” ad esaminare un caso in cui la materia non è regolata, completamente, dal diritto dell'Unione potendo sindacare gli eventuali profili di contrasto delle disposizioni nazionali con i principi enunciati dalla Carta [44].

«Quando è lo stesso giudice rimettente a sollevare questione di legittimità che investe anche le norme della Carta» la Corte non può esimersi dal valutare «se la disposizione infranga, in pari tempo, i principi costituzionali e le garanzie sancite dalla Carta».

L'integrarsi delle garanzie della Costituzione con quelle sancite dalla Carta determina, infatti, «un concorso di rimedi giurisdizionali, arricchisce gli strumenti di tutela dei diritti fondamentali e, per definizione, esclude ogni preclusione».

L'attuazione «di un sistema integrato di garanzie ha il suo caposaldo nella leale e costruttiva collaborazione tra le diverse giurisdizioni, chiamato – ciascuna per la propria parte – a salvaguardare i diritti fondamentali nella prospettiva di una tutela sistemica e non frazionata» [45].

Affermazioni di grande spessore che aiutano l'interprete ad affrontare l'esame di norme che appartengono a ordinamenti diversi.

Com'è noto, il rapporto tra gli ordinamenti nazionali e quello europeo è stato descritto in due modi.

La prima ricostruzione (dualistica) si deve alla famosa sentenza Granital (170/1984) che parla di sistemi «autonomi e distinti, ancorché coordinati»

.

A tale ricostruzione si contrappone la concezione monistica (basato su un rapporto unico, di tipo piramidale) che trova un manifesto nella sentenza Simmenthal.

Ma la contrapposizione fra le due impostazioni (monistica o dualista) è, in parte, venuta meno attraverso “segnali” che si colgono nell' evoluzione della giurisprudenza costituzionale.

Basti pensare alla sentenza n. 389/1989 della Consulta dove, con significativa variazione lessicale, si definivano i due ordinamenti come “coordinati e comunicanti”. L'uso del verbo comunicare è particolarmente felice. Gli ordinamenti si parlano attraverso le proprie Corti. Non è un dialogo a senso unico.

La fase ascendente pone le premesse di quella discendente; mentre quest'ultima traccia le coordinate per effettuare il bilanciamento finale degli interessi in gioco.

Insomma, credo che si stia facendo strada un “monismo interpretativo” allorché la Consulta tende a rileggere e reinterpretare il parametro costituzionale alla luce dei principi fondamentali dell'ordinamento comunitario.

Un' integrazione di “norme” più che di “fonti” che, progressivamente, costituisce un “sistema di sistemi”.

In questo contesto, il ruolo dei principi generali che il Regolamento europeo ha enunciato nella regolamentazione dell'intelligenza artificiale è fondamentale.

È attraverso questo strumento (il ricorso ai principi generali) che l'interprete potrà orientarsi nel dedalo delle norme che regolano i vari aspetti della materia.

Ed è sempre in base ad essi che sarà possibile adeguare l'interpretazione delle disposizioni, nazionali (ma, anche, dello stesso ordinamento europeo) ai “valori etici” che la disciplina del Regolamento ha positivizzato.

Note

* Roberta Cosio, Avvocato e Dottore di ricerca in Diritto civile presso l'Università Ca' Foscari di Venezia; Roberto Cosio, Avvocato Giuslavorista presso il foro di Catania. Il contributo è frutto di una riflessione comune. Tuttavia, i paragrafi dal n. 1 al n. 4 sono da attribuire a Roberta Cosio, mentre il n. 5 a Roberto Cosio.

[1] Non esiste una definizione generalmente condivisa di IA (cfr. S.J. RUSSELL, P. NORVIG, Artificial intelligence. A Modern Approach, 4 ed., Pearson, 2021, 1 ss.). Il primo paragrafo dell'art. 3 del Regolamento approvato dal Parlamento europeo definisce il “sistema di intelligenza artificiale” come un “sistema automatizzato progettato per operare con livelli di autonomia variabili e che, per obiettivi espliciti o impliciti, può generare output quali previsioni, raccomandazioni o decisioni che influenzano gli ambienti fisici e virtuali”. Vi sono, comunque, due distinzioni che è bene tenere presenti. La prima è quella tra algoritmo e software. L'algoritmo è una procedura computazionale per l'ottenimento di un valore in uscita (l'output) a partire da uno o più valori in ingresso (imputs); il programma (software) è, invece, la trascrizione dell'algoritmo in un linguaggio di programmazione (sul tema si veda V. DARDANO, I limiti nell'utilizzo delle decisioni automatizzate e la legalità algoritmica, amministrativamente.com, n. 2/2023). La distinzione è importante perché la lettura del software richiede un “linguaggio di programmazione sintatticamente preciso” (cfr. S. CRAFA, Dalle competenze alla consapevolezza digitale: capire la complessità e la non neutralità del software, in P. MORO (a cura di), Etica, diritto, tecnologia, Milano, 2021, 6). La seconda attiene alla differenza tra algoritmi tradizionali e algoritmi “intelligenti” (machine-learnings). Il Consiglio di Stato (Cons. St., sez. III, 25 novembre 2021, n. 7891) ha chiarito che l'algoritmo deterministico è “semplicemente una sequenza finita di istruzioni, ben definite e non ambigue, così da poter essere eseguite meccanicamente e tali da produrre un determinato risultato”, mentre il machine-learnings “crea un sistema che non si limita solo ad applicare le regole del software e i parametri preimpostati (come fa l'algoritmo tradizionale) ma, al contrario, elabora costantemente nuovi criteri di inferenza tra dati e assume decisioni efficienti sulla base di tali elaborazioni, secondo un processo di apprendimento automatico”.

[2] Sul rapporto tra IA e diritto si veda A. D'ALOIA (a cura di), Intelligenza artificiale e diritto. Come regolare un mondo nuovo, Milano, 2020; G. ALPA Diritto e intelligenza artificiale. Profili generali, soggetti, contratti, responsabilità civile, diritto bancario e finanziario, processo civile, Pisa, 2020; G. C. FERONI, C. FONTANA, C. RAFFIOTTA (a cura di), AI, Anthology. Profili giuridici, economici e sociali dell'intelligenza artificiale, Bologna, 2022; G. SARTOR, L'intelligenza artificiale e il diritto, Torino, 2022.

[3] Sul tema si veda C. CASONATO, B. MARCHETTI, Prime osservazioni sulla proposta di regolamento dell'Unione europea in tema di intelligenza artificiale,BioLaw Journal – Rivista di Biodiritto, 3, 2021, 415 e I.P. DI CIOMMO, La prospettiva del controllo nell'era dell'intelligenza artificiale: alcune osservazioni sul modello human In The Loop, in Federalismi.it, 19 aprile 2023.

[4] Lo schema della gestione del rischio non rappresenta una novità nel panorama normativo europeo, come si desume dal modello prescelto nell'ambito della strategia per il mercato unico digitale in Europa. Sia il Regolamento sulla protezione dei dati personali sia il Digital Services Act condividono l'approccio basato sul rischio. Sul tema si veda G. FINOCCHIARO, L. GRECO, Il ruolo di titolare, responsabile e contitolare del trattamento dei dati personali tramite intelligenza artificiale, in A. PAJNO, F. DONATI, A. PERRUCCI (a cura di), Intelligenza artificiale e diritto: una rivoluzione?,Vol. I, Bologna, 2022, 313, e G. DE GREGORIO, P. DUNN, O. POLLICINO, A partire dalla strategia di mercato Unico digitale, l'approccio basato sul rischio è stato applicato in tutte le principali normative Ue: analizziamo le analogie e le differenze tra GDPR, DSA e Ai Act,15 settembre 2022.

[5] I sistemi ad “alto rischio” sono soggetti a regole uniformi volte ad evitare che arrechino pregiudizi agli interessi pubblici tutelati dal diritto UE. I sistemi a “rischio limitato” sono liberi, salvi gli obblighi di trasparenza, mentre quelli a “rischio minimo” rappresentano una categoria residuale che non è sottoposta a particolari oneri, salvo l'adozione di codici di condotta.

[6] G. GALLONE, Riserva di umanità e funzioni amministrative, Padova, 2023.

[7] La scelta del Regolamento in luogo della Direttiva comporta la creazione di vincoli uniformi e direttamente applicabili su tutto il territorio dell'Unione europea.

[8] I.P. DI CIOMMO, La prospettiva del controllo nell'era dell'intelligenza artificiale, cit., 86.

[9] Si veda l'emendamento n. 137 del Regolamento.

[10] Nell'approccio con “intervento umano” si prevede una costante interazione uomo/macchina. L'approccio “con supervisione umana” assicura un controllo minimo, in fase di progettazione o di monitoraggio del sistema. L'approccio con “controllo umano” consente un monitoraggio costante sul sistema, lasciando ampia discrezionalità al supervisore. Sul tema si veda Commissione europea, Libro Bianco sull'intelligenza artificiale. Un approccio europeo all'eccellenza e alla fiducia (COM 2020/65 final), 19 febbraio 2020, 21-23.

[11] È oggetto di dibattito se la trasparenza operi solo ex ante, ossia in un momento antecedente al trattamento automatizzato, ovvero sia tale da imporre al titolare del trattamento di fornire una specifica giustificazione sulla decisione finale assunta dal sistema, in funzione di garanzia ex post; sul tema si veda E. LONGO, I processi decisionali automatizzati e il diritto di spiegazione, in A. PAJNO, F. DONATI, A. PERRUCCI (a cura di) Intelligenza artificiale e diritto: una rivoluzione?, cit., 349 ss.

[12] Sulla importanza dei principi di conoscibilità, non esclusività e non discriminazione si veda A. SIMONCINI, L'algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà, in BioLaw Journal – Rivista di Biodiritto, 2019, n. 1, 63 ess.

[13] R. GUASTINI, Interpretare e argomentare, Milano, 2011, 185.

[14] R. GUASTINI, Interpretare e argomentare,cit., 177.

[15] A. FALZEA, Relazione introduttiva, I principi generali del diritto,Atti dei convegni dei Lincei, Roma 27-29 maggio 1991, Milano, 1992, 17.

[16] G. ZAGREBELSKY, Il diritto mite, Torino, 1992, 149.

[17] A. FALZEA, Relazione introduttiva, cit., 25.

[18] L. MENGONI, I principi generali del diritto e la scienza giuridica, Atti dei convegni dei Lincei, Roma 27-29 maggio 1991, cit., 319.

[19] L. MENGONI, I principi generali del diritto e la scienza giuridica, cit., 321.

[20] Sul tema si veda G. ALPA, I principi generali, Milano, 2006, 214-216.

[21] G. TESAURO, Diritto comunitario, Padova, 2008, 88.

[22] Per la ricostruzione della giurisprudenza della Corte di giustizia si veda G. BRONZINI, I principi generali del diritto dell'Unione dopo il Trattato di Lisbona. Una più salda inderogabilità attraverso la Carta dei diritti, in Tutela del lavoro ed esigenze dell'impresa, (a cura di S. PAGANO e G. NICOSIA), Bari, 2022. Si è, peraltro, precisato “che le tradizioni costituzionali comuni di uno o più Stato membri non si possono ritenere di per sé, singolarmente considerate, né limiti inderogabili alle norme dell'Unione, né vincolanti per quel che concerne l'interpretazione della Carta. Esse infatti (come precisato all'art. 6) vengono in gioco in quanto “principi generali” dell'ordinamento dell'Unione e come tali soggetti all'interpretazione della Corte di giustizia. Solo quest'ultima ha il potere, da un lato di riconoscerle come “comuni” e dunque innalzarli a principi generali dell'ordinamento dell'Unione, e dall'altro di accertarne, nel caso concreto, la capacità di fungere come deroga all'applicazione del diritto dell'Unione. Le Corti costituzionali possono dunque indicare alla Corte di giustizia (come sta facendo ora la Consulta, facendo la “propria parte”) quelle che ritengono essere le tradizioni, ma non hanno il potere di decidere se ed in quali casi siano da considerarsi come principi generali dell'ordinamento dell'Unione. È solo alla Corte di giustizia che spetta infatti di definire il carattere comune che è appunto la condizione per trasformare fonti esterne in una fonte interna dell'Unione” (cfr. L. S. ROSSI, M.A.S. e M.B. e la Torre di Babele: alla fine le Corti si comprendono… parlando lingue diverse, in (a cura di) C. AMALFITANO), Primato del diritto dell'Unione europea e contro limiti alla prova della “saga Tarricco”, Milano, 2018, 158. Più in generale si veda A. VON BOGDANDY, I principi fondamentali dell'Unione europea, Un contributo allo sviluppo del costituzionalismo europeo, Napoli, 2011.

[23] G. ZAGREBELSKY, Il diritto mite, 160.

[24] R. GUASTINI, Interpretare e argomentare, 191-196.

[25] CGUE, 11 gennaio 2000, C-285/98.

[26] CGUE, 12 giugno 2003, C-112/00.

[27] CGUE, 4 ottobre 2004, C-36/02.

[28] CGUE, 7 gennaio 2004, C-117/01.

[29] CGUE, 27 aprile 2006, C-423/04.

[30] CGUE, 1° aprile 2008, C-267/06.

[31] C. cost., 22 ottobre 2014, n. 238.

[32] In un quaderno curato dalla stessa Corte costituzionale, come ricorda G. ALPA, La costruzione giuridica della dignità umana, in R. MASTROIANNI, O. POLLICINO, S. ALLEGREZZA, F. PAPPALARDO, O. RAZZOLINI (a cura di), Carta dei diritti fondamentali dell'Unione europea, Milano, 2017, 23, sono raccolte molte sentenze in cui i giudici della Consulta hanno fatto impiego del principio della dignità umana.

[33] CGUE 22 novembre 2005, C-144/04.

[34] CGUE 19 gennaio 2010, C-555/07.

[35] CGUE 15 gennaio 2004, C- 176/12.

[36] Sul tema si veda C. FAVILLI, Quadro generali, in R. MASTROIANNI, O. POLLICINO, S. ALLEGREZZA, F. PAPPALARDO, O. RAZZOLINI (a cura di), Carta dei diritti fondamentali dell'Unione europea, cit., 419.

[37] Emendamento n. 15 al Regolamento.

[38] G. PITRUZZELLA, L'Unione europea come “comunità dei valori” e la forza costituente del valore dello stato di diritto,in Federalismi.it, 15 dicembre 2021.

[39] Sul tema si vedano le osservazioni, anche critiche, di D. DIACO, Brevi riflessioni sulla natura giuridica del softwere (a partire da Tar Lazio, sez. III, bis, n. 8384/2023), in giustiziainsieme.it, 26 luglio 2023.

[40] Sul tema si veda L. CARBONE, L'algoritmo e il suo giudice, in giustiziaamministrativa.it, 10 gennaio 2023.

[41] Sul tema si veda L. NANNIPIERI, Eterodirezione “algoritmica” negli appalti della logistica. Verso un quadro giurisprudenziale in mutamento, Rivista italiana di informatica e diritto, fasc. 1-2023. Sulla sentenza del Tribunale di Padova del 16 luglio 2019, n. 550 si veda A. INGRAO, Marchandage du travail tra appalto e distacco illeciti. Quando il datore di lavoro è un softwer nella logistica 4.0, in Riv. it. dir. lav., 2020, 2, 105 ss. Sulla giurisprudenza amministrativa e quella di lavoro si veda A. SIMONCINI, Il linguaggio dell'intelligenza artificiale e la tutela costituzionale dei diritti, in Rivista AIC, 12 aprile 2023, n. 2.

[42] T. TREU, La digitalizzazione del lavoro: proposte europee e piste di ricerca, in Federalismi.it, 23 marzo 2022.

[43] Sul tema si veda G. MAMMONE, Intelligenza artificiale e rapporto di lavoro tra robot e gig economy. Ci salveranno i giudici e l'Europa ?, in Lavoro diritti europa, 2013, n. 1.

[44] Sul tema, con riferimento al diritto spagnolo, si veda F.B. CALLEJON, Controllo di costituzionalità e relazioni tra ordinamenti, in Federalismi.it, 2 febbraio 2022.

[45] Per una ricostruzione della giurisprudenza della Consulta si veda Lupo, Con quattro pronunce dei primi mesi del 2019 la Corte costituzionale completa il suo rientro nel sistema a rete di tutela dei diritti,in Federalismi.it, 2019, n. 13. Più di recente si vedano le sentenze Corte cost., n. 182/2020 e Corte cost., 30 aprile 2021, n. 84.