Intelligenza artificiale: prime osservazioni sui profili lavoristici nel disegno di legge approvato dal Governo

13 Giugno 2024

Il disegno di legge approvato dal Consiglio dei Ministri nella seduta del 23 aprile 2024 per l’introduzione di disposizioni e delega al Governo in materia di intelligenza artificiale interviene con norme che riguardano settori quali la strategia nazionale, le autorità nazionali, le azioni di promozione, la tutela del diritto di autore, le sanzioni penali. Il focus prende in esame i principi generali e le disposizioni sull’utilizzo dell’intelligenza artificiale in materia di lavoro contenute nel disegno di legge in attesa di pubblicazione sulla Gazzetta Ufficiale.

Premessa

L’Italia, sulla tormentata materia dell’intelligenza artificiale (Sul tema si v. R. COSIO, L’intelligenza artificiale nel labirinto normativa, in Vita Forense, gennaio-aprile 2024), batte un colpo.

Il Consiglio dei Ministri, nella seduta del 23 aprile 2024, ha approvato un disegno di legge per l’introduzione di disposizioni e la delega al Governo in materia di intelligenza artificiale.

Il disegno di legge individua criteri regolatori capaci di riequilibrare il rapporto tra le opportunità che offrono le nuove tecnologie e i rischi legati al loro uso improprio, introducendo norme di principio e disposizioni di settore che, da un lato, promuovano l’utilizzo delle nuove tecnologie per il miglioramento delle condizioni di vita dei cittadini e, dall’altro, forniscano soluzioni per la gestione del rischio fondate su una visione antropocentrica.

Le norme intervengono in cinque ambiti: la strategia nazionale, le autorità nazionali, le azioni di promozione, la tutela del diritto di autore, le sanzioni penali.

Importanti le disposizioni in materia di lavoro che intendono migliorare le condizioni di lavoro, tutelare l’integrità psicofisica dei lavoratori, accrescere la qualità delle prestazioni lavorative e la produttività delle persone in conformità al diritto dell’Unione europea. Grande attenzione viene prestata al principio di non discriminazione in totale assonanza con quanto previsto nel Regolamento europeo.

Il disegno di legge, in attesa della sua pubblicazione nella Gazzetta Ufficiale, viene esaminato limitatamente ai principi generali e alle disposizioni in materia di lavoro.

I principi generali

I principi generali sono enunciati nell’art. 3.

Che si tratti di principi generali “espressi” non vi è dubbio per l’espressa qualificazione del Legislatore italiano e il loro carattere “indeterminato” (v. R. GUASTINI, Interpretare e argomentare, Milano, 2011, 177).

L’art. 3 si apre con una disposizione di “cornice”: “l’applicazione e l’utilizzo di sistemi e modelli di intelligenza artificiale avvengono nel rispetto dei diritti fondamentali e delle libertà previste dalla Costituzione, del diritto dell’Unione Europea e dei principi di trasparenza, proporzionalità, sicurezza, protezione dei dati personali, riservatezza, accuratezza, non discriminazione, parità di sessi e sostenibilità”.

È questa la rete normativa che, in armonia con il Regolamento, si deve osservare nell’applicazione e utilizzo di sistemi di intelligenza artificiale.

Nello sviluppo di questi sistemi “deve essere garantita e vigilata la correttezza, l’attendibilità, la sicurezza, la qualità, l’appropriatezza e la trasparenza, secondo il principio di proporzionalità in relazione ai settori nei quali sono utilizzati”.

Affermazioni che richiamano, non solo quanto enunciato nel Regolamento europeo, ma anche alcuni dei principi, più volte, enunciati dalla Corte di giustizia.

I sistemi e i modelli di intelligenza artificiale, prosegue il terzo comma, “devono essere sviluppati ed applicati nel rispetto della autonomia e del potere decisionale, della prevenzione del danno, della conoscibilità, della spiegabilità e dei principi di cui al comma 1”.

Viene, quindi ribadita la visione antropocentrica fatta propria dal Regolamento europeo con un rinvio, sul piano sistematico, ai principi contenuti nel primo comma della deposizione.

Molto importante il quarto comma che stabilisce che “l’utilizzo di sistemi di intelligenza artificiale non deve pregiudicare lo svolgimento con metodo democratico della vita istituzionale politica”.

Il quinto comma ribadisce l’approccio basato sul rischio (in armonia con le scelte del Legislatore europeo) ribadendo la necessità dell’adozione di specifici controlli di sicurezza, anche al fine di assicurarne la resilienza contro tentativi di alterarne l’utilizzo, il comportamento previsto, le prestazioni o le impostazioni di sicurezza”   

Il sesto comma garantisce “alle persone con disabilità il pieno accesso ai sistemi di intelligenza artificiale” in conformità alle disposizioni della Convenzione delle Nazioni Unite sui diritti delle persone con disabilità, fatta a New York il 13 dicembre 2006, ratificata e resa esecutiva ai sensi della legge 3 marzo 2009, n. 18.

Interessante, in questo contesto, sarà la lettura sistematica di questo comma con la risoluzione approvata dall’assemblea generale delle Nazioni Unite, in data 21 marzo 2024, sponsorizzata dagli Stati Uniti e approvata da 123 Paesi (compresa la Cina) che ha elaborato delle linee guida per “cogliere le opportunità dei sistemi di intelligenza artificiale sicuri, potetti e affidabili per lo sviluppo sostenibile”.

L’esame complessivo dell’art. 3 del disegno di legge consente di formulare alcune osservazioni.

La prima attiene alla scelta tra principi e regole.

Il Legislatore italiano ha scelto di fissare norme di principio, prive di fattispecie, attraverso concetti “aperti” (sul tema si v. R. GUASTINI, Interpretare e argomentare, cit., 177-179) che consentono a chi dovrà applicarli un notevole margine di manovra, non solo sul piano interpretativo ma, anche su quello dell’integrazione delle lacune del testo.

In sintesi, ha scelto la via dei “principi” (ai quali si aderisce) anziché quello delle regole (alle quali si ubbidisce) (v. G. Zagrebelsky, Diritto allo specchio Torino, 2018, 233).

Si tratta di una impostazione diversa dal Regolamento europeo che, nell’ultima stesura, ha scelto la via della fissazione di regole (ancorché integrata dall’esistenza di principi inespressi).

La seconda osservazione attiene alla fissazione dell’obiettivo che si basa (come nel regolamento europeo) su una visione antropocentrica, senza, però, i riferimenti alla “tutela dell’ambiente” che risulta un obiettivo centrale nel testo del regolamento.

Resta, però, il fatto che la lettura dei principi nazionale deve essere effettuata nel rispetto della nostra Costituzione che, con la novella del 2022, ha posto al centro del sistema costituzionale la tutela dell’ambiente.

Le norme in materia di lavoro

Le disposizioni in materia di lavoro contenute nel disegno di legge meritano particolare attenzione.

Il primo comma dell'art. 10 sancisce che:

“L'intelligenza artificiale è impiegata per migliorare le condizioni di lavoro, tutelare l'integrità psico-fisica dei lavoratori, accrescere la qualità delle prestazioni lavorative e la produttività delle persone in conformità al diritto dell'Unione europea”.

La disposizione non contiene né regole né principi ma solo “programmi” (sulla distinzione tra regole, principi e programmi si v. G. Zagrebelsky, Diritto allo specchio, cit., 230) che indicano delle mete da raggiungere attraverso attività teleologicamente orientate (cfr. J. HABERMAS, Fatti e norme, Milano, 2013, 302 ss.).

La genericità delle nozioni utilizzate (miglioramento delle condizioni di lavoro, accrescimento della produttività) lascia grande discrezionalità all'interprete (lo sottolinea E. DAGNINO, Verso una regolazione dell'intelligenza artificiale: prime note sui profili lavoristici del disegno di legge di iniziativa governativa, in Bollettino Adapt, 13 maggio 2024, n. 19).

Discrezionalità che può essere (almeno in parte) colmata con l'utilizzo dei principi generali esaminati nel paragrafo precedente.

Il secondo comma dell'art. 10 prevede:

L'utilizzo dell'intelligenza artificiale in ambito lavorativo deve essere sicuro, affidabile, trasparente e non può svolgersi in contrasto con la dignità umana né violare la riservatezza dei dati personali. Il datore di lavoro o il committente è tenuto ad informare il lavoratore dell'utilizzo dell'intelligenza artificiale nei casi e con le modalità di cui all' 1-bis del decreto legislativo 26 maggio 1997, n. 152”.

La disposizione esprime due norme (Sul tema si v. R. GUASTINI, Interpretare e argomentare, cit., 65-67).

La prima, contenuta nella prima parte della disposizione, richiama concetti e nozioni già contenute nel Regolamento europeo.

La seconda, contenuta nella seconda parte della disposizione, richiama i doveri di informazione contenuti nel Decreto trasparenza che si riferisce a “sistemi decisionali o di monitoraggio integralmente automatizzati deputati a fornire indicazioni rilevanti ai fini della assunzione o del conferimento dell'incarico, della gestione o della cessazione del rapporto di lavoro, dell'assegnazione di compiti o mansioni nonché indicazioni incidenti sulla sorveglianza, la valutazione, le prestazioni e l'adempimento delle obbligazioni contrattuali dei lavoratori” (art. 1-bis, comma 1, come modificato dal d.l. n. 48/2023, conv., con modif., in l. n. 85/2023).

Il richiamo al Decreto trasparenza richiede due precisazioni.

La prima attiene al fatto che il richiamo esplicito a tale fonte non può certo escludere l'applicazione di altre fonti quali:

- il GDPR che si riferisce a sistemi decisionali automatizzati che sottopongono l'interessato “a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla persona” (art. 22 Regolamento n. 679/2016);

- la normativa sul lavoro tramite piattaforma dei rider che definisce le piattaforme digitali con riferimento (a) “i programmi e le procedure informatiche utilizzati dal committente che, indipendentemente dal luogo dello stabilimento, sono strumentali alle attività di consegna dei beni, fissandone il compenso e determinando le modalità di esecuzione della prestazione” (art. 47-bis, comma 2, del d.lgs. n. 81/2015);

- l'art. 4 dello Statuto dei lavoratori che regola i controlli effettuati mediante “impianti audiovisivi” e “altri strumenti dai quali derivi anche la possibilità di controllo a distanza dell'attività dei lavoratori” (comma 1), esclusi gli strumenti utilizzati dal lavoratore per rendere la prestazione lavorativa e gli strumenti di registrazione degli accessi e delle presenze” (comma 2).

La seconda precisazione attiene al fatto che non tutti i “sistemi automatizzati” rientrano nel raggio di azione della norma, dovendosi escludere i sistemi informatici che “utilizzano regole definite unicamente da persone fisiche per eseguire operazioni in modo automatico” senza spingersi sul terreno più complesso dei sistemi di intelligenza artificiale che invece implicano “elementi di autonomia” (sul tema si v. S. CIUCCIOVINO, La disciplina nazionale sulla utilizzazione della intelligenza artificiale nel rapporto di lavoro, in lavorodirittieuropa.it, 2024, n. 1, 9-15).

Il terzo comma dell'art. 10 prevede che:

L'intelligenza artificiale nell'organizzazione e nella gestione del rapporto di lavoro garantisce l'osservanza dei diritti inviolabili del lavoratore senza discriminazioni in funzione di sesso, dell'età, delle origini etniche, del credo religioso, dell'orientamento sessuale, delle opinioni politiche e delle condizioni personali, sociali ed economiche, in conformità con il diritto dell'Unione europea”.

Il terzo comma ribadisce la centralità della tutela antidiscriminatoria nell'utilizzo degli algoritmi.

Basti pensare al famoso caso Amazon dove emerse che l'algoritmo utilizzato per automatizzare il processo di reclutamento del personale discriminava le donne (J. DASTIN, Amazon scraps secret AI recruiting tool that showed bias against women, Reuters, 2018).

Più di recente, si pensi all'uso dell'algoritmo Frank nel caso Deliveroo portato all'attenzione del Tribunale di Bologna (Trib. Bologna 31 dicembre 2020, in Riv. it. dir. lav., 2021, n. 2, II, 175 con nota di G. GAUDIO).

L'algoritmo Frank, in questo caso, era stato programmato per incentivare la partecipazione e premiare l'affidabilità dei riders, penalizzando, in termini di future occasioni di lavoro, chi si astenesse dal lavoro senza preavviso; circostanza che aveva prodotto l'effetto collaterale di renderlo indirettamente discriminatorio per ragioni sindacali poiché “nel trattare allo stesso modo chi non partecipa alla sessione prenotata per futili motivi e chi non partecipa perché stata scioperando (…) in concreto discrimina quest'ultimo” (Trib. Bologna, 31 dicembre 2020, cit.). 

In sostanza, il Tribunale di Bologna ha ritenuto che tale sistema desse luogo a una “discriminazione indiretta, dando applicazione ad una disposizione apparentemente neutra (la normativa contrattuale sulla cancellazione anticipata delle sessioni prenotate) che però metteva “una determinata categoria di lavoratori (quelli partecipanti ad iniziative sindacali di astensione dal lavoro) in una posizione di potenziale particolare svantaggio” (Trib. Bologna, 31 dicembre 2020, cit. Sul tema si v., ampiamente, G. GAUDIO, Le discriminazioni algoritmiche, in lavorodirittieuropa.it, 2024, n. 1).

Sul tema è fin troppo agevole prevedere un contenzioso complesso.

Vuoi leggere tutti i contenuti?

Attiva la prova gratuita per 15 giorni, oppure abbonati subito per poter
continuare a leggere questo e tanti altri articoli.