AI act e rapporto di lavoro. La prospettiva del legislatore italiano

04 Novembre 2024

L'interprete giuridico e quello giudiziario affrontano sfide complesse di fronte all'incremento dell'intervento legislativo ed europeo nell'era digitale e dell'AI. L'UE cerca di delineare i principi guida comuni per la normativa di settore, mirando all'autodeterminazione delle persone e alla protezione dei diritti fondamentali. Tuttavia, il caos normativo potrebbe favorire gli oligopoli tecnologici globali, sollevando interrogativi sulla necessità di ulteriori regolamentazioni interne. Nel settore giuslavoristico, le disposizioni dell' AI act possono richiedere interventi nazionali per tutelare i diritti dei lavoratori, mantenendo il chiaro obiettivo eurounitario di mettere l'uomo al centro della trasformazione digitale. La proposta governativa, sebbene indirizzata al miglioramento delle condizioni di lavoro tramite l'AI, solleva dibattiti legati alla sua applicazione e alle possibili implicazioni sulle modalità di utilizzo nel settore lavorativo, richiedendo una maggiore chiarezza ed orientamento normativo.

L'alluvione normativa

L'interprete giuridico e quello giudiziario si trovano oggi di fronte a delicatissimi snodi ermeneutici per il dilagare di interventi legislativi o di indirizzo di matrice europea (più di dieci in pochi anni) che si dovrebbero risolvere andando all'ispirazione stessa dell'ondata regolativa:  una cornice complessiva ed un insieme di meta- principi comuni che può guidare il processo epocale di codificazione europea del mondo digitale ed ora dell'AI.

Una visione prospettica, olistica, filosoficamente impostata, con la quale il fenomeno dell'AI, del digitale e del lavoro su piattaforme è stata affrontato nel vecchio continente con l'adozione di una strategia complessiva (digital compact - parte di Europa 20-30) ed un insieme di provvedimenti prevalentemente di natura legislativa che hanno la pretesa di indirizzare lo sviluppo delle tecnologia verso scopi e mete emancipative e liberatorie in tutti i campi portando l'UE a dotarsi di una sovranità nel settore capace di generare quello che è stato chiamato il “Bruxelles effect”. Come dice il Regolamento AI act l'obiettivo è «promuovere la diffusione di un'intelligenza artificiale (IA) antropocentrica e affidabile, garantendo nel contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell'Unione europea (la "Carta"), compresi la democrazia, lo Stato di diritto e la protezione dell'ambiente, contro gli effetti nocivi dei sistemi di IA nell'Unione nonché promuovere l'innovazione» (art. 1 nonché considerando n. 1)  o, per  la Declaration of principles and rights for the digital decade (che dovrebbe rappresentare una cornice costituzionale generale) del dicembre 2022, «mettere le persone al centro della trasformazione digitale », riaffermare il ruolo strumentale  della tecnologia «al servizio ed a beneficio di coloro che vivono nell'UE» e  precisare che  «la visione dell'UE per la trasformazione digitale mette al centro le persone, conferisce loro maggiore autonomia e responsabilità». Brillantemente le premesse del d.d.l. che oggi discutiamo indicano come fine ultimo di questa disciplina è quello di sviluppare l'autodeterminazione delle persone.

Favorire le imprese USA?

La preoccupazione da molti condivisa  riguarda non solo le incertezze normative, che la Corte di giustizia cercherà di risolvere, anche se ancora la sua giurisprudenza  sta chiarificando in questi mesi aspetti cruciali del GDPR che è la base del processo di codificazione del mondo digitale ed ora anche dell'AI, ma anche la complessità ed i gravosi obblighi a carico delle imprese che potrebbero, si teme, bloccare il processo innovativo, sfavorendo alla fine proprio il vecchio continente e confermando l'oligopolio oggi egemone delle imprese USA  top six  a livello globale come suggerito nello stesso Rapporto Draghi con qualche battuta allusiva. Occorre quindi valutare attentamente se sia strettamente necessario aggiungere al quadro sovranazionale ulteriori provvedimenti normativi interni non strettamente necessari ad implementare il primo, a carattere per giunta regolamentare anche se di “nuova generazione” che addirittura contempla un ruolo di vera e propria legislazione delegata per la Commissione. 

Le ragioni dell'intervento sul lavoro

Giova, quindi, intervenire sul lavoro? È importante notare come sia lo stesso Regolamento ad autorizzare interventi nazionali ed a chiamare in gioco addirittura la contrattazione collettiva in campo lavorativo (che opererebbe così in modo piuttosto originale come fonte integrativa di un provvedimento Ue regolamentare). Non era scontato, anche alla luce del diritto dell'Unione primario, perché le basi giuridiche del regolamento sono gli artt.  114 e 16 del TFUE che, quindi, non ha alcuna base nel capitolo sociale dell'Unione nonostante gli sforzi del PE. Tuttavia, l'art. 2.11 perentoriamente  afferma “Il presente regolamento non osta a che l'Unione o gli Stati membri mantengano o introducano disposizioni legislative, regolamentari o amministrative più favorevoli ai lavoratori in termini di tutela dei loro diritti in relazione all'uso dei sistemi di AI da parte dei datori di lavoro, o incoraggino o consentano l'applicazione di contratti collettivi più favorevoli ai lavoratori”.  A ciò si aggiunge il considerando n. 9, veramente molto determinato nello stabilire l'immunità delle disposizioni a carattere sociale di matrice sovranazionale da ogni limitazione per effetto del regolamento che altrimenti potrebbe avere una portata  di liberalizzazione: «inoltre, nel contesto dell'occupazione e della protezione dei lavoratori, il presente regolamento non dovrebbe pertanto incidere sul diritto dell'Unione in materia di politica sociale né sul diritto del lavoro nazionale, in conformità del diritto dell'Unione, per quanto riguarda le condizioni di impiego e le condizioni di lavoro, comprese la salute e la sicurezza sul luogo di lavoro, e il rapporto tra datori di lavoro e lavoratori. Il presente regolamento non dovrebbe inoltre pregiudicare l'esercizio dei diritti fondamentali riconosciuti dagli Stati membri e a livello di Unione, compresi il diritto o la libertà di sciopero o il diritto o la libertà di intraprendere altre azioni contemplate dalla disciplina delle relazioni industriali negli Stati membri nonché il diritto di negoziare, concludere ed eseguire accordi collettivi, o di intraprendere azioni collettive in conformità del diritto nazionale. Il presente regolamento dovrebbe lasciare impregiudicate le disposizioni volte a migliorare le condizioni di lavoro nel lavoro mediante piattaforme digitali di cui alla direttiva del Parlamento europeo e del Consiglio relativa al miglioramento delle condizioni di lavoro nel lavoro mediante piattaforme digitali…».

Le norme di trasparenza

Questo rinvio salva l'art. 1-bis d.lgs. n. 152/1997 poiché l'entrata in vigore del regolamento senza l'art. 2 lo avrebbe reso problematico ponendo obblighi informativi non solo per le piattaforme lavorative ma anche per alcuni trattamenti di profilazione mediante Ai (l'AI act considera il lavoro come settore ad alto rischio ex allegato III al regolamento  ma non pone tutti gli obblighi di cui all'art. 1-bis per i deployer, cioè i datori di lavoro). Una questione per le integrazioni normative  nazionali  è se queste possano riguardare anche i lavoratori autonomi: quando gli atti dell'Unione parlano di lavoratori lo fanno in senso stretto o  si riferiscono ai cosiddetti “falsi autonomi”; forse si potrebbe intendere in senso estensivo ed evolutivo il termine “lavoratori” utilizzato nell'art. 2 AI act.  Non solo il considerando n. 9 accenna alla salvaguardia delle tutele previste per le condizioni di lavoro mediante piattaforme che riguardano anche gli autonomi ma l'UE sembra (Cfr. l'ispirazione dell'European social pillar) volere un accesso universalistico alle tutele di base e la Commissione ha nel 2022 ritenuto legittimi i contratti degli autonomi (almeno quelli che versano in condizioni di debolezza economica), superando l'orientamento della Corte di giustizia che considera gli autonomi come imprenditori ed assimila i loro contratti collettivi ai “cartelli” proibiti dall'art. 101 TFUE. Ricordo che l'1-bis. già menzionato  contempla anche gli autonomi coordinati e continuativi ed eterorganizzati.

L'impostazione di un intervento interno

Quindi, tornando all'intervento nazionale, non solo questo è possibile secondo il principio del trattamento più favorevole ma appare anche  opportuno (alla fine il regolamento AI act è piuttosto avaro di norme strettamente lavoristiche: in buona sostanza gli artt.  26, 27 e 86) nel rispetto dei fine ultimo della regolazione UE che è quello della logica antropocentrica, che pretende che, anche nel campo  lavorativo, le macchine intelligenti siano impiegate a fini di utilità collettiva. Il che, mi pare, dovrebbe svilupparsi in due direzioni: da un lato di “libertà negativa” o “libertà da”  (di conferma del capitolo sociale dell'Unione e dei limiti stabiliti dal GDPR in poi di rispetto della privacy e della dignità dei lavoratori, secondo una logica protettiva o rimediale) dall'altro di libertà positivalibertà di”, emancipatrice dal lavoro ripetitivo e poco qualificato ed anche da modalità troppo gerarchiche ed asfissianti di attività  che certamente l'AI oggi consente.

Il d.d.l. governativo

Esaminando la proposta governativa ritengo di condividere i primi commenti della dottrina (1) che evidenziano la scarsa rilevanza dell'apporto nazionale rispetto al, forse già troppo affollato ed a rischio di entropia, quadro sovranazionale riguardante la disciplina delle nuove tecnologie (proprio il 15 ottobre è stata varata definitivamente la direttiva piattaforme che arriverà presto il GUUE).Cominciamo dal primo comma dell'art. 10: «l'intelligenza artificiale è impiegata per migliorare le condizioni di lavoro, tutelare l'integrità psico-fisica dei lavoratori, accrescere la qualità delle prestazioni lavorative e la produttività delle persone in conformità al diritto dell'Unione europea». E'- come sembrerebbe - una disposizione di principio o  si voleva introdurre una norma self-executing giustiziabile?  La mancanza di sanzioni sembrerebbe escludere la seconda ipotesi. Si vogliono indicare causali tassative per l'uso dell'AI? Processi di mera automazione produttiva mediante AI diventerebbero impossibili? Non sarebbe quest'ultima ipotesi contraria frontalmente all'impostazione stessa del Regolamento che  autorizza trattamenti di miglior favore per i lavoratori ma non l'impossibilità di scelte tecnologiche del datore di lavoro labour saving che sarebbe non bilanciata con il diritto d'impresa e non proporzionale. Inoltre, la genericità della formulazione creerebbe un caos interpretativo notevole posto che è quasi impossibile individuare queste causali in modo univoco (2); si bloccherebbe l'evoluzione tecnologica, per giunta «in un paese solo”. Sarebbe quindi opportuno chiarire che l‘uso dell'AI «con effetti sui rapporti di lavoro in corso» può essere finalizzata solo per etc. etc., anche se questa affermazione potrebbe trovare il suo spazio nelle premesse del d.d.l.

Profili di discriminazione

Analogo discorso deve farsi sul terzo comma sul divieto di discriminazione («l'intelligenza artificiale nell'organizzazione e nella gestione del rapporto di lavoro garantisce l'osservanza dei diritti inviolabili del lavoratore senza discriminazioni in funzione del sesso, dell'età, delle origini etniche, del credo religioso, dell'orientamento sessuale, delle opinioni politiche e delle condizioni personali, sociali ed economiche, in conformità con il diritto dell'Unione europea»).  A me sembra pletorico essendo la materia già coperta efficacemente  dal diritto europeo; l'art. 21 della Carta dei diritti è peraltro di applicazione diretta, secondo la migliore giurisprudenza della Corte di giustizia. È vero che le condizioni personali, sociali ed economiche non rientrano tra i fattori di rischio menzionate esplicitamente all'art. 21 della Carta ma la stessa elencazione ha un mero carattere esemplificativo e questi fattori ben possono essere ricompresi alla luce della giurisprudenza della Corte di giustizia che utilizza unitariamente l'art. 21 e l'art. 20 sulla parità di trattamento. Questo rischio di discriminazione è sottolineato peraltro già nel regolamento. In ogni caso la norma, dopo l'elenco dei fattori di rischio, aggiunge «in conformità con il diritto UE»: una sorta di confessione di inutilità della prescrizione.

Problemi di controllo degli algoritmi

Sulle discriminazioni vanno richiamate alcune osservazioni dottrinali che nascono anche  dall'esame dell'applicazione dell'art. 1-bis nelle controversie italiane sui riders (3). Per gli algoritmi capaci di deep learning nessuno sa davvero come questi operano in progress; i consulenti nominati dai giudici non sono in grado di verificare la fondatezza delle accuse di discriminazione. Si chiede in dottrina che il focus delle misure protettive sia spostato dai doveri preventivi alle verifiche dei risultati, agli output decisionali delle piattaforme o dei deployer di sistemi di AI (anche se spostare i doveri informativi previsti dalla fonti europee è chiaramente allo stato impossibile); alcuni giudici hanno richiamato il principio della vicinanza alla prova per cui il datore di lavoro dovrebbe provare la non discriminazione perché è l'unico a possedere i dati pertinenti, se questi non consentono una verifica imputet sibi, si tratta però di  una soluzione controversa per i casi in cui la mancata produzione di dati sul funzionamento in concreto dell'AI non è frutto di dolo o colpa grave ma è il mero risvolto tecnico di un'attività in sé lecita. Un chiarimento normativo sembrerebbe quindi opportuno. Sul punto, il monitoraggio successivo che l'AI non prevede per i deployer (ma che prevede la direttiva lavoro su piattaforma)potrebbe essere delegato dalla legge ai CCNL con meccanismi bilaterali di controllo con assistenza tecnica di organi super-partes.

Le informazioni preventive

Più interessante sembra Il secondo comma dell'art. 10 che conferma le disposizioni del decreto trasparenza sulle informazioni preventive. «L'utilizzo dell'intelligenza artificiale in ambito lavorativo deve essere sicuro, trasparente e non può svolgersi in contrasto con la dignità umana né violare la riservatezza dei dati personali. Il datore di lavoro o il committente è tenuto a informare il lavoratore dell'utilizzo dell'intelligenza artificiale nei casi e con le modalità di cui all'articolo 1-bis d.lgs. 26 maggio 1997, n. 152» (che certamente è una norma di miglior favore ex art. 2 Regolamento). Ora quest'ultima norma si applica per «l'utilizzazione di  sistemi decisionali di monitoraggio “integralmente” automatizzati deputati a fornire indicazioni rilevanti ai fini dell'assunzione e del conferimento dell'incarico, della gestione o della cessazione del rapporto di lavoro, dell'assegnazione di compiti e mansioni nonché indicazioni rilevanti nella sorveglianza, la valutazione, le prestazioni e l'adempimento delle obbligazioni contrattuali dei lavoratori» e può riguardare anche il lavoro autonomo  coordinato e continuativo ed eterorganizzato; la sfera di applicazione del AI act sembra ancora più ampio «sistemi di IA destinati ad essere utilizzati riguardanti le condizioni dei rapporti di lavoro, la promozione o cessazione dei rapporti contrattuali di lavoro, per assegnare compiti sulla base del comportamento individuale o dei tratti di caratteristiche personali o per monitorare e valutare le prestazioni e il comportamento delle persone nell'ambito del rapporto di lavoro»; mancano nel AI  Act i due termini “ integralmente” e “rilevanti”, ma l'AI Act non prevede norme per il lavoratore autonomo ma obbliga anche il fornitore (che non è obbligato dall'art. 1-bis). Ancora gli obblighi informativi della direttiva piattaforme operano «per tutti i  tipi di decisione sostenute o prese da sistemi decisionali automatizzati anche quando questi sistemi sostengono o prendono decisioni che non incidono in modo significativo sulle persone che svolgono un lavoro» qui non c'è “ integralmente” ed è sufficiente che le decisioni siano “sostenute” da sistemi automatizzati. Se si vuole mantenere una norma unitaria sarebbe opportuno coordinare l'AI act con l'art. 1-bis ed anche con la direttiva piattaforme. Siccome il secondo comma chiama in gioco anche il principio di  trasparenza questo potrebbe essere rafforzato; nella direttiva sulle piattaforme come nel AI Act il lavoratore (nella direttiva  anche autonomo) può chiedere di conoscere le ragioni della decisione automatizzata e adottata sulla base dell'AI e le sue ragioni (art. 86) , ma nell'AI Act non può chiedere la revisione umana come nella direttiva piattaforme. L'art. 1-bis non contempla rimedi  specifici sul piano delle decisioni di tipo lavoristico. Forse si potrebbe inserire in quest'ultima norma, per le decisioni su base dell'uso dell'AI e per quelle automatizzate delle piattaforme, il diritto (di tutti i soggetti coinvolti subordinati o autonomi)  a conoscere le ragioni del provvedimento e di chiederne la revisione umana (che l'AI act contempla solo imponendo ai fornitori di sistemi ad alto rischio di consentirla tecnicamente per i deployer) affidandolo a specifiche procedure di conciliazione sindacali previste dalla contrattazione collettiva, dimensione ignorata nel progetto governativo. Una pronta verifica della legittimità delle scelte influenzate in via automatica potrebbe rimanere così nell'ambito pre-giudiziario senza portare a contenzioni inevitabilmente più complessi e più costosi da risolvere.   

Le tutele degli autonomi

La dottrina (4) ha anche sottolineato  diversi ambiti di applicazione degli obblighi informativi nel d.lgs. n. 152, nel Regolamento ed, ora, anche nella direttiva sul lavoro su piattaforma. Sarebbe opportuno  realizzare questo coordinamento  tra le tre fonti diverse tenuto conto che la cruciale direttiva sulle piattaforme (che ha una base giuridica sociale) ha una disciplina piuttosto complessa salvaguardando il diritto alle informazioni anche per i collaboratori delle piattaforme (estensione solo parzialmente recepita dall'art. 1-bis che copre solo i collaboratori continuativi e eterorganizzati). In chiave innovativa penso sarebbe opportuna, vista le difficoltà insormontabili in questa fase di riforma dei nostri sistemi di rappresentanza sindacale, creare figure di delegati sulla trasparenza algoritmica di azienda diversi tra lavoratori autonomi e lavoratori dipendenti ed eletti dalla comunità  d'impresa recependo la direttiva piattaforme che contempla una duplicità di canali tra dipendenti e lavoratori autonomi.

Il  legislatore sovranazionale ha guardato con sfavore le piattaforme di lavoro  ma appare paradossale e forse discriminatorio che obblighi molto più incisivi sia informativi sia rimediali siano offerti ai collaboratori delle piattaforme rispetto a dipendenti pleno iure di imprese che utilizzano sistemi di AI.

L'opponibilità del segreto industriale

Segnalo che parte della  dottrina (Ingrao)osserva che la norma sul “segreto industriale” opponibile (che sempre per  la dottrina rende alla fine poco efficace l'art. 1-bis) agli obblighi informativi (di cui al citato art. 1-bis) non risulterebbe coerente né con l'AI Act, né con la direttiva piattaforme che non consentono un  limite di ordine generale non sottoposto ad un  controllo di proporzionalità: un caso classico di bilanciamento tra diritti in conflitto ex art. 52 della Carta dei diritti, che chiama in gioco il principio di proporzionalità .

Tornando all'art. 2.11 dell'AI Act per come è formulato la sua clausola permissiva in favore della contrattazione collettiva «il presente regolamento non osta a che gli Stati membri incoraggino o consentano l'applicazione di contratti collettivi più favorevoli ai lavoratori» sembra voler richiedere una esplicita  disposizione legislativa interna (incoraggino o consentano) essendo questo ruolo integrativo di un regolamento che sarà fra due anni di applicazione immediata. Su questa inclusione delle parti sociali (sul quale insiste moltissimo la nostra dottrina) non si dice nulla nel d.d.l. Non si offre una norma di selezione tra sindacati (né l'individuazione di un livello pertinente), né si capisce se potrebbero essere legittimati anche i contratti degli autonomi (nell'AI sembrerebbero contratti dei lavoratori pleno iure, nella direttiva piattaforme entrambi) né viene prevista un'attività meramente promozionale a livello istituzionale interna (l'Osservatorio istituto all'art. 11 non si occupa del problema della contrattazione). Sarebbe opportuno attribuire questo compito integrativo del regolamento alle sole OOSS più rappresentative sul piano nazionale e conferire al CNEL un'attività di discussione e confronto tra parti sociali sul tema(rientrerebbe perfettamente tra i suoi ambiti istituzionali). La figura di rappresentanti dei lavoratori e dei collaboratori aziendali per la sicurezza digitale ed algoritmica aiuterebbe il quadro d'insieme (5), potendo poi  questi far parte di qualche struttura comune sulla base di una rappresentatività dimostrata. La legge potrebbe promuovere la contrattazione collettiva per i formatori digitali, gli esperti sindacali, ed i responsabili delle strutture per il controllo di una corretta implementazione del diritto UE? La direttiva piattaforme prevede un diritto anche delle OOSS al riesame della decisione algoritmica. Si è anche proposta anche  una sorta di azione collettiva (e di azione individuale esercitabile anche tramite OOSS) contro l'abuso di sistemi decisionali automatici o di indebita utilizzazione dell'AI. Ancora si discute se all'informazione vada collegato il correlato diritto alla consultazione (anche periodica)per i sindacati affiancati da esperti. Insomma,  ci sarebbe moltissimo da aggiungere sul tema del ruolo del dialogo sociale che il d.d.l. ignora in toto.    

Il ruolo dell'Autorità garante della privacy

Infine: andrebbe, credo, riconosciuta nell'Autorità Garante l'Autorità di tutela dei diritti fondamentali ai sensi dell'art. 77 AI act, in modo tale che possa vigilare sui sistemi di AI ad alto rischio usati in ambito lavoristico. Tale designazione conferirebbe al Garante poteri di richiesta e accesso documentale, nonché la possibilità  di richiedere d'ufficio  lo svolgimento di una prova del sistema di AI che si ritiene possa compromettere i diritti fondamentali dei lavoratori. Sino ad oggi il Garante è stato molto attivo nella protezione della privacy dei lavoratori e sarebbe un peccato perdere questa expertise.

Conclusioni

In conclusione, solo qualche spunto ipersintetico sulle misure esterne alle condizioni di lavoro sull'autodeterminazione nel lavoro e la protezione dignità delle persone lavoratrici.

a) Tutela della disoccupazione da nuove  tecnologie. Interventi sul Fondo nuove competenze semplificandolo e correlandolo più strettamente alla disoccupazione da impatto AI.

b) Riordino del  sistema complessivo delle competenze produttive e conoscitive (da collegare all' obiettivo dell' 80% di competenze digitali di base) come suggerito in una delle dieci proposte organiche di Draghi;  un riordino professionale dei formatori? E delle professionalità tecniche di vigilanza sul digitale e sull'AI, anche di parte sindacale?

c) Rendere la protezione dei bisogni vitali (a matrice sovranazionale di cui all'art. 34.3 della Carta dei diritti) più rispondente alla transizione digitale ed algoritmica senza dispersione di energie in occupazioni già sostituibili dall'AI. Reddito di inclusione e supporto inadeguati, troppo condizionati ad un lavoro  troppo breve e non di qualità (di questo forse si potrebbe occupare anche l'Osservatorio). Servirebbe un webfare (6) capace di restituire alle vittime del progresso tecnologico almeno una  parte della ricchezza prodotta dal  patrimonio in dati (costruito dalla cooperazione sociale)ma utilizzato privatamente  a fini produttivi.  

d) L'AI favorisce forme di attività produttiva lontane dagli schemi della subordinazione: il lavoro autonomo di terza generazione è ancora sotto-tutelato. Occorrerebbe recepire la direttiva piattaforme sul punto della presunzione di subordinazione attraverso l'art. 2 del decreto 81 sull'eterorganizzazione: non occorre costringere le persone a diventare lavoratori  dipendenti quando non hanno orario, luogo di lavoro e possono rifiutare la prestazione. Sono sufficienti le tutele essenziali lavoristiche e welfaristiche compatibili con il tipo di attività prestata che sono garantite dall'art. 2, nella direzione dell'elaborazione di uno statuto delle garanzie di base per ogni  personal worker (cioè di un soggetto che eroga un'attività produttiva per terzi prevalentemente di tipo personale)- oltre la vetusta distinzione tra subordinati ed autonomi-di cui oggi i diritti di informazione e di contrattazione algoritmica costituiscono la prima ossatura.

(*) Testo, rivisto ed integrato dell'audizione del 16.10.2024 avanti la X Commissione del Senato della Repubblica.

Note

(1) M. Biasi, Il lavoro nel d.d.l. governativo in materia di intelligenza artificiale, in corso di pubblicazione su  Dir. rel. ind.; E. Dagnino, Verso una regolazione dell'intelligenza artificiale: prime note sui profili lavoristici del disegno di legge di iniziativa governativa, in Adapt, 13 maggio 2024.

(2) E. Dagnino, cit.  

(3) S. Ciucciovino, La disciplina nazionale sull'intelligenza artificiale nel rapporto di lavoro, in Lav. dir. europa,  n. 1/2024; G. Finocchiaro, L'Europa punti alla tutela dei diritti fondamentali, in Ilsole24ore, 4 ottobre 2024; D. Paliaga, L'algoritmo nel processo del lavoro,  in corso di pubblicazione.

(4) M. Biasi cit.; S. Ciucciovino, cit.

(5) S. Ciucciovino, cit. ; M. Aimo, Il management algoritmico nel lavoro mediante piattaforma digitale: osservazioni sulle prime regole di portata europea, in corso di pubblicazione.

(6) M. Ferraris, Documentalità. Filosofia di un mondo nuovo, Bari-Roma, 2021.