Progetto di Direttiva UE per la tutela dei lavoratori tramite piattaforma digitale: la necessaria revisione per raggiungere un compromesso tra gli Stati membri
02 Maggio 2024
1. Il nuovo accordo sul Progetto di Direttiva In data 11 marzo 2024, venticinque Stati membri hanno raggiunto un nuovo accordo provvisorio sulla Proposta di Direttiva sul lavoro tramite piattaforma digitale. Va ricordato che, dopo due anni di negoziati diretti a garantire una tutela adeguata ai lavoratori su piattaforma, un'opposizione si era creata in seno all'Unione europea da parte di alcuni Stati membri - tra i quali la Francia e la Germania – che aveva dato luogo, in data 16 febbraio 2024, a un voto sfavorevole tra gli ambasciatori degli Stati membri (1). Grazie allo sforzo diplomatico della Presidenza di turno belga, finalizzata ad ottenere l'approvazione della Proposta prima delle elezioni europee del prossimo mese di giugno, il Comitato dei rappresentanti permanenti ha indirizzato al Consiglio una nuova bozza provvisoria di Proposta (2) al fine di raggiungere un accordo in prima lettura con il Parlamento europeo. Se, da una parte, va sottolineato che tale accordo è stato accolto favorevolmente dagli Stati membri, dall'altra, va rilevato che il nuovo testo della Proposta risulta indebolito rispetto a quello della Proposta originale della Commissione (3) in quanto ha cercato un compromesso rispetto alle posizioni degli Stati membri che avevano bocciato il testo precedente per mantenere alcuni cardini del proprio modello nazionale. L'obiettivo generale della Proposta rimane immutato, ossia – tenuto conto della digitalizzazione che sta cambiando il mondo del lavoro attraverso la diffusione di nuovi business models – dettare una regolamentazione di tali forme tecnologiche e innovative, al fine di migliorare le condizioni di lavoro e la protezione sociale dei lavoratori delle piattaforme digitali. In tal senso, il considerando n. 7 della Proposta (4) ribadisce il perseguimento di due finalità: da un lato, il miglioramento delle condizioni di lavoro dei suddetti lavoratori e, dall'altro, la protezione dei dati personali di questi ultimi introducendo il diritto alla trasparenza inerente all'uso e al funzionamento dei sistemi decisionali e di monitoraggio automatizzati. Infatti, l'art. 1 si ripropone di raggiungere tali obiettivi attraverso le seguenti modalità:
L'attuale modello di business delle piattaforme digitali – fondato sull'autonomia del lavoratore e sul funzionamento volontariamente “opaco” dell'algoritmo – risulterebbe, così, frammentato dalla Proposta di Direttiva, soprattutto con riguardo all'introduzione di una presunzione di lavoro subordinato. La necessità di una trasparenza del sistema di funzionamento dell'algoritmo, introdotta dalla Proposta, si inserisce nell'obiettivo più ampio - perseguito dall'AI Act (5) - dell'Unione europea di creare un quadro normativo armonizzato in materia di intelligenza artificiale, nel rispetto dei diritti fondamentali e dei valori europei. 2. I criteri determinanti la qualificazione di rapporto di lavoro subordinato come frutto della negoziazione tra gli Stati membri La Proposta di Direttiva ha il fine di tutelare i lavoratori tramite piattaforma digitale, in primo luogo, attraverso l'attribuzione di una qualificazione giuridica che corrisponda alle modalità reali del loro lavoro. A tal fine l'art. 5 introduce la presunzione della natura subordinata del rapporto di lavoro. Nel testo originale proposto dalla Commissione tale presunzione (iuris tantum) risultava basata su una serie di criteri che permettevano di determinare se la piattaforma agisse in veste di datore di lavoro. In particolare, nel caso in cui almeno due di questi cinque criteri fossero stati presenti, l'esistenza di un vincolo di subordinazione tra il lavoratore e la piattaforma sarebbe stato ritenuto presunto. A titolo di esempio, la Proposta iniziale proponeva i seguenti criteri: la determinazione, da parte della piattaforma, di un livello di remunerazione o la fissazione di limiti massimi; la richiesta al lavoratore del rispetto di determinate regole inerenti al comportamento e all'aspetto da tenere nei rapporti col consumatore finale; la supervisione sulla esecuzione del lavoro anche tramite l´uso di mezzi elettronici; la limitazione della libertà di organizzazione del lavoro (i.e. orario di lavoro, periodi di assenza, accettazione o rifiuto degli incarichi); la limitazione della possibilità di crearsi una propria clientela e di effettuare lavori per terzi. Il nuovo art. 5 della Proposta propone una formulazione più ampia ed astratta della presunzione legale, prescindendo dalla previsione di indici predeterminati, come i suddetti criteri, ai fini della qualificazione del rapporto di lavoro. Infatti, nella nuova formulazione della proposta di direttiva, la definizione del rapporto contrattuale esistente tra una piattaforma digitale e una persona che svolge un lavoro tramite piattaforma è demandata ad una clausola generale ed astratta: il rapporto sarà ritenuto di natura subordinata qualora si riscontreranno dei «fatti che indicano un potere di controllo o direzione, conformemente al diritto nazionale, ai contratti collettivi o alle prassi in vigore negli Stati membri, tenuto conto della giurisprudenza della Corte di giustizia». Trattasi di presunzione legale iuris tantum (come nella versione precedente della Proposta), e, dunque, le piattaforme possono rifiutare o contestare la qualificazione di lavoro subordinato, fornendo la prova, nel caso concreto, della sussistenza di un rapporto di lavoro autonomo. La eliminazione di rigidi e cristallizzati indici sintomatici della subordinazione (inizialmente previsti dal testo europeo) permetterà ai giudici di ciascuna giurisdizione degli Stati membri di prendere in considerazione la rapida e constante evoluzione delle modalità pratiche di svolgimento dell'attività lavorativa tramite piattaforme, in modo da sventare pratiche elusive di modifica o di inserzione di dati aggiuntivi nell'algoritmo di gestione del lavoro volte ad evitare eventuali condanne giudiziarie da parte delle società che gestiscono le diverse piattaforme digitali. Va, tuttavia, rilevato, da una parte, che si registra un'intensa attività di lobbying tesa a mantenere o adottare normative favorevoli alle società che operano nella gig-economy favorendo, in particolar modo, la configurazione autonoma dei rapporti di lavoro: queste pressioni vengono effettuate sia nei confronti dei lavoratori sia nei confronti degli utenti attraverso un coinvolgimento con campagne di solidarietà (i.e. referendum, sottoscrizione di petizioni). Dall'altra, la nuova formulazione della previsione della presunzione legale concederà ad ogni Stato membro l'autonomia (o, meglio, un ampio margine di discrezionalità) nell'individuare i criteri sufficienti a far presumere la natura subordinata del lavoro prestato tramite piattaforma, con abdicazione dell'intento di armonizzazione e uniformità europea di questa disciplina, intento che rappresentava uno degli scopi iniziali della Proposta. E' pur vero che una efficacia diretta della direttiva potrebbe prevenire un “annacquamento” della trasposizione della stessa, ma una tale efficacia è subordinata al rispetto di determinate condizioni che in questo caso non sembra ricorrano: secondo la costante giurisprudenza della Corte di giustizia dell'Unione europea (CGUE), infatti, in tutti i casi in cui le disposizioni di una direttiva appaiono incondizionate e sufficientemente precise, i singoli possono farle valere dinanzi ai giudici nazionali nei confronti dello Stato membro interessato, nel caso di una trasposizione non corretta della direttiva in questione (6). Tuttavia, il carattere incondizionato e preciso di una direttiva è deducibile dall'esistenza di un'obbligazione di risultato, precisa e incondizionata, in capo agli Stati membri quanto all'applicazione delle regole enunciate dalla direttiva. Nel caso del lavoro tramite piattaforma, tale obbligazione risulterebbe dalla previsione della presunzione di lavoro subordinato negli ordinamenti nazionali, e non dalla previsione di determinati criteri che, dunque, rientrerebbero nel margine di discrezionalità della trasposizione della direttiva. Inoltre, tale margine di discrezionalità può essere oggetto di un controllo giurisdizionale, condotto a opera della CGUE, al fine di verificare se lo Stato membro interessato abbia ecceduto i limiti fissati dalla trasposizione della direttiva (7). Tuttavia, risulta evidente come l'ampia formulazione dell'art. 5 della proposta rinvii esplicitamente al diritto, ai contratti collettivi o alla prassi in vigore negli Stati membri, limitando perciò fortemente il controllo della CGUE. Tali considerazioni possono trovare uno sbocco nell'auspicato rafforzamento del dialogo tra le Corti Supreme dei diversi Stati membri (e tra i giudici dei sistemi giuridici europei) al fine di tutelare le condizioni dei lavoratori su piattaforma digitale e permettere un ravvicinamento delle giurisprudenze nazionali in materia. 3. L'apporto innovativo della gestione del lavoro tramite algoritmo Se l'uso generalizzato dell'intelligenza artificiale può essere fatto risalire al XX secolo con l'introduzione delle prime procedure per la selezione e lo smistamento caratterizzanti il processo decisionale dell'industria, l'utilizzo dell'algoritmo, che rappresenta il cuore dell'intelligenza artificiale, ha assunto una dimensione qualitativamente e quantitativamente più ampia negli ultimi anni nell'ambito della c.d. quarta rivoluzione industriale. Si noti che la maggior parte delle piatteforme digitali fonda l'organizzazione del proprio business sull'algorithmic management, vale a dire l'utilizzo di procedure informatiche nel controllo dell'organizzazione del lavoro che va di pari passo con gli sviluppi tecnologici nella raccolta ed elaborazione di dati, e che si distingue dal semplice supporto od assistenza dell'intelligenza artificiale. Considerata la rapida diffusione dell'utilizzo degli algoritmi di gestione del lavoro, la Proposta di Direttiva introduce una regolamentazione di tali sistemi al fine di poter assicurare una supervisione umana dell'esecuzione del lavoro e consentire una eventuale contestazione delle decisioni generate dall'algoritmo. Sono dedicati all'algorithmic management gli artt. 7-15 della Proposta di Direttiva. Più precisamente, l'art. 9 introduce l'obbligo d'informazione dei lavoratori sia sui sistemi automatizzati utilizzati ai fini di monitoraggio, di supervisione o di valutazione delle prestazioni lavorative, sia sui sistemi che generano decisioni automatizzate, utilizzate in materia di condizioni di lavoro dei prestatori (come l'accesso alle prestazioni di lavoro, la retribuzione, la sicurezza e la salute sul lavoro, l'orario di lavoro, le promozioni e, più genericamente, il rapporto di lavoro, compresa la sospensione o la cessazione dell'account). In relazione alla privacy dei lavoratori, la Proposta di Direttiva precisa che le piattaforme digitali non possono utilizzare i dati personali dei lavoratori se non strettamente necessari e connessi all'esecuzione del lavoro. In ogni caso, è vietato il trattamento di alcune tipologie di dati, come quelli relativi allo stato emotivo o psicologico (si pensi ai c.d. badge sociometrici), le conversazioni private tra i lavoratori o i loro rappresentanti e i dati personali al di fuori della limitazione temporale consistente nell'esecuzione della prestazione lavorativa. Tale limitazione e selezione dei dati che possono essere trattati dalle piattaforme digitali è il risultato della recente considerazione dell'impatto psicologico sul lavoratore dell'utilizzo dell'algoritmo, rientrante nella più ampia sfera della protezione della salute e della sicurezza del lavoratore. Inoltre, non devono essere utilizzati sistemi che mettano i lavoratori sotto pressione o li sottopongano a rischi per la salute, fisica o mentale (8). L'articolo 11 inerente al riesame umano ribadisce il divieto di decisioni basate unicamente sul trattamento automatizzato, già sancito dall'art. 22 dal Regolamento Generale sulla Protezione dei Dati (RGPD) (9) inerente a un diritto di opposizione da parte dell'interessato all'assunzione, da parte del datore di lavoro, di decisioni con l'ausilio esclusivo degli algoritmi e il diritto di richiederne l'intervento umano (10). È importante sottolineare che, ai sensi del RGPD, affinché una decisione sia esclusa dal novero di quelle ritenute automatizzate, l'intervento umano deve ritenersi significativo, rispetto a quello automatizzato, nel processo decisionale e/o di revisione (11). Infatti, i revisori umani devono essere coinvolti nel controllo delle decisioni del sistema, e devono evitare di applicare di routine la decisione assunta a mezzo di algoritmo. Inoltre, il coinvolgimento dei revisori deve essere attivo nel senso che essi devono avere un'influenza effettiva sulla decisione, inclusa la possibilità di decidere in modo alternativo rispetto alla soluzione proposta dall'algoritmo. Infine, i revisori devono valutare la soluzione algoritmica prendendo in considerazione altri dati disponibili ed eventuali fattori aggiuntivi. La Proposta di direttiva rafforza, dunque, il diritto di ottenere una revisione umana delle decisioni più significative (decisioni anche solo supportate da sistemi automatizzati) permettendo così di evitare l'opacità degli algoritmi e rendere più accessibile la comprensione delle conseguenze di determinati comportamenti. Tenuto conto delle definizioni e dell'ambito di applicazione della Proposta, l'efficacia della regolamentazione dell'algorithmic management si estenderebbe ad ogni prestatore che svolge un lavoro mediante piattaforme digitali, indipendentemente dalla qualifica giuridica del rapporto di lavoro. Infine, viene preso in considerazione il dialogo sociale e il ruolo dei rappresentanti dei lavoratori, che devono essere informati e consultati a proposito delle decisioni concernenti i cambiamenti dell'utilizzo dei sistemi automatici; tra le varie misure proposte, si noti l'introduzione della figura dell'esperto per le piattaforme scelto di concerto dai lavoratori delle piattaforme digitali o dai loro rappresentanti, ove ritenuto necessario. 4. L'incremento della trasparenza algoritmica e del dialogo sociale Secondo la tesi avanzata dai propugnatori della gestione algoritmica, l'algoritmo sarebbe uno strumento neutrale in quanto basato sui numeri, ed avrebbe l'effetto di ridurre le tempistiche e gli errori dell'intervento umano. Tale tesi, tuttavia, non convince pienamente in quanto l'algoritmo utilizza dati numerici che sono porzioni di informazioni potenzialmente soggettive. Si consideri il caso in cui gli input forniti all'algoritmo contengano delle informazioni preconcette, false o manipolate, tali da creare effetti discriminatori non intenzionali, rafforzando, così, i modelli esistenti di discriminazione, o occultando forme subdole di discriminazione. Inoltre, anche se i dati utilizzati dai programmatori dell'algoritmo possono considerarsi oggettivi, sussiste comunque un rischio di discriminazioni conseguenti ad una standardizzazione e utilizzazione reiterata e automatizzata degli stessi. La parvenza di neutralità fornita dall'utilizzo dell'algoritmo nasconde, dunque, un potenziale rischio di riprodurre o addirittura sistematizzare le discriminazioni algoritmiche. Tale rischio è spesso impercettibile sia per le vittime sia per il datore di lavoro che, adoperando un sistema algoritmico, si assume la responsabilità delle pratiche discriminatorie nella gestione del personale. Il problema più rilevante e al quale la Proposta cerca di porre rimedio è l'opacità del sistema algoritmico rispetto al riconoscimento delle discriminazioni, che possono essere individuate solamente introducendo una maggiore trasparenza del suo funzionamento e un incremento del dialogo sociale. La Proposta segna così un importante passo, a livello europeo, verso una promozione del dialogo sociale e l'attuazione di modalità pratiche di informazione e consultazione dei rappresentanti dei lavoratori. A quest'ultimi sarà inevitabilmente richiesta una conoscenza tecnica del funzionamento dei sistemi algoritmici – al fine di poter garantire un intervento efficace e pertinente in materia – che dovrebbe essere assicurata da una informazione adeguata in materia di intelligenza artificiale e di algoritmo. Una comprensione tecnica e una maggiore sensibilizzazione alle problematiche che possono emergere dall'utilizzo del funzionamento dell'intelligenza artificiale, tra cui l'algoritmo, saranno sempre più richieste in un contesto caratterizzato dalla diffusione esponenziale delle nuove tecnologie. In definitiva può affermarsi che l'approccio europeo propenda a favore di una seria regolamentazione della gestione algoritmica riferita al mondo del lavoro, ritenuto particolarmente esposto ai rischi dei sistemi di intelligenza artificiale. Non a caso l'AI Act - la cui adozione definitiva è attesa per il terzo o quarto trimestre del 2024 – nel prevedere una classificazione dei sistemi di intelligenza artificiale in base ai rischi associati al loro utilizzo, ha inserito i sistemi di intelligenza artificiale utilizzati per la gestione del rapporto di lavoro come sistemi ad alto rischio che, in quanto tali, necessitano di una disciplina particolarmente rigorosa. Note (1) Cfr. I. Cendret, Progetto di Direttiva UE per la tutela dei lavoratori tramite piattaforma digitale: la Francia si oppone alla riqualificazione automatica in lavoro subordinato, in IUS UE e Internazionale (ius.giuffrefl.it), 4 marzo 2024. (2) Consiglio dell'Unione europea, Proposta di Direttiva del Parlamento europeo e del Consiglio relativa al miglioramento delle condizioni di lavoro nel lavoro mediante piattaforme digitali - Esame del testo di compromesso finale in vista di un accordo, fascicolo interistituzionale, 8 marzo 2024. (3) European Commission, Proposal for a Directive on the European Parliament and of the Council on improving the working conditions in platform work, 9 December 2021. (4) La numerazione della Proposta di Direttiva citata nel presente articolo si riferisce a quella modificata dal citato fascicolo interistituzionale in data dell'8 marzo 2024. (5) Commissione europea, Proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull'intelligenza artificiale (legge sull'intelligenza artificiale) e modifica alcuni atti legislativi dell'Unione, 21 aprile 2021. (6) CGUE, 6 novembre 2018, C‑684/16, punto 63. (7) CGUE, 8 marzo 2022, C-205/20, punto 28. (8) Art. 12 della Proposta di Direttiva. (9) Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE (Regolamento generale sulla protezione dei dati). (10) Si noti che tale diritto di veto riconosciuto in capo al lavoratore prevede alcune eccezioni, ove la decisione automatizzata: sia basata sul consenso esplicito dell'interessato, sia necessaria per un contratto tra la persona fisica e il titolare del trattamento, oppure sia autorizzata dalla legge a cui l'interessato è soggetto. (11) Cfr. Binns R., Gallo V., Fully automated decision-making AI systems: the right to human intervention and other safeguards, London: Information Commissioner's Office, 2019. Sul tema si rimanda a: I. Cendret, Progetto di Direttiva UE per la tutela dei lavoratori tramite piattaforma digitale: la Francia si oppone alla riqualificazione automatica in lavoro subordinato Lavoratori delle piattaforme digitali: il Consiglio Epsco approva la Direttiva volta a migliorare le condizioni di lavoro nella gig economy |