Il 12 ottobre 2023 il Garante Privacy ha pubblicato il “Decalogo per la realizzazione di servizi sanitari nazionali attraverso sistemi di intelligenza artificiale”. Un documento di 10 punti in cui si evidenziano gli aspetti più rilevanti per il corretto utilizzo della AI da parte del Sistema Sanitario Nazionale.
Le basi giuridiche del trattamento
Il primo punto – che attiene alle basi giuridiche – richiama l'art. 9, par. 2, lett. g) GDPR sul trattamento delle particolari categorie di dati per motivi di interesse pubblico e l'art. 2-sexies Codice Privacy che ha dato attuazione nel nostro ordinamento alla norma del GDPR.
Più esattamente il Garante segnala che i software di AI possono essere utilizzati nell'ambito del sistema sanitario solo ove esista una specifica base giuridica che soddisfi i requisiti delle norme sopra richiamate: vale a dire che occorre una norma nazionale o un atto amministrativo generale ex art. 2-sexies che non genericamente ma dettagliatamente “specifichino i tipi di dati che possono essere trattati, le operazioni eseguibili e il motivo di interesse pubblico rilevante, nonché le misure appropriate e specifiche per tutelare i diritti fondamentali e gli interessi dell'interessato”.
Peraltro il Garante richiama anche l'art. 36, par. 4 GDPR che stabilisce un obbligo di consultare “l'autorità di controllo durante l'elaborazione di una proposta di atto legislativo che deve essere adottato dai parlamenti nazionali o di misura regolamentare basata su detto atto legislativo relativamente al trattamento”.
I trattamenti di dati che verranno effettuati nell'ambito dei progetti che utilizzano AI a livello nazionale in attuazione del PNRR – Missione 6 (solo a titolo di esempio la piattaforma di Intelligenza Artificiale la cui Procedura di dialogo competitivo per la progettazione, realizzazione, messa in esercizio e gestione è stata avviata da Agenas nell'autunno del 2022) dovranno passare al vaglio del Garante privacy (oltre alla valutazione circa la qualificazione giuridica dei moduli software che rientrano nella nozione di Medical DeviceexReg. UE 2017/745 e la conseguente necessaria marcatura CE).
Sembra in ogni caso di capire – anche se non è molto chiaro - che il Garante si rivolga all'utilizzo della AI nell'ambito di processi nazionali e/o regionali (ad esempio il trattamento di dati per sviluppare la medicina predittiva), mentre dovrebbe restare sotto il cappello giuridico dell'art. 9, lett. h) il trattamento di dati effettuato da software di AI nell'ambito del singolo processo di cura (“….trattamento necessario per finalità di …diagnosi, assistenza o terapia sanitaria..”), ciò in linea peraltro con la recente ordinanza della Cassazione 1 marzo 2023, n. 6177 che ha cassato la sanzione del Garante affermando la piena legittimità da parte di INPS dell'utilizzo del software di AI (chiamato “data mining Savio”) nell'ambito della organizzazione delle proprie funzioni istituzionali.
I principi di accountability e di privacy by design e by default
Il secondo aspetto sulla accountability nonché sulla privacy by design e by default chiama in causa in via diretta le strutture sanitarie in qualità titolari dei trattamenti e altresì, in via indiretta, i fabbricanti di software di AI.
Partendo da questi ultimi occorre ricordare che il considerando 78 chiaramente afferma che “In fase di sviluppo, progettazione, selezione e utilizzo di applicazioni, servizi e prodotti basati sul trattamento di dati personali o che trattano dati personali per svolgere le loro funzioni, i produttori dei prodotti, dei servizi e delle applicazioni dovrebbero essere incoraggiati a tenere conto del diritto alla protezione dei dati allorché sviluppano e progettano tali prodotti, servizi e applicazioni e, tenuto debito conto dello stato dell'arte, a far sì che i titolari del trattamento e i responsabili del trattamento possano adempiere ai loro obblighi di protezione dei dati.”
In altre parole il fabbricante che progetta il medical device con modulo software di AI dovrà, oltre alla marcatura CE exReg. 2017/745, essere in grado di dimostrare che il software nella sua utilizzazione concreta consente all'acquirente (struttura sanitaria titolare dei dati) di rispettare le regole del futuro regolamento AI (i cui diritti degli interessanti vanno ben oltre quello del GDPR).
Per quanto attiene invece agli aspetti organizzativi da implementare il Garante richiama alcuni pareri dallo stesso emessi, tra cui si segnala il recente Parere 8 giugno 2023 sul Fascicolo Sanitario Elettronico 2.0 i cui Allegati (molto ricchi e dettagliati) forniscono rilevanti indicazioni su processi organizzativi compliant al GDPR.
Ruoli
Circa la definizione dei ruoli privacy, si segnala che la determinazione della titolarità deve tener conto in maniera specifica dei compiti istituzionali dei soggetti coinvolti nel processo di interesse pubblico: in altre parole i criteri connessi alla “determinazione di finalità e mezzi” di cui all'art. 4, lett. 7) GDPR si devono “incrociare” con i compiti istituzionali: attività questa molto articolata in ambito sanitario per la complessità legislativa della materia, per la sovrapposizione di fonti nazionali, regionali e regolamentari delle stessa AUSL e AO, e di conseguenza per la possibile sovrapposizione di compiti e funzioni.
I principi di conoscibilità, non esclusività e non discriminazione algoritmica
Una delle parti più interessanti del documento è senza dubbio quella relativa ai principi di conoscibilità, non esclusività e non discriminazione algoritmica, trattandosi di principi cardine della AI e, senza dubbio, di principi “nuovi” e quindi ancora da esplorare nella loro applicazione pratica.
Sul punto l'analisi del Garante tiene conto non solo di alcune previsioni del GDPR e della giurisprudenza del Consiglio di Stato in materia di utilizzo di algoritmi di AI per l'adozione di decisioni di natura amministrativa, ma altresì delle norme e delle prescrizioni contenute nella Proposta di Regolamento per l'Intelligenza Artificiale (COM(2021) 206 final – d'ora in avanti Regolamento AI).
Per quanto attiene alle norme del GDPR alla base della formulazione dei principi ora in commento stanno le norme relative a principi generali per effettuare un trattamento di dati personali lecito e ai diritti dell'interessato: in particolare poi si segnala che i rischi e le problematiche alla base di questi principi sono anche stati analizzati nel documento del Parlamento Europeo “Artificial intelligence in healthcare Applications, risks, and ethical and societal impacts” (giugno 2022) ed altresì nel recentissimo Report della Commissione UE “Artificial intelligence for healthcare and well-being during exceptional times - A recent landscape from a European perspective” (novembre 2023).
La giurisprudenza amministrativa da considerare è invece quella relativa ai limiti e all'allocazione delle responsabilità della c.d. amministrazione 4.0, ovverosia tutti quei casi in cui la decisione amministrativa viene affidata ad un algoritmo oppure ad un software di IA: in particolare la sentenza del Consiglio di Stato n. 2270/2019 che per prima ha enunciato i principi ora ripresi dal Garante.
Passando ora all'analisi puntuale dei diritti, sul principio di conoscibilità il Garante afferma che l'interessato ha diritto a conoscere l'esistenza di decisioni basate su trattamenti automatizzati, nonché a ricevere informazioni sulla logica utilizzata per raggiungerle. Tale principio è espressione di quello più generale di trasparenza (art. 5 GDPR), nonché del diritto dell'interessato di ricevere informazioni relativamente al trattamento dei propri dati personali (artt. 13 e 14 GDPR).
In relazione a tale principio saranno senza dubbi utili i lavori del Centro europeo per la trasparenza algoritmica (ECAT) - nato il 18 aprile 2023 nell'ambito del Reg. UE 2022/2065 relativo a un mercato unico dei servizi digitali (il c.d. Digital Service Act): si tratta di un centro di ricerca che riunisce team interdisciplinare di data scientist, esperti di intelligenza artificiale, scienziati sociali ed esperti legali per analizzare il funzionamento dei software delle grandi piattaforme e motori di ricerca, fornendo altresì criteri e modelli per facilitare i processi di conoscibilità dei sistemi.
Il secondo principio è quello di nonesclusività della decisione algoritmica, il quale enuncia il dovere di mantenere un intervento umano per la convalida o la smentita della decisione finale presa in prima battuta dal sistema di IA (c.d. principio di human in the loop).
Si riprende e si sviluppa qui quanto già disposto dal GDPR all'art. 22, in cui si fa espresso divieto di adottare decisioni esclusivamente basate sul trattamento automatizzato dei dati dell'interessato, siano questi dati ordinari o sensibili, ad eccezione dei casi espressamente previsti dall'art. 22 commi 2 e 4 GDPR.
Costituisce quindi diritto soggettivo dell'interessato l'inclusione di un intervento umano nel processo decisionale relativo ai propri dati personali, diritto che si configura come divieto generale operante ex ante, e non invece come mero diritto di opposizione ex post e il cui esercizio sia quindi affidato all'iniziativa dell'interessato (si veda anche Article 29 Data Protection Working Party, Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679, latest version 2019.)
Il principio qui in commento riprende quanto richiesto all'art. 14 del Regolamento AI.
Infatti, il paragrafo 1 testualmente recita “I sistemi di IA ad alto rischio sono progettati e sviluppati, anche con strumenti di interfaccia uomo-macchina adeguati, in modo tale da poter essere efficacemente supervisionati da persone fisiche durante il periodo in cui il sistema di IA è in uso”, in modo da “prevenire o ridurre al minimo i rischi per la salute, la sicurezza o i diritti fondamentali che possono emergere quando un sistema di IA ad alto rischio è utilizzato”. La supervisione e l'intervento umano devono quindi essere garantiti o con misure individuate dal produttore del sistema di IA, che siano alternativamente già state integrate a monte dal produttore oppure che siano destinate ad essere attuate dall'utente.
Infine, riprendendo il Considerando n. 71 GDPR, il principio di non discriminazione algoritmicarichiede sostanzialmente che vegano utilizzati sistemi di IA affidabili che riducano le opacità e gli erroridovuti acause tecnologiche o umane. Il rispetto di tale principio richiede una verifica periodica dell'efficacia del sistema stesso alla luce delle evoluzioni tecnologiche, matematiche e statistiche in materia e l'adozione di misure tecniche e organizzative adeguate. Ciò, in particolare, in ragione del potenziale effetto discriminatorio che un trattamento inesatto di dati sullo stato di salute può determinare nelle persone fisiche.
Riprendendo quanto già espresso nella sentenza del Consiglio di Stato n. 8472/2019, si ritiene che i principi ora analizzati comportino un aumento delle responsabilità della pubblica amministrazione, la quale a monte, infatti, dovrà verificarne il rispetto da parte dell'algoritmo o del sistema di IA.
Ciò con rilevanti conseguenze anche in termini di rapporti tra la stessa e i fornitori di software, che non potranno in questo contesto far valere la riservatezza dell'algoritmo (In questo senso, si veda Cons. Stato sent. n. 302/2020, dove si è ritenuto che assumesse la qualifica di controinteressato il titolare dei diritti di proprietà intellettuale e industriale dell'algoritmo, in quanto possessore di un interesse opposto a quello dell'interessato che, nel caso di specie, aveva esercitato il proprio diritto d'accesso).
Qualità dei dati e supervisione umana
I principi di cui sopra sono poi concettualmente collegati ad altri due punti analizzati nel documento del Garante: la qualità dei dati ed il principio della supervisione umana.
Sulla qualità dei dati, l'esattezza e l'aggiornamento dei dati, nonché la loro correzione exart. 5 GDPR, il Garante riprende altresì quanto già affermato dal Consiglio superiore di sanità, sez. V, nel documento “I sistemi di intelligenza artificiale come strumento di supporto alla diagnostica”, 9 novembre 2021.
Il principio della qualità dei dati mira anche a tutelare l'efficacia e la correttezza dei servizi sanitari, evitando che gravi danni alla salute possano derivare dall'elaborazione di dati raccolti per finalità di cura che siano eventualmente diventati inesatti o non siano aggiornati con il passare del tempo, oppure che non siano adeguatamente rappresentativi della realtà in cui il sistema di IA è destinato ad operare. Ciò rispetta il noto principio garbage in – garbage out, secondo cui se il dataset fornito in fase di addestramento dell'algoritmo o del sistema di IA è in qualche modo viziato e dunque composto da dati non corretti o non aggiornati, anche il prodotto finale e la decisione presa dall'IA sarà inevitabilmente non corretta.
Il principio generale qui enunciato si conforma a quanto richiesto dall'art. 10 del Regolamento AI in materia di governance dei dati nei sistemi di IA ad alto rischio. In particolare, analogamente a quanto più sinteticamente richiesto dal Garante, l'art. 10 richiede che i set di dati di addestramento, convalida e prova:
siano oggetti ad adeguate pratiche di governance e gestione dei dati, in particolare relativamente alla raccolta dei dati, alle operazioni di trattamento dei dati ai fini della loro preparazione; di valutazione preliminare dell'adeguatezza del set di dati, ecc.;
siano pertinenti, rappresentativi, esenti da errori e completi, nonché con proprietà statistiche appropriate;
tengano conto delle caratteristiche o degli elementi particolari dello specifico contesto geografico, comportamentale o funzionale all'interno del quale il sistema di IA è destinato a essere usato.
Il rispetto di tale principio si scontra però oggi, nella pratica, con la difficoltà nel nostro ordinamento di accedere ai dati sanitari, in ragione degli stretti limiti posti dall'art. 110 Codice Privacy e dalla non applicazione del principio del secondary use. Su questo però il Garante non fa commenti.
Per quanto attiene poi alla supervisione umana il Garante precisa che la stessa deve attuarsi non solo in fase di utilizzo della AI ma altresì – e forse ancor di più - in fase di addestramento del software, proprio allo scopo di evitare possibili discriminazioni.
Si legge infatti nel documento che “La correttezza nella predizione della IA, soprattutto qualora correlata al rischio di sviluppare malattie, è proporzionale al numero, alla qualità e all'accuratezza dei dati inseriti e alle esperienze immagazzinate su un determinato tema. Tuttavia, le predizioni possono essere “sbagliate” per l'imprecisione dei dati forniti, per l'addestramento degli algoritmi (ad es. informazioni inesatte non aggiornate) o per l'uso di assunzioni non fondate o non pertinenti.”
Correttezza e trasparenza dei processi di trattamento
Oltre poi all'obbligo della valutazione di impatto e alle misure di integrità e sicurezza da applicare, il Garante fornisce agli enti del SSN un elenco dettagliato degli adempimenti da porre in essere. Più esattamente:
far conoscere agli interessati la base giuridica, anche attraverso specifiche campagne di informazione (si veda parere Garante FSE del 8 giugno 2023);
consultare gli stakeholder e gli interessati nell'ambito dello svolgimento della valutazione d'impatto (art. 35, par. 9, GDPR);
pubblicare, anche solo per estratto, la valutazione d'impatto;
informative agli interessati in termini chiari, concisi e comprensibili;
informare non solo in merito agli elementi di cui ai richiamati artt. 13 e 14 GDPR ma anche evidenziando:
se il trattamento sia effettuato nella fase di apprendimento dell'algoritmo (sperimentazione e validazione) ovvero nella successiva fase di applicazione dello stesso, nell'ambito dei servizi sanitari, rappresentando le logiche e le caratteristiche di elaborazione dei dati;
se sussistono eventuali obblighi e responsabilità dei professionisti sanitari, a cui si rivolge l'interessato, ad utilizzare servizi sanitari basati sull'IA;
i vantaggi, in termini diagnostici e terapeutici, derivanti dall'utilizzo di tali nuove tecnologie.
In conclusione
Il documento è senza dubbio di grande utilità, non solo perché indica i punti chiave di una una materia nuovissima, ma altresì perché entra nel dettaglio dei diversi aspetti (qualche volta anche ripetendosi, ma vista la complessità della materia qualche ripetizione non guasta).
L'applicazione sarà infatti molto complessa. Il livello di sensibilità (e qualche volta anche di conoscenza) del GDPR da parte delle SSN non tocca livelli di eccellenza e senza dubbio lo “tsunami Covid” non ha agevolato l'assorbimento di una materia che oggettivamente presenta molte complessità (specie ove i processi sono molto articolati come in sanità).
Quindi l'ulteriore impatto della AI richiederà uno sforzo non indifferente. C'è molto lavoro da fare.
Vuoi leggere tutti i contenuti?
Attiva la prova gratuita per 15 giorni, oppure abbonati subito per poter continuare a
leggere questo e tanti altri articoli.
Sommario
I principi di conoscibilità, non esclusività e non discriminazione algoritmica