Carta etica europea sull'uso dell'intelligenza artificiale nei sistemi giudiziari e loro sviluppo
20 Marzo 2019
Premessa
L'intelligenza artificiale (AI) sta trovando sempre maggiore impiego nei nostri sistemi giudiziari, anche tramite le cc.dd giustizia e polizia predittive. Ciò solleva problemi etici e di tutela dei diritti fondamentali (equo processo, privacy etc.) cui il Comitato dei Ministri del Consiglio d'Europa (COE) ha cercato di dare soluzioni adottando questa Carta etica ed altri documenti. La Commissione europea per l'efficienza della giustizia è stata creata dal Consiglio dei Ministri del COE alla fine del 2002 per migliorare la qualità e l'efficienza dei sistemi giudiziari europei e per incrementare la fiducia delle parti negli stessi. Altri organi analoghi a questo sono il Consiglio consultivo dei giudici europei (CCJE, acronimo di Consultative Council of European Judges ) ed il Consiglio consultivo dei procuratori europei (CCPE, acronimo di Consultative Council of European Prosecutors).
L'AI, è un ramo dell'informatica e della robotica che, sulla base di fondamenti teorici, metodologici e tecnici elabora e processa dati per creare hardware e software in grado di migliorare e rendere più efficiente ed efficace l'attività umana in alcuni settori. Negli ultimi anni sta diventando una realtà sempre più consolidata anche nella giustizia per coronare il progetto di passaggio dalla giustizia “fisica” nelle aule alla cyber giustizia in spazi virtuali. Ciò ha evidenziato pregi, difetti e problemi etici che hanno portato all'elaborazione di linee guida specifiche, come quelle sopra menzionate ed oggetto del secondo focus e codici etici come la Carta qui in esame adottata nella seduta plenaria n. 31 del CEPEJ del 3-4 /12/18, anche se le sue Linee guida sono state presentate ufficialmente dal Comitato dei Ministri del Consiglio d'Europa in una conferenza stampa tenutasi a Bruxelles il 16 gennaio 2019. Detta i 5 principi cardine cui dovrebbe ispirarsi l'operato di chi elabora l'intelligenza artificiale, delle politiche europee in questo campo e degli utilizzatori, stante il fatto che la c.d. giustizia predittiva, basata sulla prevedibilità dell'applicazione delle leggi, della prassi e del comportamento delle parti, se da un lato va a vantaggio della certezza del diritto, elimina le discrasie nell'esegesi giurisprudenziale, consente ai legali di offrire ai clienti una migliore assistenza stante la prevedibilità del successo o meno dell'azione giudiziaria, dall'altro può perpetrare stereotipi e discriminazioni con incremento della lesione dei diritti delle persone interessate, più evidenti nelle sue applicazioni nel penale. È rivolta a tutti gli operatori pubblici e privati che creano e sviluppano mezzi e servizi di AI su cui notoriamente si fonda il trattamento delle decisioni giurisdizionali e/o dei dati giudiziari ed a tutti i politici che devono creare un quadro normativo o regolamentare lo sviluppo e l'uso degli stessi. È fondamentale, per raggiungere questi scopi, assicurare che i dati siano trattati “in condizioni di trasparenza, neutralità e legalità certificata” da esperti indipendenti esterni all'operatore. Infatti le autorità indipendenti indicate dalla Carta dovranno valutare i livelli di adesione ai principi cardine in essa enunciati, revisionarli periodicamente, predisporre piani di azione con le misure necessarie per la loro totale ricezione da parte dei suddetti operatori e per adattarli ai nuovi mezzi frutto dell'evoluzione tecnologica. 1) rispetto dei diritti fondamentali È palese come l'uso dell'AI per dirimere una lite e nello specifico nel fornire, nei termini sopra esplicati, un aiuto alla decisione giudiziaria od un orientamento alla parte non può violare iprincipi fondamentali delle garanzie processuali ex art. 6 (diritti all'accesso alla giustizia, alla parità delle armi, al contraddittorio ed all'equo processo) e del rispetto della privacy ex art. 8 Cedu e Convenzione sulla tutela dei dati personali (108 e 108+). Il suo impiego per facilitare il lavoro dei tribunali e dei professionisti della giustizia non può parimenti interferire con i principi dello stato del diritto, dell'indipendenza, autonomia ed imparzialità dei giudici. Premesso che tutte le scelte etiche sono valutate a monte dal realizzatore del programma e non dall'utilizzatore, sarebbe preferibile adottare i cc.dd. approcci “Etycal by design e Human bydisegn”: sin dalla fase della creazione e “dell'apprendimento” devono essere inserite regole che impediscano di ledere, direttamente od indirettamente, i valori fondamentali protetti da queste Convenzioni.
2) principio di non discriminazione L'uso dell'AI può rilevare discriminazioni verso individui o categorie d'individui, soprattutto nel suo impiego nel settore penale, perciò gli operatori pubblici e privati devono assicurarsi che i dati trattati dall'AI non le riproducano od aggravino o portino ad analisi ed usi deterministici. Questi controlli dovranno essere capillari sia nella fase di elaborazione che dell'uso perché il trattamento riguarda principalmente dati sensibili (genetici, biometrici..ecc.) degli interessati.
3) principio di qualità e di sicurezza Nel trattare le decisioni ed i dati giudiziari bisogna utilizzare fonti certificate e dati intangibili tramite modelli multidisciplinari nell'ambito dello sviluppo di una tecnologia sicura. Un mezzo per conseguire questo fine è la creazione di gruppi di lavoro misti in cui far confluire l'esperienza dei professionisti della giustizia, dei docenti e dei ricercatori in diritto e in scienze sociali che dovranno elaborare modelli funzionali.
4) principio di trasparenza, neutralità ed integrità intellettuale Tale principio ha il fine di rendere accessibili e comprensibili i metodi di trattamento dei dati e di assicurare un controllo sul rispetto di questi principi da parte di autorità esterne. Si pone infatti il problema dell'equo bilanciamento della tutela del copyright di questi processi che regolano il funzionamento dell'AI ed i principi di neutralità, legalità ed integrità intellettuale. È palese che tutta la catena che porta dall'elaborazione del software, passando dalla selezione ed organizzazione dei dati, sino all'apprendimento degli stessi influisce sui diritti delle persone, rectius degli interessati titolari dei dati giuridici contenuti nei documenti processati. La delicatezza e la gravità di questo problema è tale da essere stato oggetto di uno specifico studio, nella fase preparatoria di questa Carta, dal MSI-NET (Committee of experts on Internet Intermediaries) del COE intitolato “Algoritmi e diritti umani”. Tramite un allegato Studio dei maggiori esperti, la Carta propone varie soluzioni per attuare questo giusto equilibrio tra cui garantire una totale trasparenza tecnologica tramite open data ed open source del codice e della documentazione.
5) principio “dell'uso sotto controllo” L'AI non può limitare l'autonomia del suo utilizzatore che, anzi, deve essere rafforzata. Il professionista della giustizia dovrebbe poter risalire in ogni momento alle decisioni ed ai dati giudiziari che sono stati usati per produrre un risultato. Inoltre, egli dovrebbe avere la possibilità di scostarsene in virtù della specificità del caso concreto che si trova ad affrontare. È necessario che i sopradetti principi vengano applicati pedissequamente perché, come si è visto nei paesi in cui l'applicazione di questi sistemi è già una realtà, il passaggio dalla giustizia classica a quella cybernetica ed alla c.d. giustizia predittiva ha sollevato non pochi problemi etici e di tutela dei diritti fondamentali. In particolare, i problemi principali sono connessi alla tutela della privacy ed al rispetto dei diritti alla difesa oggetto anche di studi approfonditi da parte del CEPEJ (Dossier n.13/16 “Linee guida della condotta del cambiamento verso la Cybergiustizia”). Non solo, anche con la recente Dichiarazione del CM del COE n. 24/2019 viene lanciato l'allarme su come l'AI sia in grado di manipolare le scelte anche in campo politico, sociale ed economico. Occorre poi sottolineare che mentre negli Usa ed in Canada l'avvocato robot ed i tribunali virtuali sono realtà consolidate, invece, in Europa si stanno sviluppando le c.d. legaltechs, per lo più start-up specializzate nell'elaborazione di softwares sempre più all'avanguardia, algoritmi e servizi per assistere gli operatori ed i professionisti del diritto. L'uso dell'AI tra gli Stati del COE è disomogeneo nei vari Paesi. La Lettonia ha dichiarato di voler usare la learning machine solo per una buona amministrazione della giustizia, id est ricavare dati statistici dalle giurisdizioni per un migliore allocamento delle risorse (umane, finanziarie etc.). L'Olanda è il paese che già da tempo ha adottato politiche in tal senso e per creare una vera cyber giustizia: anche se è ancora in fase sperimentale, ha applicato queste tecnologie per creare una piattaforma di ADR a livello internazionale che assiste creando un contatto diretto, in via digitale e totalmente dematerializzata, tra gli utenti, il mediatore ed il legale che li assiste (metodo c.d. two ways). In Francia oltre ad usufruire dei servizi dell'intelligenza artificiale per monitorare la prassi, si applica ad analisi comportamentali delle parti e dei giudici ed alle mediazioni come in Olanda, così come in Inghilterra, ove la digitalizzazione della giustizia è abbastanza evoluta (è l'unico tra questi paesi ad applicarla anche al penale) ed in Austria. È bene precisare che il devolvere alcune fasi processuali, come l'organizzazione del fascicolo, le analisi comportamentali delle parti e dei giudici, l'estrazione dei metadati per facilitare le indagini investigative etc. (operazioni di case filing e case management) non vanno confuse con l'introduzione del processo telematico obbligatorio, quindi con operazioni di scambio, deposito, comunicazione telematica dei documenti, servizi di firma elettronica etc., perché sono operazioni che esulano dall'uso dell'AI. In molti paesi, come sopra detto, le analisi esulano dal processo penale, ove l'applicazione dell'AI risulta più rischiosa e problematica visto che riguarda la creazione di modelli per prevedere la capacità di delinquere, di recidiva, di pericolosità sociale etc. di un individuo, col rischio di discriminazioni e di una deriva deterministica. In molti Stati del COE si sta sviluppando anche la c.d. giustizia predittiva che comporta ovvi problemi etici, pratici, di difesa della privacy e dei diritti di difesa ex artt.6, 8 Cedu, Convenzioni COE 108 e 108+ e Regolamento GDPR (il Regolamento generale sulla protezione dei dati) dell'UE. In Italia il concetto della prevedibilità delle decisioni è alla base di progetti che hanno introdotto, sin dal 2016, in via sperimentale l'uso dell'AI quale ausilio al giudice per prevedere le possibilità di successo di una causa ed indirizzare le parti verso la mediazione o soluzioni transattive. Non solo, anche per uniformare la prassi, rendere più snella la motivazione delle sentenze etc. riconoscendo che la prevedibilità delle decisioni è “espressione e presupposto del principio di uguaglianza tra i cittadini e di giustizia del processo (Cass. S.U. n. 23675/2014). Il primo progetto, ormai consolidato, è della terza sezione della Corte di Appello di Bari, seguito poi da analoghi e più recenti della Corte di Appello di Venezia (giurisprudenza giuslavoristica: diritto del lavoro, societario, bancario, dell'impresa ed industriale) e Brescia (prassi sulla protezione internazionale e licenziamenti disciplinari). Nei sistemi di civil law il giudice ha discrezionalità nell'accogliere o meno una questione , con la giustizia predittiva, invece, l'analisi dei dati porta a modelli predefiniti e statistici di comportamento delle parti e dei giudici. Ciò trova conferma in un esperimento francese che ha avuto esiti paradossali: le Corti di appello di Rennes e Douai hanno testato una learning machine per l'analisi del comportamento dei giudici e delle loro pronunce, basato su dati già pubblici ed altri forniti dal Ministero della Giustizia. L'esperimento è stato un flop perché si è giunti a risultati aberranti ed inappropriati per la confusione fatta tra le scelte lessicali delle motivazioni e le causalità che avevano determinato i ragionamenti dei giudici studiati dal sistema. I problemi legati alla semantica, alle diverse interpretazioni dei lemmi (soprattutto quando si tratta di applicare leggi soggette a pluralità di esegesi lessicali) e la possibilità che i dati possano essere hackerati sono grossi limiti all'impiego dell'AI. Con questo esperimento trovano tragica conferma le necessità di attenersi ai delineati principi cardine della Carta, soprattutto a quello relativo all'autonomia, l'indipendenza e l'imparzialità del giudice ed ai i diritti al contraddittorio, alla parità delle armi e di accesso alla giustizia, pilastri di una società democratica, che non dovranno mai essere messi in discussione dall'uso dell'intelligenza artificiale. L'individualità delle persone e delle liti, ognuna con le proprie peculiarità, devono continuare ad avere un ruolo di primaria importanza nei nostri sistemi giudiziari.
Utilizzo nelle piattaforme europee
Il primo impiego, nei termini sopra descritti per le prime piattaforme europee, è stato introdotto nel Regolamento (UE) 524/2013 “relativo alla risoluzione delle controversie online dei consumatori e che modifica il regolamento (CE) n. 2006/2004 e la direttiva 2009/22/CE (regolamento sull'ODR per i consumatori)”: le procedure conciliative sono tutte telematiche e virtuali e si svolgono tramite una piattaforma, accessibile dal portale “La tua Europa”. I processi robotizzati devono riguardare una pluralità di servizi e si basano sull'interscambio d'informazioni in modo sicuro volte a creare prassi conformi, traduzioni delle informazioni scambiate tramite la stessa necessarie agli organismi di mediazione ed alle parti per concludere le ADR. Si noti che l'art. 22 GDPR (il Regolamento generale sulla protezione dei dati) consente alle persone di rifiutare di essere oggetto di decisioni fondate sul trattamento automatizzato dei propri dati senza alcuna eccezione. Il CEPEJ ha creato un gruppo di lavoro sulla mediazione e le altre forme di soluzione alternative delle dispute per elaborare le prime riflessioni e proporre le prime soluzioni alle problematiche, soprattutto quelle relative al rispetto degli artt. 6 (equo processo), 8 (privacy) e 13 (diritto ad un rimedio effettivo) Cedu, sorte per l'uso di queste tecnologie nelle relative procedure. Il settore penale è quello in cui sono state sollevate maggiori perplessità e rischi di discriminazione. La c.d. polizia predittiva usando l'intelligenza artificiale consente di elaborare schemi e modelli di comportamento. Questi da un lato possono agevolare il lavoro dei magistrati, soprattutto quando l'importanza e l'urgenza di un caso necessita di un'istruttoria rapida e mirata, dall'altro possono agevolare il lavoro di monitoraggio e prevenzione. Fonti documentali
|