La giustizia predittiva

25 Febbraio 2020

La giurisprudenza del Consiglio di Stato ha avallato l'impiego di algoritmi in sede di decisioni pubbliche, così aprendo agli orizzonti della ‘giustizia predittiva' e, con questa, di un diritto auspicabilmente ‘certo'.
Inquadramento

L'esigenza di conoscere i corollari delle condotte è connaturale all'uomo; e la certezza delle regole è tacita condizione della loro accettabilità (Alpa, La certezza del diritto nell'età dell'incertezza, Napoli, 2006).

Che una giustizia ‘certa' sia una giustizia ‘giusta' è il rilievo sotteso al recente, e crescente, impiego delle tecniche di giustizia predittiva, che consentono di prevedere la sentenza ‘probabile' attraverso il medio di algoritmi.

Se lo scopo è, dunque, la predizione degli esiti delle controversie, e la ratio la certezza delle decisioni e lo stesso affidamento, la fede laica degli utenti del sistema ‘giustizia', i mezzi sono gli algoritmi, operazioni logiche che, a partire da dati in ingresso, forniscono dati in uscita attraverso una sequenza finita di passaggi (Cormen - Leiserson - Rivest - Stein, Introduction to Algorithms, Cambridge, 2010; Ferragina - Luccio, Il pensiero computazionale. Dagli algoritmi al coding, Bologna, 2017, 10, secondo cui «un Algoritmo soddisfa le seguenti proprietà: (1) è utilizzabile su diversi input generando i corrispondenti output; (2) ogni passo ammette un'interpretazione univoca ed è eseguibile in un tempo finito; (3) la sua esecuzione si ferma qualunque sia l'input»).

Che gli algoritmi possano essere applicati all'ambito del processo, contrapponendo la matematica razionalità al soggettivismo della decisione (Irti, Un diritto incalcolabile, Torino, 2016, 8), lo dimostrano i recenti esempi europei, tra cui emerge la piattaforma francese “Predictice.com”, che consente la determinazione dell'esito della lite in forza delle tecniche del machine learning, e finanche interni (si pensi alla sezione “Giurisprudenza Predittiva” sul sito della Corte d'appello di Venezia o il progetto “Prevedibilità delle decisioni” avviato dalla Corte d'appello di Bari).

Lo dimostrano, del resto, insieme alle – esplicite od implicite – applicazioni di modelli matematici da parte della giurisprudenza (v., ad es., Cons. St., sez. III, 22 giugno 2017, n. 3333 sul criterio probabilistico delle interdittive antimafia o Cass. civ., sez. III, 20 marzo 2018, n. 6862 sulle valutazioni probabilistiche funzionali all'affermazione della responsabilità del professionista), le affinità ontologiche tra algoritmi e processo, sequenze logiche tese all'approdo a risultati in forza di passaggi obbligati e inestricabilmente connessi.

La pars destruens

In antitesi rispetto alla predizione delle liti in forza di sequenze algoritmiche sembrano, tuttavia, porsi gli stessi canoni che presiedono al corretto esercizio della funzione giurisdizionale.

Se è, infatti, vero che la prevedibilità è un valore, radicato nello stesso ordinamento positivo (v. l'art. 65 R.d. n. 12/1941, nonché gli artt. 374 c.p.c. e 99, comma 3, c.p.a. – Chiarloni, Efficacia del precedente giudiziario e tipologia dei contrasti di giurisprudenza, in Riv. trim. dir. e proc. civ., 1989, 119-122), indisponibile è il principio di indipendenza interna ed esterna della funzione giudiziaria, di cui all'art. 101, comma 2, Cost. (Carratta, La riforma del giudizio di cassazione, in Riv. trim. dir. e proc. civ., 2006, 1105).

Insieme all'indipendenza, rileva il trasparente esercizio della funzione giurisdizionale, garantito dalla controllabilità in facto e in iure dei suoi prodotti, attraverso lo specchio della motivazione e gli strumenti di censura delle decisioni.

Eppure, ad onta del formale schermo di neutralità che lo caratterizza, l'algoritmo sottende scelte ed assunzioni contingenti, che presiedono alla raccolta e selezione dei dati alla base della sequenza. A seconda dei dati che si immettono, muta il risultato; e la sistematizzazione dei dati può dare luogo a deviazioni da quel principio di uguaglianza che alimenta la certezza (v. O'Neil, Armi di distruzione matematica. Come i big data aumentano la disuguaglianza e minacciano la democrazia, Milano, 2017; si pensi al caso del software inglese Hart, le cui decisioni venivano assunte attribuendo un particolare peso specifico al codice di avviamento postale dei condannati, con l'effetto di discriminare gli abitanti in zone degradate).

Ai rischi di discriminazione si aggiungono quelli, pure connaturali agli algoritmi, di ‘oscurità' e non controllabilità. L'intelligenza artificiale può finanche superare quella umana di cui è figlia, tanto che finanche il programmatore può avere difficoltà a ripercorrere l'iter seguito dalla macchina (Pasquale, The Black Box Society. The Secret Algorithms That Control Money and Information, Cambridge-MA, 2015).

Per una prima conclusione

Le infinite potenzialità degli algoritmi, che promuovono l'efficienza del sistema ‘giustizia' e – più latamente – della macchina amministrativa, si scontrano con le difficoltà connesse alle possibili derive delle intelligenze artificiali.

Ad un punto di sintesi è approdata la giurisprudenza amministrativa, che, con riferimento ai procedimenti amministrativi, ha fissato alcuni paletti invalicabili.

Pur premettendo che «non può essere messo in discussione che un più elevato livello di digitalizzazione dell'amministrazione pubblica sia fondamentale per migliorare la qualità dei servizi resi ai cittadini e agli utenti» e che, non solo l'esclusione dell'intervento del funzionario persona fisica rispetta i principi dell'attività amministrativa, ma serve anche a rafforzarne l'imparzialità, il Consiglio di Stato ha sottolineato che le procedure robotizzate, da una parte, non possano comportare elusioni del dettato positivo e, dall'altra, non possano mai sostituirsi all'attività cognitiva e di giudizio (Cons. St., sez. VI, 8 aprile 2019, n. 2270).

Perché ciò sia possibile, l'algoritmo deve essere, anzitutto, conoscibile ex ante in tutti i suoi aspetti, da chiunque ne abbia interesse, oltre a dover essere suscettibile ex post di un sindacato giurisdizionale pieno (Cons. St., sez. VI, 8 aprile 2019, n. 2270).

Come, poi, il medesimo Consiglio di Stato ha precisato in una ulteriore, recentissima, sentenza (Cons. St., sez. VI, 13 dicembre 2019, n. 8472), tre principi devono sempre essere massimamente garantiti: il principio di conoscibilità, destinato a coniugarsi con quello di comprensibilità, «per cui ognuno ha diritto a conoscere l'esistenza di processi decisionali automatizzati che lo riguardino ed in questo caso a ricevere informazioni significative sulla logica utilizzata»; il principio di non esclusività della decisione algoritmica, che impone che, nel processo decisionale, esista sempre un contributo umano capace di controllare, validare ovvero smentire la decisione automatica; il principio di non discriminazione algoritmica («secondo cui è opportuno che il titolare del trattamento utilizzi procedure matematiche o statistiche appropriate per la profilazione, mettendo in atto misure tecniche e organizzative adeguate al fine di garantire, in particolare, che siano rettificati i fattori che comportano inesattezze dei dati e sia minimizzato il rischio di errori e al fine di garantire la sicurezza dei dati personali, secondo una modalità che tenga conto dei potenziali rischi esistenti per gli interessi e i diritti dell'interessato e che impedisca tra l'altro effetti discriminatori nei confronti di persone fisiche»).

L'orizzonte può essere esteso al processo, che, con il procedimento, condivide struttura e funzione (Fazzalari, Note in tema di diritto e processo, Milano, 1957, 110 ss.; Id., voce Processo (teoria generale), in Noviss. dig. it., XIII, Torino, 1966, 1075 ss.).

Come la decisione pubblica robotizzata, così la sentenza algoritmica si deve basare su modelli matematici rigorosamente conoscibili e comprensibili (si pensi all'impiego avallato da recente dottrina – Viola, Interpretazione della legge con modelli matematici, Milano, 2017 – dei criteri di interpretazione della legge di cui all'art. 12 delle Disposizioni sulla legge in generale), controllabili in forza della motivazione e sindacabili con i mezzi di impugnazione.

L'effettività dei controlli impone la non esclusività del sistema algoritmico, non solo in primo grado – ove gli algoritmi non possono comunque obliterare valutazioni di opportunità, equità o bilanciamento di contrapposti interessi che postulano un giudice persona fisica –, ma anche e soprattutto nei gradi successivi, non potendosi prospettare Corti d'appello o Giudici di legittimità robotizzati.

Il canone di indipendenza deve essere, poi, preservato, sia in forza della richiamata non esclusività del sistema algoritmico, sia della idoneità dello stesso a garantire esiti compatibili con il principio di uguaglianza; ciò in forza di una selezione dei dati a monte il più possibile improntata a criteri oggettivi, vagliabili in forza della parte motiva delle pronunce e sindacabili in sede di impugnazione.

Se l'algoritmo aspira a sostituire il giudicante, deve essere, tanto quanto quest'ultimo, indipendente o neutrale e deve, tanto quanto quest'ultimo, erogare output ‘controllabili'.

Terzietà, imparzialità ed indipendenza non necessariamente escludono la robotizzazione; ‘giusto' processo e sequenze algoritmiche non appartengono ad universi incompatibili. Processo e robotica sono, invero, conciliabili ove i modelli impiegati siano conoscibili, comprensibili e, per l'effetto, ‘controllabili'. Perché il processo, come il diritto, non è mai mera tecnica; bensì, tecnica di umanizzazione della tecnica (Supiot, Homo juridicus. Saggio sulla funzione antropologica del diritto, Milano, 2006, 61 e 143; De Bertolis, Elementi di antropologia giuridica, Napoli, 2010, 59). È tecnica esercitata nell'interesse di uomini che – in quanto tali – sentono il bisogno, anzi hanno il diritto, di essere giudicati dai propri simili.

Guida all'approfondimento
  • Carleo A. (a cura di), Decisione robotica, Bologna, 2019;
  • Cormen - Leiserson - Rivest - Stein, Introduction to Algorithms, Cambridge, 2010;
  • Ead. (a cura di), Calcolabilità giuridica, Bologna, 2017;
  • Giordano, Giustizia predittiva e overruling, in La Nuova Procedura Civile, 2019;
  • Ferragina - Luccio, Il pensiero computazionale. Dagli algoritmi al coding, Bologna, 2017;
  • O'Neil, Armi di distruzione matematica. Come i big data aumentano la disuguaglianza e minacciano la democrazia, Milano, 2017;
  • Viola, Interpretazione della legge con modelli matematici, Milano, 2017.

Fonte: ilProcessoCivile.it

Vuoi leggere tutti i contenuti?

Attiva la prova gratuita per 15 giorni, oppure abbonati subito per poter
continuare a leggere questo e tanti altri articoli.

Sommario