L’intelligenza artificiale generativa nel processo civile: prime normative e prospettive di applicazione

04 Settembre 2024

Nel presente Focus, l'autore delinea un quadro delle attuali normative europee in tema di Intelligenza Artificiale e le possibili prospettive della sua applicazione nel nostro processo civile, alla luce del recentissimo disegno di legge D.D.L. sull'IA, presentato dal Consiglio dei Ministri in data 23 aprile 2024.

Premessa

Come noto, le Intelligenze Artificiali Generative (IA) sono sistemi software che comunicano in linguaggio naturale (o neuronale), in grado di fornire risposte a domande relativamente complesse e di creare contenuti (fornire un testo, un'immagine o un suono) a seguito di una domanda o di istruzioni formulate (prompt).

Questi strumenti includono OpenAI, ChatGPT, Copilot, Gemini e Bard, tutti in rapido sviluppo.

L'IA generativa funziona apprendendo modelli e caratteristiche da ampie raccolte di dati. Si basa su una comprensione statistica del linguaggio: il suo scopo è quello di definire, con la massima certezza possibile, la parola successiva, senza alcuna conoscenza propria.

Quindi, per fare un esempio pratico, quando il sistema scrive che "Giorgia Meloni" è il "Presidente del Consiglio dei Ministri", non è perché si basa su una base di conoscenza che crea un collegamento diretto tra queste due informazioni, ma perché, nei casi che ha incontrato (nei dati di addestramento), l'associazione "Meloni" e "Presidente del Consiglio" è stata fatta molto spesso. L'IA ha quindi dedotto che questa associazione era probabilmente rilevante.

I dati di addestramento sono per lo più informazioni trovate su Internet, insiemi di dati selezionati e informazioni immesse da altri utenti nella macchina attraverso messaggi. L'IA generativa sembra fornire buoni risultati all'interno di una cornice chiaramente definita, come, ad esempio, le traduzioni di testi (ad esempio dall'inglese al francese e viceversa), la generazione di testi, immagini o suoni, la sintesi automatica dei testi, analisi semantica e rilevamento delle opinioni, etc.

Di seguito, si delineerà un quadro delle attuali normative europee in tema di Intelligenza Artificiale e lo scrivente indagherà ed ipotizzerà le possibili prospettive della sua applicazione nel nostro processo civile, alla luce del recentissimo disegno di legge D.D.L. sull'IA, presentato dal Consiglio dei Ministri in data 23 aprile 2024.

I rischi derivanti dall'utilizzo dell'intelligenza artificiale

Il maggior rischio derivante dall’IA generativa è quello della potenziale produzione di informazioni di fatto inesatte (risposte false, "allucinazioni" e "pregiudizi").

Le risposte sbagliate potrebbero avere origine dadati di addestramento insufficienti o errati.

Dati errati, infatti, portano a risposte errate o “confuse”. Nel gergo informatico, l’espressione "Allucinazione" vuol significare proprio che alcune risposte sono semplicemente inventate. Se non trovano una risposta, infatti, gli algoritmi tendono a inventarne una probabile.

Un'altra ragione delle “allucinazioni” potrebbe essere la creazione di una falsa correlazione tra i dati. Occorre partire dal fatto che l’intelligenza artificiale è profondamente determinata dai dati su cui è stata addestrata: non è, quindi, mai neutrale e, al contrario, incorpora tutte le imprecisioni, le lacune o tutti i “fallimenti” contenuti nella banca dati di addestramento e/o i pregiudizi culturali di chi ha progettato il sistema e ne ha guidato l'addestramento (in)validando alcune delle sue risposte.

Ci possono essere anche casi in cui i pregiudizi sono stati incorporati deliberatamente nell'algoritmo. L' opacità di come viene programmato l'algoritmo e di come vengono collegati i dati sottostanti porta a un'ulteriore incomprensibilità e quindi a difficoltà nella verifica delle risposte date.

Anche i dati personali sono esposti a potenziali pericoli con l’IA Generativa. Le informazioni immesse vengono trasmesse al fornitore del sistema e potranno essere potenzialmente utilizzate come dati di formazione per gli utenti futuri e per generare varie risposte (output) da parte della stessa IA.

Ciò potrebbe comportare una violazione della protezione dei dati personali o la divulgazione involontaria di informazioni classificate o comunque sensibili (ad es., dati giudiziari o relativi alla salute). La protezione dei dati trasmessi attraverso i sistemi non è, allo stato, garantita.

I dati, infatti, vengono (spesso) registrati sui server di aziende, spesso non europee, e/o rivendute a terzi (o addirittura potrebbero essere prelevati tramite un attacco informatico, dato che il livello di sicurezza di questi server non è noto).

Emerge, ancora, una mancanza di trasparenza nell'origine dei dati di addestramento utilizzati. La maggior parte dei sistemi di IA Generativa non è in grado di elencare e accreditare i testi utilizzati per la creazione degli output. Questo potrebbe non solo causare difficoltà nella verifica degli output, ma anche provocare violazioni del diritto d’autore.

Questi sistemi, inoltre, possono non garantire lo stesso livello di qualità nelle risposte. Infatti, la maggior parte dei sistemi di Intelligenza Artificiale Generativa contiene un grado di casualità che consente loro di proporre risposte diverse alla stessa domanda.

Le risposte possono variare a seconda del momento in cui vengono poste o a causa delle sfumature nella formulazione della domanda. Non è quindi possibile garantire sempre lo stesso livello di qualità delle risposte (in effetti chi scrive ha avuto personalmente modo di constatare, attraverso ChatGPT, che la risposta era diversa a seconda del momento in cui la macchina veniva interrogata).

Si rimanda, per ulteriori approfondimenti, alla lettura della “Nota informativa preparata dal Gruppo di lavoro CEPEJ sulla giustizia informatica e l'intelligenza artificiale (CEPEJ-GT-CYBERJUST)”.

IA Generativa e ordinamento europeo: il nuovo regolamento UE e prospettive di applicazione nella Giustizia

Prima di affrontare le possibili applicazioni dell'intelligenza artificiale generativa nel processo civile, occorre sicuramente condividere quanto affermato di recente da una autorevole studiosa dell'Intelligenza Artificiale applicata ai sistemi giuridici, l'ex Presidente del Tribunale di Pisa Giuliana Civinini, secondo cui la Giustizia non può restare un' «isola non tecnologica» e che, il prima possibile la Giustizia sarà chiamata ad affrontare l'uragano dell'intelligenza artificiale che, oramai, si sta ramificando in tutti i settori della nostra esistenza (sul punto, si invita il lettore ad una attenta lettura del suo scritto pubblicato su https://www.questionegiustizia.it/articolo/nuove-tecnologie-e-giustizia).

La collega si pone una domanda “zero” sull'utilizzo dell'intelligenza artificiale, che faccio anche mia: «Vogliamo usare questi sistemi?».

La collega risponde con un “Sì, ma condizionato".

E non può che essere un Sì, condizionato certamente.

Gli algoritmi e l'IA sono sicuramente degli strumenti di innovazione e miglioramento rivoluzionari ma devono essere “governati”, ossia regolati e resi conformi e aderenti ai principi di indipendenza, imparzialità, non discriminazione e trasparenza, che rappresentano valori giuridici fondanti (anche) la nostra libertà.

Giuliana Civinini afferma, in particolare, che «I cambiamenti nel campo della cyber-giustizia devono essere guidati dalle Corti e non dalla tecnologia; ogni sistema informativo giudiziario deve essere implementato tenendo conto dei valori giudiziari fondamentali; noi, giudici e altri attori della giustizia, dobbiamo imparare a contribuire allo sviluppo di questi strumenti e sistemi e a monitorare e valutare la loro qualità e la conformità alle risorse umane» (pag.6 dell'articolo citato).

Il nuovo regolamento UE sull'Intelligenza artificiale, approvato a marzo 2024 (Reg. UE 2024/1689)  ha l'obiettivo di migliorare il funzionamento del mercato interno e promuovere l'adozione di un'intelligenza artificiale affidabile e incentrata sull'uomo, garantendo, nel contempo, un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dell'UE, compresa la democrazia, lo Stato di diritto e la tutela dell'ambiente dagli effetti dannosi dei sistemi di intelligenza artificiale nell'Unione, nonché sostenendo l'innovazione.

La definizione di sistema di IA formulata nel regolamento è quella di: «Un sistema basato su una macchina progettato per funzionare con diversi livelli di autonomia e che può mostrare adattività dopo l'implementazione e che, per obiettivi espliciti o impliciti, deduce, dall'input che riceve, come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali».

La nuova disciplina non intende introdurre una normazione esaustiva e dettagliata di ogni aspetto connesso all'IA, mirando piuttosto ad introdurre:

  • regole armonizzate per l'immissione sul mercato, la messa in servizio e l'uso dei sistemi di intelligenza artificiale nell'Unione;
  • il divieto di determinate pratiche di intelligenza artificiale;
  • requisiti specifici per i sistemi di IA ad alto rischio e obblighi per gli operatori di tali sistemi;
  • regole di trasparenza armonizzate per alcuni sistemi di IA;
  • regole armonizzate specifiche per l'immissione sul mercato di modelli di IA di uso generale;
  • regole sul monitoraggio del mercato, sulla governance e sull'applicazione della vigilanza del mercato stesso;
  • misure a sostegno dell'innovazione, con particolare attenzione alle PMI, comprese le start-up.

Seguendo un approccio "basato sul rischio" (c.d. risk based approach), secondo il quale tanto maggiore è il rischio, quanto più rigorose devono essere le regole, la nuova disciplina stabilisce obblighi per fornitori e operatori dei sistemi di IA a seconda del livello di rischio che l'IA può generare. I livelli di rischio si dividono in:

  • un rischio inaccettabile;
  • un rischio alto;
  • un rischio basso o minimo.

Sono stabiliti anche obblighi specifici per la trasparenza.

Il regolamento considera ad alto rischio un numero limitato di sistemi di IA, che possono potenzialmente avere ripercussioni negative sulla sicurezza delle persone o sui loro diritti fondamentali (tutelati dalla Carta dei diritti fondamentali dell'UE).

Prima di immettere un sistema di IA ad alto rischio sul mercato dell'UE - o prima di farlo entrare in servizio - i fornitori dovranno sottoporlo a una valutazione della conformità. Dovranno, quindi, dimostrare che il loro sistema è conforme ai requisiti obbligatori per un'IA affidabile (ad esempio: qualità dei dati, documentazione e tracciabilità, trasparenza, sorveglianza umana, accuratezza, cyber-sicurezza e robustezza).

Anche per i sistemi biometrici è sempre richiesta una valutazione della conformità da parte di terzi. La valutazione dovrà essere ripetuta in caso di modifica sostanziale del sistema o della sua finalità. Per quanto di interesse ai fini del presente contributo, tra i sistemi ad alto rischio rientrano anche quelli «utilizzati nelle attività di contrasto, di gestione della migrazione, dell'asilo e del controllo delle frontiere, di amministrazione della giustizia, nonché nello svolgimento dei processi democratici e per la valutazione e classificazione delle chiamate di emergenza».

IA Generativa e ordinamento interno: le possibili attuali applicazioni nel nostro processo civile

In attesa della emanazione di una normativa “domestica” (vedasi, sul punto, quanto si dirà sul nuovo D.D.L. in tema di IA presentato dal Consiglio dei Ministri in data 23 aprile 2024) sulla disciplina dell'intelligenza artificiale, occorre verificare quali sono i “segmenti” processuali che possono già usufruire dei software di intelligenza artificiale e se, in caso di utilizzo disfunzionale o “allucinatorio” di questi processi, possano comminarsi delle sanzioni processuali.

Sicuramente, i software d'intelligenza artificiale possono essere utilizzati per la redazione degli atti introduttivi e delle memorie difensive. Come noto, in una recente decisione di una Corte americana (https://www.courthousenews.com/wp-content/uploads/2023/06/chatGPT-sanctions-ruling.pdf) uno studio legale è stato sanzionato perché, in una causa civile di risarcimento danni intentata da un passeggero contro una compagnia aerea i difensori, a sostegno delle tesi a favore del cliente nei loro atti, avevano fatto riferimento a precedenti giurisprudenziali, elaborati da un sistema di intelligenza artificiale noto come ChatGPT, inesistenti e per di più articolati su criteri di massimazione poco tecnici, ma sulla cui genuinità avevano insistito.

Il provvedimento giurisdizionale americano non sanzionava di per sé l'uso di un sistema di IA nella predisposizione dell'atto giudiziario di parte, ma esclusivamente il suo uso “atipico” e superficiale, cioè l'aver fatto affidamento su precedenti giurisdizionali inesistenti senza effettuare alcun controllo.

Nel nostro sistema, l'art.121 c.p.c. prevede che: «Gli atti del processo, per i quali la legge non richiede forme determinate, possono essere compiuti nella forma più idonea al raggiungimento del loro scopo. Tutti gli atti del processo sono redatti in modo chiaro e sintetico», mentre l'art. 46 disp. att. c.p.c. stabilisce: «I processi verbali e gli altri atti giudiziari debbono essere scritti in carattere chiaro e facilmente leggibile. Quando sono redatti in forma di documento informatico, rispettano la normativa, anche regolamentare, concernente la redazione, la sottoscrizione, la trasmissione e la ricezione dei documenti informatici. Negli altri casi debbono essere scritti in continuazione, senza spazi in bianco e senza alterazioni o abrasioni. Le aggiunte, soppressioni o modificazioni eventuali debbono essere fatte in calce all'atto, con nota di richiamo senza cancellare la parte soppressa o modificata. Il Ministro della giustizia, sentiti il Consiglio superiore della magistratura e il Consiglio nazionale forense, definisce con decreto gli schemi informatici degli atti giudiziari con la strutturazione dei campi necessari per l'inserimento delle informazioni nei registri del processo. Con il medesimo decreto, sono stabiliti i limiti degli atti processuali, tenendo conto della tipologia, del valore, della complessità della controversia, del numero delle parti e della natura degli interessi coinvolti. Nella determinazione dei limiti non si tiene conto dell'intestazione e delle altre indicazioni formali dell'atto, fra le quali si intendono compresi un indice e una breve sintesi del contenuto dell'atto stesso. Il decreto è aggiornato con cadenza almeno biennale. Il mancato rispetto delle specifiche tecniche sulla forma e sullo schema informatico e dei criteri e limiti di redazione dell'atto non comporta invalidità, ma può essere valutato dal giudice ai fini della decisione sulle spese del processo. Il giudice redige gli atti e i provvedimenti nel rispetto dei criteri di cui al presente articolo».

Come da lettera delle norme sopra riportate, le disposizioni anzidette non escludono l'utilizzo di software di intelligenza artificiale per la redazione degli atti giudiziari né viene prevista, del resto, una sanzione in caso di suo utilizzo.

Il difensore avrà, però, l'onere di controllare la veridicità e la correttezza di quanto affermato dal software di IA e, diversamente, non potrà che applicarsi l'art. 88 c.p.c. 

Altro utilizzo sicuramente consentibile dell'IA è, sicuramente, quello della consulenza tecnica.

In particolare, il giudice potrebbe utilizzare l'intelligenza artificiale per la valutazione dei curriculum dei consulenti e, quindi, per la scelta del consulente (vedasi l'art. 61 c.p.c. e l'art. 191 c.p.c.). Difatti, gli strumenti di intelligenza artificiale all'interno degli uffici giudiziari potrebbero essere di grande ausilio per il giudice nella selezione del consulente tecnico più idoneo per l'accertamento e la valutazione di determinati fatti, nonché per la formulazione dei relativi quesiti. Ciò potrebbe migliorare l'attendibilità dei risultati della consulenza, ma anche ridurre i casi di rinuncia e, quindi, evitare perdite di tempo derivanti dalla sostituzione del consulente.

Inoltre il giudice potrà anche verificare il numero di incarichi assegnati al consulente ed attuare un'idonea rotazione tra i periti.

Un software di ausilio del “miglior” consulente trova certamente il suo terreno fertile nell'art.24- bis disp.att. c.p.c. . Questa norma statuisce che «Presso il Ministero della giustizia è istituito un elenco nazionale dei consulenti tecnici, suddiviso per categorie e contenente l'indicazione dei settori di specializzazione di ciascuna categoria, nel quale, tramite i sistemi informatici di cui all'articolo 23, secondo comma, confluiscono le annotazioni dei provvedimenti di nomina. L'elenco è tenuto con modalità informatiche ed è accessibile al pubblico attraverso il portale dei servizi telematici del Ministero della giustizia».

E' evidente che un elenco nazionale dei consulenti tecnici consentirà ad uno strumento di IA di lavorare su un numero di dati davvero notevole e la sua informatizzazione consentirà certamente di avere dei risultati affidabili ed adeguati in quanto vi dovranno confluire, suddivisi per settore di specializzazione, i nominativi dei consulenti iscritti nei vari elenchi tenuti presso i singoli tribunali, nonché le annotazioni dei provvedimenti di nomina.

Tuttavia, questo elenco dovrà anche prevedere la possibilità ai consulenti di inserire i propri percorsi professionali in modo da consentire all'applicativo di IA un'idonea comparazione dei titoli e delle esperienze professionali dei consulenti. In tal modo la scelta del consulente avverrebbe in maniera trasparente e “casuale” e al giudice, ovviamente, verrà affidato il controllo della effettiva sussistenza dei titoli per poter espletare la consulenza. Inoltre l'IA potrebbe essere sicuramente utilizzata per la redazione, da parte del giudice, dei quesiti da somministrare al consulente.

I sistemi di IA potrebbero essere utili, poi, per il calcolo dei danni patrimoniali derivanti da sinistri stradali, al calcolo dei danni alla salute nelle controversie risarcitorie mediante l'applicazione delle cd. Tabelle di Milano nonché per l'analisi della documentazione e per il calcolo dell'equo indennizzo dovuto nei casi di irragionevole durata del processo ovvero per la liquidazione del gratuito patrocinio, nonché per la liquidazione degli assegni di mantenimento.

Il giudice, quindi, potrebbe beneficiare dell'IA come ausilio alle sue mansioni, purché questi ne controlli i risultati, senza adagiarsi pigramente su di essi.

E' necessario, tuttavia, che i software siano validati da una autorità pubblica indipendente, che certifichi la provenienza dei dati e la metodologia di addestramento.

Un utilizzo dell'IA artificiale potrebbe essere, inoltre, molto proficua nell'ambito dell'organizzazione giudiziaria e, in particolare, per l'assegnazione automatica dei procedimenti ( ad oggi presente soltanto con un sistema algoritmico non generativo) ovvero come ausilio al giudice per l'organizzazione delle udienze (per la preparazione, ad esempio, di udienze con cause seriali, ecc.) ovvero come aiuto ai presidenti degli uffici giudiziari per la preparazione di statistiche o per l'analisi dei flussi. Un sistema di ausilio dell'IA per il giudice e, più in generale, per l'organizzazione giudiziaria è, certamente, alla base del recente D.D.L. sull'IA presentato dal Consiglio dei Ministri in data 23 aprile 2024 il quale prevede, all'art.14, comma 1, che i «sistemi di intelligenza artificiale sono utilizzati esclusivamente per l'organizzazione e la semplificazione del lavoro giudiziario nonché per la ricerca giurisprudenziale e dottrinale. Il Ministero della giustizia disciplina l'impiego dei sistemi di intelligenza artificiale da parte degli uffici giudiziari ordinari. Per le altre giurisdizioni l'impiego è disciplinato in conformità ai rispettivi ordinamenti».

Il generico riferimento all'organizzazione e alla semplificazione del lavoro giudiziario farebbe pensare che l'IA potrà essere utilizzata esclusivamente per migliorare e semplificare il lavoro giudiziario: tale indicazione sarebbe da intendersi, a parere dello scrivente, nel senso che gli strumenti di IA potranno essere utilizzati sia come ausilio ai capi degli uffici per monitorare e gestire le sopravvenienze e i procedimenti definiti, nonché per la preparazione di provvedimenti organizzativi; sia come ausilio ai magistrati per la semplificazione del loro lavoro in singoli segmenti del processo.

Il secondo comma dell'art.14 stabilisce, invece, che «È sempre riservata al magistrato la decisione sulla interpretazione della legge, sulla valutazione dei fatti e delle prove e sulla adozione di ogni provvedimento».

In questo comma, si prevede che l'IA non possa essere utilizzata come ausilio al giudice per l'interpretazione della legge, per la valutazione dei fatti e delle prove e sull'adozione di ogni provvedimento.

Pertanto dal D.D.L. non viene dato alcun spazio alla cd. “giustizia predittiva”.

Come detto, si tratta di un disegno di legge e, pertanto, per ogni sua definitiva valutazione, si dovrà attendere l'esito dei lavori parlamentari.

Riferimenti

  • DE STEFANO F., L’intelligenza artificiale e redazione degli atti giudiziari civili, in Giustizia Insieme del 5.2.2024;
  • FRATINI F., Intelligenza Artificiale e Consulenza Tecnica nel Processo Civile, in  Actualidad Jurídica Iberoamericana Nº 20, Febrero 2024, ISSN: 2386-4567, pp. 1198-1221, febbraio 2024

Vuoi leggere tutti i contenuti?

Attiva la prova gratuita per 15 giorni, oppure abbonati subito per poter
continuare a leggere questo e tanti altri articoli.