Intelligenza artificiale e redazione degli atti giudiziari civili

Franco De Stefano
09 Agosto 2023

Il presente contributo opera una riflessione sull'impiego dei sempre più sofisticati sistemi di IA nel mondo del processo civile: da un lato, quanto alla formazione degli atti giudiziari di parte; dall'altro, quanto all'interazione con le attività del giudicante.
Premessa

In un panorama soggetto ad una tumultuosa evoluzione tecnologica, il passaggio alla fase finale dell'adozione del Regolamento europeo sull'intelligenza artificiale, nel giugno 2023, ha coinciso con l'epilogo di un clamoroso episodio di cronaca giudiziaria d'oltreoceano, in cui le difese che un avvocato statunitense aveva prodotto dopo averne affidato la redazione ad un sistema di IA si sono rivelate articolate su precedenti completamente inesistenti. È questo lo spunto per una riflessione sull'impiego dei sempre più sofisticati sistemi di IA nel mondo del processo civile: da un lato, quanto alla formazione degli atti giudiziari di parte; dall'altro, quanto all'interazione con le attività del giudicante. In entrambi i casi, le enormi potenzialità dei nuovi sistemi vanno sicuramente colte, ma con adeguata prudenza e cautela, soprattutto mai tralasciando di preservare all'agente umano il ruolo di supervisore e decisore finale consapevole ed attento. Ad una generale algoretica dovrebbe affiancarsi una “giurialgoretica”.

La decisione

Si tratta dell'ordinanza motivata (order and decision) della Corte del distretto meridionale di New York degli U.S.A. del 22 giugno 2023, resa da s.o. P. Kevin Castel, reperibile liberamente all'URL https://www.courthousenews.com/wp-content/uploads/2023/06/chatGPT-sanctions-ruling.pdf.

È l'irrogazione di una sanzione pecuniaria (di U$D 5.000, accompagnata da una lettera a tutti i giudici falsamente citati) a due avvocati (ed in solido al loro studio professionale) dell'attore che, in una causa civile di risarcimento danni intentata da un passeggero contro una compagnia aerea, a sostegno delle tesi a favore del cliente nei loro atti avevano fatto preciso ed ampio riferimento a precedenti giurisprudenziali, elaborati da un sistema di intelligenza artificiale noto come ChatGPT, completamente inventati e quindi inesistenti e per di più articolati su di un tecniloquio scadente, ma sulla cui genuinità essi avevano pure, almeno in un primo momento, solennemente insistito.

Il provvedimento giurisdizionale di riferimento, però, non sanziona appunto - in sé e per sé preso in considerazione - l'uso di un sistema di IA nella predisposizione dell'atto giudiziario di parte, ma esclusivamente il suo uso maldestro, cioè senza l'estrinsecazione di un ruolo di supervisione finale sull'affidabilità dei riferimenti indicati e sulla tecnicalità formale e sostanziale delle singole argomentazioni.

Rileva infatti il provvedimento che, nella predisposizione degli atti da sottoporre ai giudici, i buoni avvocati appropriatamente ottengono assistenza dai colleghi meno anziani, dagli studenti di legge, dai praticanti, dai testi di approfondimento giuridici (tra cui le enciclopedie), sicché “non c'è nulla di specificamente improprio nell'uso di un affidabile strumento di intelligenza artificiale per l'assistenza”; “ma le regole vigenti impongono agli avvocati un ruolo di supervisione per assicurare l'accuratezza dei loro scritti”, sicché quelli vengono meno alle loro responsabilità verso controparti e giudice quando si avvalgono di scritti basati su precedenti falsi e, per di più, quando insistono malaccortamente sulla loro esistenza: e tanto per una serie di inconvenienti che l'uso di precedenti falsi provoca ad un sistema giudiziario di common law.

Ma, appunto, a venire in considerazione è la sottrazione al dovere professionale dell'avvocato di controllare la veridicità delle citazioni operate e la congruità, formale e sostanziale, degli atti da lui predisposti: con un ben noto pragmatismo, il sistema giudiziario statunitense non si pone il problema della correttezza dell'uso di un sistema di intelligenza artificiale nel processo, ma solo quello della sua affidabilità.

Ed in questo modo tutto si sposta sul diverso piano di cosa debba intendersi con tale termine, a seconda, evidentemente, degli obiettivi e degli scopi dell'attività coinvolta e delle finalità della stessa introduzione, nel sistema giudiziario, di quegli strumenti: l'insostenibilità della cui piena neutralità diviene sempre più evidente.

In conclusione: per il sistema giudiziario statunitense ben venga anche una IA che scriva gli atti degli avvocati, se quella è affidabile e questi ne controllano gli esiti finali.

La coeva iniziativa del Garante della Privacy

Con deliberazione d'urgenza del 30 marzo 2023 il Garante per la protezione dei dati personali ha limitato temporaneamente l'utilizzo in Italia del software ChatGPT in mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti dalla fornitrice, l'impresa OpenAI, ma soprattutto in assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma. Lo stesso provvedimento soggiunge che, in base alle verifiche già fino a quel momento effettuate (anteriori, quindi, al clamoroso episodio d'oltreoceano), le informazioni fornite da ChatGPT non sempre corrispondono al dato reale, determinando quindi un trattamento di dati personali inesatto. A seguito di una prima risposta operativa della fornitrice del servizio, il medesimo Garante, con successivo provvedimento 11 aprile 2023, ha sospeso l'efficacia dell'ordine cautelare, ma impartendo ulteriori severe istruzioni operative rivolte al trattamento dei dati, sull'ottemperanza alle quali si è riservata una costante istruttoria.

Anche in tal caso, peraltro, è evidente che la sanzione al sistema di intelligenza artificiale non entra nel merito della possibilità di avvalersene, ma si ferma alla – pure determinante – fase della raccolta delle informazioni e dei dati personali poi utilizzati per addestrare il programma.

Anche in questo caso, quindi, nulla impedisce in sé l'impiego di un sistema di intelligenza artificiale, purché questo garantisca trasparenza e tracciabilità dei dati impiegati.

I riferimenti tecnici minimi

A meri scopi descrittivi ed ai fini di questa riflessione, per intelligenza artificiale può intendersi ogni sistema che dispiega comportamento intelligente analizzando il contesto e l'ambiente in cui opera, intraprendendo azioni con un certo grado di autonomia per raggiungere scopi prefissati; per astrazione, l'intelligenza artificiale è l'abilità di una macchina di mostrare capacità umane quali il ragionamento, l'apprendimento, la pianificazione e la creatività, di capire il proprio ambiente, di mettersi in relazione con quanto è percepito e di risolvere problemi, di agire verso un obiettivo specifico, adeguando la risposta all'esito delle analisi dei dati immessi e, sempre più spesso, delle reazioni dell'ambiente alle sue precedenti risposte.

Il sistema ChatGPT può definirsi un chatbot basato su intelligenza artificiale e apprendimento automatico sviluppato da OpenAI specializzato nella conversazione con un utente umano; ed è definito il più noto tra i software di intelligenza artificiale relazionale in grado di simulare ed elaborare le conversazioni umane dal già richiamato provvedimento del Garante per la protezione dei dati personali del 30 marzo 2023.

Se Chat bot, chatbot o chatterbot, è un programma progettato per simulare una conversazione con un essere umano, la sigla GPT sta per Generative Pre-trained Transformer, una tecnologia nuova applicata al machine learning. Lo scopo principale di questi software è quello di simulare un comportamento umano e sono talvolta definiti anche agenti intelligenti; il loro uso è vario, dalla guida in linea alla risposta automatica alle FAQ degli utenti che accedono a un sito; alcuni impiegano sofisticati sistemi di elaborazione del linguaggio naturale, ma per la maggior parte pare che essi si limitino ad eseguire la scansione delle parole chiave nella finestra di input e fornire una risposta con le parole chiave più corrispondenti. In altri termini, un chatbot è un programma che usa un sistema di intelligenza artificiale ed NLP (Natural Language Processing) per capire le domande dei clienti e automatizzare le relative risposte, simulando la conversazione umana.

Il quadro normativo

Come accennato, il 14 giugno 2023 il Parlamento europeo ha adottato la sua posizione definitiva di negoziazione sull'IA Act, sicché si è passati alla fase dei colloqui con i singoli Stati membri sul testo finale del provvedimento legislativo, allo scopo di raggiungere un accordo entro la fine di quest'anno. Può fin d'ora notarsi che la normativa in itinere si preoccupa dei sistemi “generative” quali appunto ChatGPT, prevedendone minimi requisiti di trasparenza (con obbligatoria menzione della circostanza che il contenuto è stato ottenuto con quel particolare programma, ma pure con accorgimenti per agevolare la percezione della falsità dei risultati) e di garanzia dalla produzione di contenuti illegali, insieme alla libera accessibilità a particolareggiati sommari dei dati coperti da diritto d'autore utilizzati per l'autoapprendimento. Anche il Consiglio d'Europa segue costantemente l'evoluzione della tematica, anche con riguardo al processo.

Per la specifica questione dell'intelligenza artificiale nel processo civile, occorrerebbe affrontare la tematica del contenuto e delle caratteristiche degli atti giudiziari (siano essi di parte o del giudice) secondo la normativa nazionale: ma tanto implicherebbe una riflessione troppo ampia in ordine alle impostazioni generali di ordine culturale sulle modalità di preparazione e successiva estrinsecazione dell'attività difensiva delle parti e decisionale del giudicante.

Tuttavia, può qui bastare il rilievo che mancano limitazioni positive o normative di ordine qualitativo o contenutistico nella redazione degli atti giudiziari, siano di parte, siano del giudice; il legislatore ha solo introdotto una generalizzata potestà regolamentare (variamente articolata tra il diritto processuale civile e quello amministrativo) che può definirsi vòlta ad una tendenziale armonizzazione meramente estrinseca degli atti giudiziari, di parte e del giudice.

Esistono soltanto principi di ordine generale sulle modalità di redazione di atti, ispirati a clausole ampie ed indifferenziate; i riferimenti all'inammissibilità degli atti sono riferiti a vizi dei requisiti cosiddetti di contenuto-forma e sono spesso rimessi alla copiosa elaborazione giurisprudenziale delle giurisdizioni superiori. Nel diritto processuale amministrativo è stato da tempo introdotto per disposizione normativa un limite di ordine quantitativo ed in tal senso si muove la disciplina processuale civile a seguito della riforma di cui al d.lgs. n. 149/2022.

In particolare: nel diritto amministrativo, deve farsi riferimento al comma 2 dell'art. 3 ed all'art. 26 del c.p.a., sull'obbligo di redigere gli atti in maniera chiara e sintetica, ma soprattutto all'art. 13-ter delle norme di attuazione del c.p.a., che rimette ad un decreto del Presidente del Consiglio di Stato la fissazione dei limiti quantitativi degli atti delle parti, la violazione dei quali esime il giudice dall'obbligo di prendere in considerazione l'eccedenza, la mancata disamina della quale non è neppure soggetta ad impugnazione.

Analogamente, il codice di rito civile prevede ora espressamente, al secondo periodo dell'art. 121, che “tutti gli atti del processo sono redatti in modo chiaro e sintetico”; con disposizione ripresa via via, talvolta nella declinazione di chiarezza e specificità, per i singoli atti di parte del processo (art. 163, n. 4; art. 167; art. 281-undecies; artt. 342 e 434; art. 366, nn. 3, 4, 6; artt. 473-bis.12, 473-bis.13, 473-bis.17, 473-bis.32 c.p.c.).

L'art. 46 d.a.c.p.c., come modificato dall'art. 4, comma 3, lett. b), del d.lgs. n. 149/2022, rimette ad un successivo decreto ministeriale, da emanarsi sentiti il Consiglio superiore della magistratura e il Consiglio nazionale forense (e da aggiornare con cadenza biennale), per definire: da un lato, gli schemi informatici degli atti giudiziari con la strutturazione dei campi necessari per l'inserimento delle informazioni nei registri del processo; dall'altro, i limiti degli atti processuali, tenendo conto della tipologia, del valore, della complessità della controversia, del numero delle parti e della natura degli interessi coinvolti. La stessa norma prevede pure che il mancato rispetto delle specifiche tecniche sulla forma e sullo schema informatico e dei criteri e limiti di redazione dell'atto non comporta invalidità, ma può essere valutato dal giudice ai fini della decisione sulle spese del processo. E, soprattutto, conclude stabilendo espressamente che il giudice redige gli atti e i provvedimenti nel rispetto dei criteri di cui al presente articolo.

In conclusione, nessun limite intrinseco alla predisposizione di un atto giudiziario può dirsi imposto dalla disciplina vigente, purché esso sia conforme anche all'articolata normativa secondaria sulla giustizia digitale: la quale però è, condivisibilmente, finalizzata a garantire genuinità, autenticità e fruibilità dell'atto medesimo e, in quanto tale, la sua ascrivibilità a chi ne appare l'autore, parte o giudice, ma non incide certamente sul contenuto suo intrinseco.

Pertanto, nulla pare disciplinare, a pena di invalidità di qualsiasi tipo, le modalità con cui si redigono gli atti giudiziari, né, tanto meno, i procedimenti in base ai quali si perviene alla loro definitiva stesura; sicché ad un sistema di intelligenza artificiale, allo stato, ben potrebbe devolversi la redazione di quelli, alla sola condizione che siano fatti propri dall'agente umano.

L'algoritmo giudiziario

I sistemi di intelligenza artificiale costituiscono un'accattivante alternativa ad attività intellettuali ritenute seriali e faticose, o comunque poco motivanti:

- per le parti, ad esempio: acquisizione di dati sui fatti rilevanti per le tesi via via sostenute, loro presentazione ed elaborazione onde consentirne la sussunzione in fattispecie astratte regolate dalle norme o già prese in considerazione da dottrina e giurisprudenza (nei Paesi di civil law, soprattutto di legittimità), ricerche su queste due ultime, organizzazione di argomentazioni per illustrare la tesi a sostegno delle proprie difese; redazione con modalità chiare e sintetiche dell'atto finale di volta in volta richiesto;

- per il giudicante, ad esempio: ricostruzione dell'andamento del processo e della materia del contendere, limitata alle questioni dirimenti; ricostruzione dei fatti, attraverso il confronto delle tesi delle parti al riguardo; individuazione delle norme applicabili ai fatti come ricostruiti, previa verifica delle tesi sostenute dalle parti sul punto; elaborazione, in chiave di argomentazione giuridica in sviluppo della premessa, della posizione su ciascuna questione rilevante; redazione del provvedimento conclusivo in modalità chiara e sintetica.

Non giova a tale riflessione l'elaborazione del giudice amministrativo sul punto, limitata – almeno al momento – all'impiego dell'algoritmo nell'attività amministrativa e centrata sull'individuazione dei principi regolatori della materia in quello di conoscibilità, in quello di non esclusività ed in quello di non discriminazione algoritmica: l'attività giurisdizionale è ontologicamente diversa e per nulla assimilabile a quella amministrativa, già solo sotto il profilo della procedimentalizzazione dei processi decisionali.

In linea di principio, il ricorso all'automa è sempre stato ricostruito come teso a liberare l'umano dal peso o dai rischi di un lavoro sentito come sempre meno sostenibile ed al contempo a fornire un risultato reputato più consono od efficace rispetto all'attività che l'umano potrebbe compiere.

Su questa premessa, declassate ad attività secondarie, faticose e ripetitive, quelle di compiuta preparazione del materiale per la decisione, quali la ricostruzione dei fatti rilevanti da esporre e la ricerca delle norme suscettibili da esservi applicate e delle relative elaborazioni di dottrina e giurisprudenza (soprattutto, almeno nei Paesi di civil law, di legittimità), può risultare naturale il passo successivo, dell'affidamento di quelle attività all'automa.

Ora, se la prima delle motivazioni – liberare l'umano da attività secondarie, faticose e ripetitive – può già in qualche modo riferirsi alle attività materiali di raccolta e comparazione efficienti di dati soprattutto in contenziosi seriali indotti dalla massificazione dei rapporti interpersonali, è chiaro che, quanto alla seconda di quelle motivazioni, moltissimo può dipendere dalle scale assiologiche – le stesse che orientano l'etica dell'algocrazia o algoretica – che si vorranno adottare, risultando ormai indifferibile intendersi su cosa si intenda per efficienza della giustizia, tanto da potersi postulare, quale branca dell'algoretica, una “giurialgoretica”.

Le famose leggi della robotica, elaborate dapprima in ambito letterario (fin dal 1941!) e poi assurte al ruolo di principi generali della materia nel diritto eurounitario, non soccorrono, pensate come erano per attività sostanzialmente materiali spesso elementari e quindi inidonee a fronteggiare l'enorme complessità del diritto e dei concetti da definire quanto alle attività in cui sostituire l'umano.

Occorrerà riflettere con grande attenzione e scegliere quali risultati affidare all'automa: e soprattutto in che termini declinare la certezza del diritto, nelle sue molteplici accezioni, cui orientare le decisioni del giudice e, in sua vece o in suo ausilio, del suo alter ego digitale.

Già nell'attuale momento storico è difficile limitare la definizione di quella certezza come trattamento uguale di casi uguali: questa soluzione è reclamata dalla dilatazione globale dei traffici commerciali e giuridici come un bene essenziale, economicamente misurabile, sotto il profilo della conoscibilità o calcolabilità delle decisioni di giustizia, contrapposta alla - o comunque in tensione dialettica con la - sua flessibilità per un adeguamento alle peculiarità della fattispecie; senza considerare le millenarie dispute sul ruolo del diritto in generale e, quindi, della sua funzione di mantenimento e protezione dello status quo in contrapposizione all'altra di ordinatore e propulsore di uno sviluppo e di un cambiamento anche sostanziale degli assetti correnti.

Dal campo del settore penale, dove in diversi contesti l'algoritmo è già stato impiegato per la prognosi della personalità del reo perfino al fine di determinare la pena idonea o per l'acquisizione di prove dal valore sostanzialmente legale, a quello del settore civile (e amministrativo, nel senso di giustiziale amministrativo), dove la possibilità di definizione di procedimenti elementari in via completamente automatizzata (generalmente in settori definibili ad alta serialità e salva la sola facoltà, disegnata come eccezionale, di successivo intervento umano) è ormai apertamente studiata, gli orizzonti si schiudono sterminati: ed anzi in alcune realtà territoriali, sotto l'etichetta di “giustizia predittiva”, si è già avviata una sperimentazione. E tutto questo per non parlare poi dei sempre più sofisticati sistemi di vera e propria on line dispute resolution, che implicano una decisione robotica formalmente negoziale, sostanzialmente assimilata all'arbitrato e sostitutiva, di per sé sola, dell'attività giurisdizionale tradizionale, quella cioè devoluta allo Stato od altro ordinamento ad esso variamente riferibile.

Gli algoritmi giudiziari per le attività delle parti

Un programma di intelligenza artificiale per la predisposizione di bozze o stesure preliminari di atti di parte può assolvere utili compiti, purché sia appunto adeguatamente chiarito il modo di procedere e, soprattutto, garantito un ruolo finale decisivo di effettiva supervisione e decisione da parte dell'agente umano.

L'imposizione di schemi-tipo, con adozione di parametri di contenuto-forma e poi di vero e proprio contenuto, potrebbe giovare grandemente al confezionamento di atti di parte completi ed affidabili: basti pensare al rispetto dei requisiti previsti dalla legge oppure dalla normativa in tema di giustizia digitale oppure ancora, ove esistenti, dai protocolli e, tra breve, dal richiamato decreto ministeriale previsto dall'art. 46 d.a.c.p.c.

È indispensabile l'inserimento di subroutine di verifica dei singoli passaggi, a cominciare dalle citazioni operate, sia dei semplici testi che dei precedenti giurisprudenziali, che consentano di identificare la fonte e che questa rientri tra quelle che possono definirsi affidabili.

È pure indispensabile la consequenzialità tra ricostruzione del fatto, con indicazione dei relativi elementi istruttori (costituendi o precostituiti), ed elaborazione delle tesi in diritto da applicare, secondo lo schema classico, altrettanto agevolmente riconducibile ad un flusso operativo di istruzioni, della sussunzione.

Ed infine è indispensabile la consequenzialità tra premesse, sviluppi argomentativi e conclusioni, al fine di non tralasciare nulla di quanto originariamente richiesto.

L'esperienza dell'infortunio all'avvocato statunitense insegna che dovrebbe essere allora indispensabile quanto meno un sistema di controllo interno da attivare obbligatoriamente, una lista di controllo (o check-list) di tutte le operazioni non solo di progettazione dei singoli passaggi del confezionamento dell'atto giudiziario, ma pure di verifica dell'affidabilità dei dati utilizzati.

Con questi limiti, l'attività dell'avvocato civilista potrebbe ambire a raffinarsi fino al ruolo di colui che impartisce le coordinate generali per l'impostazione dell'atto difensivo in relazione ai tre elementi costitutivi della domanda (personae, causa petendi e petitum), ma senza mai rinunciare a quello di finale responsabile quale approfondito e consapevole ricognitore e supervisore del prodotto del sistema di intelligenza artificiale, prima di appropriarsene.

Gli algoritmi giudiziari per le attività del giudicante

Analogo discorso è a farsi, sia pure con ancora maggiore cautela, per l'attività del giudicante, visto che la gamma dei provvedimenti giudiziari civili deferibili alla predisposizione in bozza da parte di un sistema di intelligenza artificiale potrebbe non essere limitata.

L'istruzione (in senso lato, cioè la preparazione) dei singoli passaggi delle attività del giudice civile riguarda infatti, com'è noto, il giudizio di fatto e quello di diritto. Per fatto e giudizio di fatto deve intendersi tutto ciò che attiene all'accertamento o alla ricostruzione della verità o della falsità di dati empirici (fatti o atti) rilevanti per il diritto, fatta eccezione per le modalità di applicazione delle eventuali norme relative ad ammissibilità ed assunzione di prove, ovvero a prove legali; per diritto e giudizio di diritto si deve avere riguardo a tutto quanto attiene all'applicazione di norme e cioè: all'individuazione o scelta della norma applicabile al caso concreto; all'interpretazione di tale norma, sia con riguardo alla fattispecie astratta, sia con riguardo al comando; alla sussunzione dei fatti, come ricostruiti, entro la fattispecie astratta; all'individuazione o deduzione delle conseguenze da quella norma previste, con applicazione al caso di specie.

Ma anche qui deve esserci un'accorta preliminare definizione di ambiti, paradigmi, presupposti e modalità operative: l'attività decisionale in senso stretto, cioè l'opzione tra due o più soluzioni di questioni di ricostruzione in fatto e di questioni in diritto, nei singoli passaggi sopra ricordati, non può mai essere devoluta ad un'automazione, ma essere sempre riservata all'agente umano.

In definitiva, un diagramma di flusso per standardizzare le operazioni preliminari alla decisione finale potrebbe essere di grande giovamento: ricostruzione dei dati salienti della controversia, illustrazione sintetica delle questioni mosse nel grado o in quelli precedenti, richieste e domande cui rispondere, questioni da affrontare; individuazione delle questioni di fatto e di diritto da esaminare; risoluzione separata delle prime e delle seconde, sempre con prospettazione di una lista di controllo (o check-list) idonea a consentire all'agente umano di intervenire e correggere la rotta in una direzione anche diversa da quella proposta come quella corrispondente all'esito di maggiore frequenza statistica in casi analoghi.

Questo perché l'intelligenza artificiale apprende da sé stessa e dall'esperienza che di volta in volta acquisisce, ma non ha – o, almeno, non ha ancora – la creatività e la capacità di intuizione e di astrazione propria della mente umana, sicché correrebbe il rischio di imbalsamare la realtà in uno schema teorico preimpostato ab externo in relazione ai dati somministrati per impostare le sue analisi e quindi manipolabile fin dalla sua programmazione, restando impermeabile ed insensibile alla valutazione di contesti pure solo in parte imprevedibili, o di eccezioni o deroghe non previamente sperimentate. In una parola, la decisione giudiziale affidata all'automa sarebbe forse garanzia di uniformità con casi precedenti, ma al prezzo di un'immutabilità mortifera e paralizzante, di inflessibilità cieca ed eterodiretta: quindi, sostanzialmente inumana.

In conclusione

Da un lato, la massificazione dei rapporti e l'esplosione incontrollata delle risorse cognitive a disposizione offre strumenti di apparente semplificazione ed ausilio nell'estrinsecazione di tutte le attività, ivi comprese quelle tradizionalmente definite intellettuali. Dall'altro, l'esigenza di un trattamento uniforme per casi uguali è sempre più sentita. Ma, nel campo del diritto civile, la libertà e la creatività del pensiero umano, che nessun automa è per definizione – almeno finora – in grado di replicare, è un valore che si vuole continuare a ritenere irrinunciabile. E sta nel bilanciamento tra queste esigenze la chiave di volta della inarrestabile sostituzione dell'automa a segmenti sempre più estesi dell'attività non più solo materiale, ma anche intellettiva, del suo creatore per il proprio beneficio e progresso.

È questa la vera sfida di fronte al travolgente progresso dell'automazione: sta al creatore Uomo stabilire cosa riservare a sé e cosa devolvere al suo quasi alter ego in tutti i settori della vita quotidiana.

Per il mondo del diritto, non è più differibile una riflessione comune – con adeguati strumenti, tra cui incontri di studio, tavoli di lavoro e così via – fra tutti i suoi attori (Accademia, Avvocatura, Magistratura, Personale amministrativo) che individui i punti irrinunciabili dell'area di intervento umano e che delinei gli ambiti e le modalità operative dei sistemi di intelligenza artificiale da applicare al settore, come pure i principi in senso lato etici che devono governarli: una “giurialgoretica”, cioè l'algoretica del diritto.

Riferimenti

In dottrina sul tema:

  • C. Castelli, Giustizia predittiva, in www.questionegiustizia.it, 8 febbraio 2022; Consiglio d'Europa, CAI(2023)01 Committee on artificial intelligence (CAI), Revised zero draft [framework] Convention on artificial intelligence, human rights, democracy and the rule of law, Strasbourg, 6 January 2023, reperibile al sito URL https://rm.coe.int/cai-2023-18-consolidated-working-draft-framework-convention/1680abde66;
  • F. De Stefano, L'intelligenza artificiale nel processo?, in www.giustiziainsieme.it, 6 marzo 2020;
  • European Commission, A definition of Artificial Intelligence: main capabilities and scientific disciplines, all'URL https://digital-strategy.ec.europa.eu/it/node/2226;
  • D. Franklin, The Chatbot Revolution; ChatGPT: An In-Depth Exploration, 2023, ISBN 979-8370255281;
  • M. Luciani, La decisione giudiziaria robotica, in Riv. Associazione italiana dei costituzionalisti, n. 3-2018, § 1;
  • L. Viola (a cura di), Giustizia predittiva e interpretazione della legge con modelli matematici, ISBN-13 978-8835348115, Milano, 2019.

Riferimenti alla normativa eurounitaria in itinere:

  • https://eur-lex.europa.eu/legal-content/IT/TXT/HTML/?uri=CELEX:52021PC0206
  • https://www.ceps.eu/wp-content/uploads/2021/04/AI-Presentation-CEPS-Webinar-L.-Sioli-23.4.21.pdf?
Sommario