Sistema penale e ddl sull’intelligenza artificiale: prospettive e criticità

Cesare Parodi
13 Maggio 2024

Il ddl che il governo italiano si appresta ad approvare in tema di intelligenza artificiale si inserisce nel ben più ampio discorso avviato dall'Unione europea con il regolamento approvato 13 Marzo 2020. Il provvedimento del governo italiano indubbiamente rappresenta un apprezzabile sforzo per “calare” in concreto i principi del regolamento in alcuni settori prioritari di intervento, tra i quali quello penale. Le nuove norme modificano in prospettiva il sistema - intervenendo su molte fattispecie e inserendone di nuove - anche se il concetto di sistema di intelligenza artificiale potrà presentare criticità ermeneutiche di non scarso rilievo.

Premessa

Non poteva che suscitare grande interesse il Comunicato stampa del Consiglio dei Ministri n. 78, del 23 Aprile 2024, avente ad oggetto «Disposizioni e delega al Governo in materia di intelligenza artificiale». In base al comunicato «Il disegno di legge individua criteri regolatori capaci di riequilibrare il rapporto tra le opportunità che offrono le nuove tecnologie e i rischi legati al loro uso improprio, al loro sottoutilizzo o al loro impiego dannoso. Inoltre, introduce norme di principio e disposizioni di settore che, da un lato, promuovano l'utilizzo delle nuove tecnologie per il miglioramento delle condizioni di vita dei cittadini e della coesione sociale e, dall'altro, forniscano soluzioni per la gestione del rischio fondate su una visione antropocentrica».

Si tratta di uno dei primi- se non il primo- intervento organico di uno stato dell'unione europea su un tema che è stato recentemente oggetto di un importante sforzo normativo, rappresentato dal Regolamento europeo sull'intelligenza artificiale, approvato il 13 marzo 2024 Parlamento Europeo (Risoluzione legislativa del Parlamento europeo del 13 marzo 2024 sulla proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull'intelligenza artificiale (legge sull'intelligenza artificiale) e modifica alcuni atti legislativi dell'Unione). Un Regolamento di respiro ben più ampio di quello del ddl del Governo italiano; nondimeno, quest'ultimo si pone come strumento integrativo del Regolamento europeo, essendo anch'esso improntato dalla volontà di contenere i rischi connessi all'uso della intelligenza artificiale (d'ora in poi IA).

Il menzionato ddl interviene in cinque specifici ambiti (strategia nazionale, autorità nazionali, azioni di promozione, tutela del diritto di autore, sanzioni penali) e prevede una delega al governo- tra l'altro- per adeguare l'ordinamento nazionale al Regolamento UE in materie come l'alfabetizzazione dei cittadini in materia di IA e la formazione da parte degli ordini professionali per professionisti e operatori.

Ci saranno innumerevoli occasioni per analizzare nel dettaglio la natura e l'impatto delle disposizioni del ddl sulla realtà nazionale. In questa sede, come è logico, occorre partire da una rapida disamina delle intenzioni del legislatore nell'ambito dell'attività giudiziaria, rilavando – in primo luogo- come la scelta della stessa quale settore prioritario di intervento appaia di per sé altamente indicativa della centralità del tema e della delicatezza dello stesso.

Il principio espresso dal Comunicato del 23 aprile è estremamente chiaro, quantomeno in astratto, come precisato dall'art. 14 del ddl: «Nell'amministrazione della giustizia l'utilizzo dell'IA è consentito esclusivamente per finalità strumentali e di supporto, quindi per l'organizzazione e la semplificazione del lavoro giudiziario nonché per la ricerca giurisprudenziale e dottrinale anche finalizzata all'individuazione di orientamenti interpretativi. È sempre riservata al magistrato la decisione sull'interpretazione della legge, la valutazione dei fatti e delle prove e sull'adozione di ogni provvedimento inclusa la sentenza». Inoltre, «tra le materie di competenza esclusiva del tribunale civile si aggiungono le cause che hanno ad oggetto il funzionamento di un sistema di intelligenza artificiale».

Sempre per il menzionato art. 14, «Il Ministero della giustizia disciplina l'impiego dei sistemi di intelligenza artificiale da parte degli uffici giudiziari appartenenti alla giurisdizione ordinaria. Per le altre giurisdizioni l'impiego è disciplinato in conformità ai rispettivi ordinamenti».

Il testo del ddl si pone in sostanziale sintonia con il considerando 61 del Regolamento, che detta le linee sul tema della amministrazione della giustizia (e non solo) delimitandone l'ambito: «Alcuni sistemi di IA destinati all'amministrazione della giustizia e ai processi democratici dovrebbero essere classificati come sistemi ad alto rischio, in considerazione del loro impatto potenzialmente significativo sulla democrazia, sullo Stato di diritto, sulle libertà individuali e sul diritto a un ricorso effettivo e a un giudice imparziale. È in particolare opportuno, al fine di far fronte ai rischi di potenziali distorsioni, errori e opacità, classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati da un'autorità giudiziaria o per suo conto per assistere le autorità giudiziarie nelle attività di ricerca e interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti. Anche i sistemi di IA destinati a essere utilizzati dagli organismi di risoluzione alternativa delle controversie a tali fini dovrebbero essere considerati ad alto rischio quando gli esiti dei procedimenti di risoluzione alternativa delle controversie producono effetti giuridici per le parti. L'utilizzo di strumenti di IA può fornire sostegno al potere decisionale dei giudici o all'indipendenza del potere giudiziario, ma non dovrebbe sostituirlo: il processo decisionale finale deve rimanere un'attività a guida umana. Non è, tuttavia, opportuno estendere la classificazione dei sistemi di IA come ad alto rischio ai sistemi di IA destinati ad attività amministrative puramente accessorie, che non incidono sull'effettiva amministrazione della giustizia nei singoli casi, quali l'anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, la comunicazione tra il personale, i compiti amministrativi».

In effetti, nell' ALLEGATO III al Regolamento - rubricato “Sistemi di IA ad alto rischio di cui all'articolo 6, paragrafo 2” sono richiamate una serie di attività selezionate in quanto potenzialmente di particolare delicatezza.  Tra queste le «Attività di contrasto, nella misura in cui il pertinente diritto dell'Unione o nazionale ne permette l'uso»:

a) i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto o per loro conto, oppure da istituzioni, organi e organismi dell'Unione a sostegno delle autorità di contrasto o per loro conto, per determinare il rischio per una persona fisica di diventare vittima di reati;

….

c) i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto o per loro conto, oppure da istituzioni, organi e organismi dell'Unione a sostegno delle autorità di contrasto per valutare l'affidabilità degli elementi probatori nel corso delle indagini o del perseguimento di reati;

d) i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto o per loro conto, oppure da istituzioni, organi e organismi dell'Unione a sostegno delle autorità di contrasto, per determinare il rischio di reato o recidiva in relazione a una persona fisica non solo sulla base della profilazione delle persone fisiche di cui all'articolo 3, paragrafo 4, della direttiva (UE) 2016/680 o per valutare i tratti e le caratteristiche della personalità o il comportamento criminale pregresso di persone fisiche o gruppi;

e) i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto o per loro conto, oppure da istituzioni, organi e organismi dell'Unione a sostegno delle autorità di contrasto, per effettuare la profilazione delle persone fisiche di cui all'articolo 3, paragrafo 4, della direttiva (UE) 2016/680 nel corso dell'indagine, dell'accertamento e del perseguimento di reati.

Nel medesimo allegato, inoltre, al punto 8- Amministrazione della giustizia e processi democratici- sono richiamati «i sistemi di IA destinati a essere usati da un'autorità giudiziaria o per suo conto per assistere un'autorità giudiziaria nella ricerca e nell'interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti, o a essere utilizzati in modo analogo nella risoluzione alternativa delle controversie».

Se le indicazioni fornite dal regolamento e dal Ddl sul tema si presentano come univoche e di non ardua interpretazione, resta tuttavia da comprendere se in quali termini la “aree” di intervento che tali provvedimenti hanno destinato in via esclusiva all'autorità giurisdizionale risultino facilmente delimitabili, individuabili e accertabili. Chi conosce la logica e la dinamica del ragionamento giurisdizionale si può rendere verosimilmente conto che tracciare una linea di demarcazione fra la valutazione delle prove, la ricostruzione dei fatti, l'interpretazione della legge e le attività gregarie e strumentali che precedono e affiancano quelle ontologicamente giurisdizionali può essere problematico. Molto problematico, in concreto.

Con questo non si vuole affermare che il quadro delineato dal legislatore europeo, come da quello - in prospettiva- italiano, non sia astrattamente condivisibile, ma soltanto che nella applicazione pratica è altamente verosimile che potranno essere evidenziate criticità ogniqualvolta una delle parti coinvolte dalle decisioni giurisdizionali ipotizzi che un'attività delegata all'intelligenza artificiale sia in qualche modo “tracimata” dall'ambito alla stessa riservata e abbia invaso invece quelle  specifiche riservate all'attività giurisdizionale in senso stretto. Un rischio, che, in base al ddl, dovrebbe essere prevenuto ed evitato dall'attività demandata al Ministero, chiamato, come abbiamo, visto a disciplinare l'impiego dei sistemi di intelligenza artificiale da parte degli uffici giudiziari appartenenti alla giurisdizione ordinaria. Molto potrà, pertanto, essere garantito dalle modalità organizzative del lavoro che il Ministero potrà e dovrà apprestare, ma resta il fatto che - come è ovvio - il ddl non specifica se e quali conseguenze potranno derivare da un – anche solo parziale – sconfinamento dell'ambito di applicazione della IA nelle decisioni giudiziarie, civili come penali. Conseguenze a livello di responsabilità della struttura, dei singoli operatori ma anche- evidentemente e inevitabilmente- sulle stesse decisioni. Non avremo, in prospettiva, da annoiarci.

Le modifiche in ambito penale: le nuove ipotesi aggravate

Nell'art. 25 del ddl (rubricato «Modifiche al codice penale e ad altre disposizioni penali») sono reperibili gli interventi in materia penale. Interventi che ruotano tutti, direttamente o indirettamente, sul concetto di sistema di intelligenza artificiale, che, pertanto, diviene sostanzialmente la chiave di lettura - non semplice e non banale - dell'intera nuova normativa.

Gli interventi menzionati possono essere distinti in tre categorie. Da un lato sono stati previste, per alcuni reati, nuove aggravanti, derivanti dall'uso di sistemi intelligenza artificiale. In secondo luogo, l'ambito di applicazione di varie fattispecie è stato esteso ricomprendendo – e quindi tipizzando – nella descrizione della condotta all'utilizzo di tali sistemi. Infine, come vedremo, è stata introdotta una nuova fattispecie di reato che è specificamente strutturata sull'utilizzo per specifiche finalità di sistemi di intelligenza artificiale.

Tra nuove ipotesi aggravate, la più interessante è indubbiamente quella che ha modificato l'articolo 61 codice penale, nel quale, al primo comma, dopo il numero 11-novies), è stato aggiunto un nuovo comma: «11-decies) l'avere commesso il fatto mediante l'impiego di sistemi di intelligenza artificiale, quando gli stessi, per la loro natura o per le modalità di utilizzo, abbiano costituito mezzo insidioso, ovvero quando il loro impiego abbia comunque ostacolato la pubblica o la privata difesa, ovvero aggravato le conseguenze del reato».

Nel caso di specie, l'impiego dell'intelligenza artificiale è stato preso in considerazione in tre differenti prospettive, anche se potrebbe non essere così immediata e percepibile la distinzione tra l'utilizzo di sistemi di IA quale mezzo insidioso da quando l'uso degli stessi determini un ostacolo alla pubblica o privata difesa.  Più chiara la terza ipotesi, che considera esclusivamente le conseguenze oggettive del reato ove le stesse risultino oggettivamente aggravate dall'utilizzo di un sistema di IA, a prescindere dalla natura insidiosa dell'utilizzo dello stesso.

Per altre fattispecie l'impiego di sistemi di IA è previsto quale aggravante specifica: si tratta, in particolare, del delitto di sostituzione di persona di cui all'art. 494 c.p., per la quale è stata prevista una pena da uno a tre anni di reclusione. Potrebbe essere, questa, l'aggravante di maggiore impatto statistico, ove si consideri quanto- purtroppo- un sistema di IA possa essere finalizzato a un utilizzo illecito, per finalità di profitto, per indurre taluno in errore, consentendo di sostituire illegittimamente la propria all'altrui persona, o di attribuire a sé o ad altri un falso nome, o un falso stato, ovvero una qualità a cui la legge attribuisce effetti giuridici.

Per altre fattispecie, l'utilizzo dei sistemi di IA è stato valutato come potenzialmente insidioso quale strumento di “amplificazione” di condotte illecite in materia economico-commerciale.

Si tratta, in primo luogo, del delitto di aggiotaggio di quell'art. 2637 c.c., laddove le attività previste dal primo comma di tale articolo sono poste in esse attraverso l'impiego di intelligenza artificiale; si tratta di aggravante ad effetto speciale, sanzionata dalla pena della reclusione da due a sette anni.

La semplice lettura della norma consente intuitivamente di ipotizzare quanto le condotte descritte potrebbero essere “esasperate” in termini di effetti negativi dall'utilizzo di sistemi di IA : «Chiunque diffonde notizie false, ovvero pone in essere operazioni simulate o altri artifici concretamente idonei a provocare una sensibile alterazione del prezzo di strumenti finanziari non quotati o per i quali non è stata presentata una richiesta di ammissione alle negoziazioni in un mercato regolamentato, ovvero ad incidere in modo significativo sull'affidamento che il pubblico ripone nella stabilità patrimoniale di banche o di gruppi bancari, è punito con la pena della reclusione da uno a cinque anni».

Ad analoghe considerazioni occorre giungere per le nuove aggravanti ad efficacia comune, laddove la condotta sia posta in essere a mezzo di sistemi di IA:

  • del delitto di rialzo e ribasso fraudolento di prezzi sul pubblico mercato o nelle borse di commercio, di cui all'art. 501 c.p., che sanziona la condotta di: «Chiunque, al fine di turbare il mercato interno dei valori o delle merci, pubblica o altrimenti divulga notizie false, esagerate o tendenziose o adopera altri artifici atti a cagionare un aumento o una diminuzione del prezzo delle merci, ovvero dei valori ammessi nelle liste di borsa o negoziabili nel pubblico mercato».
  • del delitto di manipolazione del mercato, di cui all'art. 185, comma 1, d.lgs. 24 febbraio 1998, n. 58 (modificato dal d.lgs. n. 107/2018 e dalla l. n. 238/2021, che sanziona la condotta di: «Chiunque diffonde notizie false o pone in essere operazioni simulate o altri artifizi concretamente idonei a provocare una sensibile alterazione del prezzo di strumenti finanziari».

Le nuove fattispecie

Per una serie di altre fattispecie, al contrario, non si è ritenuto di dovere stabilire delle aggravanti specifiche, ma soltanto estendere l'ambito della condotta con la previsione espressa dell'impiego di sistemi di intelligenza artificiale per porre in essere.

Si tratta, in particolare di cinque delitti previsti dal codice: truffa aggravata, frode informatica, riciclaggio, reimpiego e autoriciclaggio, di cui rispettivamente agli art. 640, secondo comma c.p., 640-ter c.p., 648-bis c.p., 648-ter c.p. e 648-ter.1 c.p.

Pur trattandosi di fattispecie tra loro differenti - quantomeno le prime due rispetto alle seconde tre - la matrice comune dell'inserimento della nuova tipologia di condotta può essere facilmente rinvenuta nel fatto che tutte presentano una componente fraudatoria e/o dissimulatoria - anche de differentemente finalizzata - che può essere anche realizzata- anzi, in termini verosimilmente di maggiore efficacia - attraverso sistemi di IA.

Un'integrazione per analoghe ragioni si è resa necessaria anche per il delitto - in tema di diritto di autore - di cui all'art. 171 l. n. 633/1941, che sanziona, in base alla modifica prevista dal ddl, la condotta di chi, senza averne diritto, a qualsiasi scopo e in qualsiasi forma «riproduce o estrae testo o dati da opere o altri materiali disponibili in rete o in banche di dati in violazione degli articoli 70-ter e 70-quater, anche attraverso sistemi di intelligenza artificiale»

Del tutto nuovo, risulta, invece, il delitto di cui all'art. 612-quater c.p., rubricato «Illecita diffusione di contenuti generati o manipolati con sistemi di intelligenza artificiale». In base a tale norma: «Chiunque, al fine di arrecare nocumento a una persona e senza il suo consenso, ne invia, consegna, cede, pubblica o comunque diffonde l'immagine, un video o la voce, falsificati o alterati mediante l'impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità, è punito con la reclusione da sei mesi a tre anni».

Una fattispecie che completa il quadro già modificato con la previsione della nuova aggravante dell'art. 494 c.p. in tema di sostituzione di persona; in quel caso il sistema di intelligenza artificiale è stato visto come un mezzo potente e insidioso per presentarsi a un soggetto con nomi o stato riferibili a un soggetto diverso, verosimilmente per porre in essere una condotta illecita nei confronti di un terzo, mentre la fattispecie in oggetto pare strutturata per tutelare direttamente il soggetto  al quale è riferibile l'immagine, il video o la voce oggetto di falsificazione o l'alterazione. La soglia penale, tuttavia, non è stata delineata sulla base della sola falsificazione o alterazione, ma deve ritenersi superata a fronte anche:

  • della idoneità a trarre in inganno del prodotto della falsificazione o alterazione
  • dell'assenza di consenso del soggetto passivo del reato
  • della finalità di arrecare un nocumento (dunque, non necessariamente al fine di procurarsi un profitto) a questi
  • nella “proiezione” all'esterno dei prodotti menzionati, per i quale non è punita la semplice “creazione” degli stessi ma si rende necessaria una “veicolazione” verso terzi con le forme precisare dalla fattispecie.

È forse proprio il riferimento al nocumento l'aspetto più interessante della nuova fattispecie. La norma nasce per tutelare i soggetti da danni di immagine di varia natura, con riguardo a condotte verosimilmente finalizzate in via prioritario o esclusiva a “nuocere” - anche in assenza di un tornaconto diretto o indiretto- alle persone offese del reato. In questo senso, non a caso, nelle sue ipotesi “base”, il delitto è punibile a querela della persona offesa, anche laddove- come prevede la norma- il nocumento si concretizzi in un danno ingiusto. Rimane in tale ipotesi la procedibilità a querela, anche se a pena prevista aumenta significativamente: reclusione da uno a cinque anni.

La norma si chiude con un comma che prevede la procedibilità di ufficio - per certi aspetti sulla falsariga di quanto previsto in tema di violenza sessuale - in tre differenti ipotesi:

  • se il fatto è connesso con altro delitto per il quale si deve procedere d'ufficio
  • se è commesso nei confronti di persona incapace, per età o per infermità
  • se è commesso nei confronti di una pubblica autorità a causa delle funzioni esercitate.

La definizione di sistema intelligenza artificiale

Il quadro sopra presentato - che apparentemente risulta lineare, chiaro e privo di evidenti criticità - in realtà nasconde quantomeno una problematica di carattere generale, che potrebbe portare nel futuro a difficoltà ermeneutiche significative. Una potenziale criticità che non deriva certamente dalle scelte del governo italiano ma che è stata ereditata dal regolamento europeo, con oggetto le definizioni che lo stesso contiene. Bisogna premettere che il ddl contiene soltanto tre definizioni- nell'ambito dell'art. 2 - senza un rinvio esplicito a una serie di definizioni molto più cospicua contenuta nel regolamento, all'articolo 3. Possiamo presumere - anche se manca un dato letterale espresso in tal senso- che le definizioni del regolamento potranno essere in qualche modo applicate o trasposte nell'ambito della normativa italiana.

Il punto, tuttavia, riguarda una definizione in particolare ed è quella di sistema di intelligenza artificiale che il ddl ha ripreso integralmente dal testo del regolamento: «un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall'input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali».

Una definizione che condizionerà, per forza di cose, tutti gli aspetti sopra esaminati, ossia la sussistenza in concreto di aggravanti, della condotta del nuovo delitto introdotto nel sistema con l'art. 612-quater c.p. e l'estensione delle fattispecie sopra descritte, che hanno “inglobato” l'utilizzo di tali sistemi in un ambito di disvalore penale. Una definizione che il legislatore italiano ha mutuato integralmente dal regolamento, ma che potrebbe non garantire un'individuazione certa di quelli che potranno essere considerati sistemi di IA.

Una premessa è doverosa: inevitabilmente vi potrà essere un condizionamento tecnico-economico sull'interpretazione del concetto di sistema di IA, che deriverà dallo sviluppo, dalla diffusione e dalla metabolizzazione nei singoli settori di forme di IA. È altrettanto evidente che programmi caratterizzati da potenzialità di utilizzo generale, quali chatGPT o prodotti analoghi, non potranno che essere ricompresi nella categoria di sistemi di IA. È altrettanto certo che, in moltissimi casi, per ragioni commerciali e/o di “immagine”, lo sviluppatore, il produttore e lo stesso utilizzatore di programmi tenderanno a presentarli come “forme” di IA.

Nondimeno, è ragionevole ipotizzare che la indeterminatezza che per vari aspetti caratterizza la definizione sopra riportata  costituirà – in una prospettiva logica facilmente ipotizzabile – un aspetto destinato a suscitare un forte dibattitto,  considerando che  le difese in molti casi tenteranno di escludere la sussistenza dell'aggravante, la condotta ipotizzata e la sussistenza di reati nell'ambito dei quali compare la formula dell'utilizzo di sistemi di intelligenza artificiale proprio proponendo un'interpretazione “restrittiva” della formula utilizzata dal regolamento.

In effetti si tratta di una formula che nasce- almeno apparentemente- in termini espressivi di una volontà di ricomprendere un ampio spettro di programmi, caratterizzata da una serie di elementi che risultano dotati di una “potenzialità definitoria” estremamente bassa. Se parliamo di “automazione”, di “autonomia variabile”, di “possibilità di influenzare ambienti fisici o virtuali”, di output consistenti in “previsioni, contenuti, raccomandazioni o decisioni” e – in fondo – anche della “adattabilità” dobbiamo mettere in conto che si tratta di elementi scarsamente caratterizzanti rispetto alla generalità dei programmi presenti nell'attuale panorama tecnologico.  

Prendiamo ad esempio il programma- immaginario, ma non troppo - “Pippo wellness”. Si tratta di un programma che, in base al km percorsi al giorno da un soggetto, è in grado di calcolare le calorie che ha consumato, l'incremento delle prestazioni dello stesso per il futuro e di suggerire consigli alimentari fondati sul rilevo di dati fisici del fortunato possessore del programma, anche tenendo conto delle prestazioni effettuate. Bene, si tratta indubbiamente di un programma automatizzato, che sarà in grado di funzionare per un numero indeterminato di soggetti e che potrà implementare e le sue prestazioni in base al progressivo accumulo dei dati fisiologici riferibili a uno specifico soggetto e che, inoltre, in base alla rilevazione delle prestazioni di questi potrà fornire, per il futuro, indicazioni sulla tipologia di vita, di attività fisica e  consigli alimentari che indubbiamente potranno condizionare le scelte e le condotte del soggetto al quale il programma è applicato.

Nulla di straordinario, certo. Si tratta, allora, di un sistema di IA? Era a questo che pensava il legislatore europeo? E se non lo è, per quali ragioni? E soprattutto, quali saranno i programmi che potranno essere certamente esclusi dalla categoria “sistemi di IA”? Quale, allora, l'effettivo valore definitorio della formula utilizzata dal legislatore europeo?

In quest'ottica, due sono gli aspetti che meritano, infine, una specifica riflessione.

In primo luogo, la finalizzazione dei sistemi «per obiettivi espliciti o impliciti». In realtà, anche questo non è un tratto che può in qualche modo consentire distinzioni fra programmi, atteso che evidentemente qualsiasi programma viene realizzato, sviluppato e applicato per una specifica finalità; è, tuttavia, interessante rilevare come, a fianco di quella che può essere la finalità esplicita del programma, il legislatore abbia indicato anche quella implicita. Finalità che non può di per sé essere considerata univocamente indicative di una volontà di porre in essere condotte illecite, ma che indubbiamente, laddove ravvisabile, può costituire uno degli elementi che consentiranno di verificare la potenzialità criminale del sistema oggetto di valutazione.

In secondo luogo, la previsione di un sistema che «deduce dall'input che riceve come generare output». È corretto affermare che tutti i sistemi di IA funzionano in base a un modello deduttivo? O dobbiamo ritenere che ne esistono anche di natura induttiva? E in questo caso, un sistema di natura induttiva è di per sé escluso dall'ambito definito dalla legge? E, in caso positivo, per quale ragione? O ancora, possiamo ipotizzare che il richiamo alla “deduzione” sia generico e improprio e come tale- nuovamente – di scarsa o nulla valenza definitoria?

Le domande potrebbero sembrare semplici, ma verosimilmente non altrettanto le possibili risposte.  Si impone una breve premessa. In termini generali conosciamo due forme di ragionamento: induttivo e deduttivo. Forme trasponibili anche all'attività riferibile a una “macchina” e a un programma informatico, sebbene con modalità profondamente differenti.

Il ragionamento induttivo cerca di stabilire una legge universale partendo dalla conoscenza di casi particolari. Si basa sull'esperienza ed è una forma di inferenza ampliativa; per altro, l'approccio induttivo non è mai puramente empirico, ossia basato integralmente su osservazioni, ma è comunque caratterizzato da una componente aprioristica che rende l'osservazione intrinsecamente non neutrale. Come è stato osservato «In ogni approccio asseritamente empirico e induttivo, l'uomo tende sempre, inconsciamente o per interesse, a sovrapporre i propri schemi mentali alla realtà che osserva. C'è sempre una teoria, o una metafisica, dietro la ricerca di una teoria. Già soltanto scegliere cosa osservare è una scelta non induttiva carica di teoria» (G. D'Acquisto, Intelligenza artificiale, Torino, 2021, 13).

Il ragionamento deduttivo è il procedimento razionale mediante il quale è possibile, partendo da premesse generali, giungere a specifiche conclusioni. Il metodo deduttivo parte sempre da un insieme di postulati, che non hanno bisogno di essere dimostrati e che costituiscono la condizione di avvio del ragionamento, partendo dai quali, in base a una serie di concatenazioni logiche, si dimostra che una certa affermazione è conseguenza di tali premesse.

Sarebbe superficiale non parametrare tale distinzione sul fenomeno della IA. Senza potere nella presente sede tratteggiare la “storia” del fenomeno (si rimanda sul punto a M. Mitchel, L'intelligenza artificiale, Torino, 2022), si può in estrema sintesi affermare l'AI nasce e si sviluppa sino agli anni Ottanta su basi sostanzialmente deduttive. L'approccio cd simbolico prevede la rappresentazione e la manipolazione delle informazioni tramite simboli: l'elaborazione avviene quindi su un piano logico, utilizzando simboli, connessioni astratte e relazioni logiche per creare nuove informazioni. La “conoscenza” deriva da piano puramente logico, prescindendo dai valori derivanti dall'esperienza. Da molti anni, ormai, parrebbe prevalere una prospettiva induttiva, con un processo che pare difficilmente reversibile. In base all'approccio definito asimbolico gli stimoli sono alla base dell'apprendimento, senza il bisogno di nessun modello mentale pregresso. La conoscenza è codificata tramite delle piccole unità funzionali, i neuroni, che attraverso un processo di apprendimento si organizzano in strutture sempre più complesse. In questo senso, una delle forme più semplici di machine learning supervisionato è l'apprendimento induttivo, che si basa esclusivamente sull'osservazione: sulla base di un insieme iniziale di esempi di input-output, l'agente elabora delle ipotesi per ricostruire la funzione di causa-effetto fino a quel momento sconosciuta.

In sostanza, il machine learning è una forma di ragionamento induttivo in chiave “iperbolica”, per quantità di dati e informazioni e rapidità di elaborazione. Ed è certamente questa forma di IA, che si “nutre” dei dati provenienti da sistemi chiusi e/o dal web, che si presente come quella potenzialmente più insidiosa ed attuale.  Se è così, all'interprete deve sorgere il dubbio che la formula utilizzata - «deduce dall'input che riceve come generare output» sia frutto di un equivoco espressivo, che potrebbe essere risolto chiarendo che si tratta, comunque – anche, quantomeno, di sistemi di IA “fondati” su un meccanismo induttivo.

Riferimenti

F. Di Vizio, Prevenzione e investigazioni: l'uso di IA, big data e soluzioni tecnologiche in ambito finanziario e nel contrasto al riciclaggio e al finanziamento del Terrorismo 2024, discrimen.it;

C. Parodi- V. Sellaroli, Sistema penale e intelligenza artificiale: molte speranze e qualche equivoco, dirittopenalecontemporaneo.it, 6/2019;

C. Parodi, Intelligenza artificiale e processo penale: percorsi di indagine tra efficienza e garanzie fondamentali, 14 Marzo 2023, IUS Penale (ius.giuffrefl.it);

Id., Chat GPT e responsabilità penali: una nuova sfida. O no? 15 Novembre 2023, IUS Penale (ius.giuffrefl.it) .

Vuoi leggere tutti i contenuti?

Attiva la prova gratuita per 15 giorni, oppure abbonati subito per poter
continuare a leggere questo e tanti altri articoli.