Sistemi di intelligenza artificiale: quali scenari in sede di accertamento della responsabilità penale?

Veronica Clara Talamo
Veronica Clara Talamo
03 Luglio 2020

La capillare diffusione della scienza robotica e dell'intelligenza artificiale ha inaugurato sentieri inesplorati del diritto ed ha posto molteplici questioni di ordine giuridico. Le zone d'ombra, in particolare, riguardano l'accertamento della responsabilità in sede penale: i sistemi di intelligenza artificiale sono meri strumenti di commissione degli illeciti penali oppure può prospettarsi l'allargamento della platea degli autori del reato, attribuendosi un ruolo attivo alle entità artificiali?
Abstract

La capillare diffusione della scienza robotica e dell'intelligenza artificiale ha inaugurato sentieri inesplorati del diritto e ha posto molteplici questioni di ordine giuridico.

Le zone d'ombra, in particolare, riguardano l'accertamento della responsabilità in sede penale: i sistemi di intelligenza artificiale sono meri strumenti di commissione degli illeciti penali oppure può prospettarsi l'allargamento della platea degli autori del reato, attribuendosi un ruolo attivo alle entità artificiali?

Diritto Penale 4.0

Se per anni l'uomo ha fantasticato sulla possibilità di costruire macchine intelligenti, oggi, più che mai, il mostro di Frankenstein ideato da Mary Shelley e il robot di Karel Čapek sembrano prendere forma: androidi, bot, robot e sistemi di IA sono, infatti, i protagonisti della c.d. quarta rivoluzione industriale che vede l'intelligenza artificiale (di seguito anche IA) fonte di opportunità e di sfide, che per essere “vinte” necessitano un solido approccio da parte degli Stati Membri, come auspicato dalla Commissione Europea nella Comunicazione n. 237 del 25 aprile 2018.

Nonostante la tecnologia digitale sia una componente di sviluppo imprescindibile, vi sono numerosi rischi correlati all'affidabilità e alla dannosità dei sistemi di IA incorporati a prodotti e servizi e, in proposito, basta pensare all'incidente mortale avvenuto il 18 marzo 2018 in Arizona durante i test per l'auto a guida autonoma di Uber.

Purtroppo la mancanza di una disciplina organica in materia ha creato numerose lacune interpretative: per esempio, come potrebbe provarsi che l'auto a guida autonoma era difettosa oppure il nesso di causalità tra il difetto del sistema e il danno arrecato a terzi? Questi aspetti, infatti, non sono esaustivamente affrontati nella Direttiva 2001/95/CE e nella Direttiva 85/374/CEE, essendovi non poche incertezze anche rispetto ai criteri di attribuzione della responsabilità tra gli operatori che si susseguono lungo la catena di approvvigionamento, come recentemente affermato dalla Commissione Europea nel Libro Bianco sull'intelligenza artificiale.

Inoltre, nessuna posizione è stata presa in merito alla responsabilità penale derivante da fatto illecito provocato dai sistemi di IA, nonostante il Parlamento Europeo nella sua Risoluzione del 2017 avesse affermato che«è possibile che a lungo termine l'intelligenza artificiale superi la capacità intellettuale umana» (par. “introduzione”, lett. P), prefigurando la necessità di un intervento normativo rispetto ai modelli imputativi, ma, al contempo, restringendo la questione alla responsabilità dei soggetti coinvolti nello sviluppo e nella commercializzazione di applicazioni dell'intelligenza artificiale, i quali «devono essere preparati ad accettare di essere legalmente responsabili della qualità della tecnologia prodotta» (par. “introduzione”, lett. M).

Macchine “ingenue” longa manus del deus ex machina

Considerando la crescente applicazione dei sistemi di IA per la commissione di reati ambientali, economici, finanziari o informatici, il primo livello d'indagine porta l'interprete a domandarsi se, in caso di commissione di un illecito penale, i predetti sistemi – insieme di tecnologie che combina algoritmi, dati e potenza di calcolo – possano essere responsabili penalmente oppure siano degli strumenti nelle mani dell'uomo (a seconda del caso concreto ideatore, costruttore, programmatore, utilizzatore).

Per rispondere a questo quesito mi pare imprescindibile richiamare la Risoluzione del Parlamento Europeo che – seppur calibrata su questioni di ordine civilistico – reca raccomandazioni anche valevoli per il settore penale, ad esempio leggendosi che i robotnon possono essere considerati responsabili in proprio per gli atti o le omissioni che causano a terzi, che devono attribuirsi ad uno specifico agente umano (par. “responsabilità”, lett. AD).

Infatti, i sistemi di IA non sarebbero altro che la longa manus dell'uomo, deus ex machina, che ne risponderà a titolo doloso quando l'agire intenzionale della macchina coinciderà con la sua volontà (normalmente è più agevole accertare la responsabilità del programmatore o del costruttore che veicolano i comportamenti delle entità artificiali in base ad algoritmi pre-impostati).

Laddove l'astratta volontà dell'attore umano venisse deviata da un imprevedibile comportamento della macchina, l'aberratio causae non farebbe venire meno il dolo rispetto al fatto illecito; qualora invece la deviazione comportamentale non prevedibile ex ante non portasse alla verificazione dell'evento voluto dall'uomo, quest'ultimo ne risponderebbe in forma tentata purché abbia predisposto la macchina in modo idoneo e non equivoco alla commissione del reato.

Diversamente, l'uomo sarà responsabile a titolo colposo quando, osservando le norme precauzionali (diligenza, prudenza e perizia), avrebbe potuto scongiurare i pericoli connessi all'operatività dei sistemi di IA (ad esempio rilevando i vizi in fase di programmazione del software o di montaggio del dispositivo) oppure avrebbe potuto effettuare una valutazione prognostica circa la pericolosità del loro impiego.

Machina sapiens

Affermare che i sistemi di IA sono dei semplici robot appare anacronistico.

Non solo lo sviluppo della tecnologia robotica ci ha posto dinanzi ad androidi con caratteristiche sempre più umane ma, recentemente, si parla anche delle machine learning. I progressi tecnologici dell'ultimo decennio hanno consentito di mettere a punto dei robot in grado di svolgere attività che tradizionalmente erano appannaggio degli uomini, dalle fattezze e con caratteristiche cognitive – ossia capacità di apprendere dall'esperienza e prendere decisioni quasi indipendenti – simili a quelli degli agenti che interagiscono con l'ambiente circostante.

Trattasi di tecnologie di ultima generazione auto-trasformanti che, operando in base ad algoritmi aperti ad auto-modifiche strutturali, modulano il proprio agire in base agli stimoli ricevuti dall'ambiente circostante o da sistemi analoghi (come nel caso del cloud computing), impedendo ai soggetti coinvolti nella catena di approvvigionamento di effettuare una valutazione prognostica degli standard di funzionamento.

Infatti, l'evento illecito è estraneo agli schemi previsionali del programmatore e del costruttore perché tali tecnologie sono in grado di “apprendere dal proprio vissuto”, evidenziandosi spesso black box algorithms per via della zona d'ombra tra gli input ricevuti e i comportamenti tenuti.

In assenza della copertura di leggi scientifiche appare capzioso dare una spiegazione causale dell'evento.

Il dato normativo non consente di dare una risposta efficace dinanzi all'operatività dei sistemi aperti, dove cioè le regole comportamentali non sono previamente abbozzate dal programmatore o dal costruttore perché le esperienze di vita comune non possono essere tradotte in istruzione dagli algoritmi, essendovi un'ineludibile componente di imprevedibilità ma sono evidenziate dal robot solo a seguito di una rilevazione statistica. Pertanto, in tali ipotesi potrebbe individuarsi la responsabilità del costruttore o del produttore per omesso impedimento dell'evento illecito perché, non potendosi effettuare una valutazione prognostica, avrebbero quantomeno dovuto monitorare il funzionamento e i rischi connessi all'utilizzo dei predetti sistemi di IA a seguito dell'immissione nella dimensione di operatività.

Spunti dal Common Law: la teoria di Gabriel Hallevy

A fornire una spiegazione circa la responsabilità dell'evento illecito, come conseguenza di un fattore causale autonomo e sopravvenuto, è intervenuto Gabriel Hallevy che ha dato vita alla sua teoria in un sistema di common law, qual è quello israeliano

Questi – partendo dall'assunto che i sistemi di IA abbiano un corpo fisico (hardware) e siano capaci d'intendere e di volere – ritiene che l'accertamento della responsabilità penale presupponga un'indagine rispetto alla condotta illecita (actus reus) e alla volontà (mens rea e, in particolare, negligence e general intent – categoria dogmatica che ricomprende intention, knowledge e recklessness) e, in difetto anche di uno solo di questi fattori, nessun giudizio di riprovevolezza sociale può essere mosso nei confronti dell'agente («in order to impose criminal liability on any kind of entity, it must be proven that the above two elements existed»).

Ciò premesso, l'autore ha elaborato tre diversi modelli d'imputazione della responsabilità.

Secondo il Perpetration-by-Another Liability Model, i sistemi di IA non sono responsabili perché difettano di qualità e capacità che consentano di paragonarli agli uomini e di essere considerati autori dell'offesa: essendo arrecata da un innocent agent, si propone la medesima situazione in cui ad agire sia un soggetto incapace o di minore età, con conseguente responsabilità penale del programmatore del software di IA o dell'utente («the intermediary is regarded as a mere instrument, albeit a sophisticated instrument, while the party orchestrating the offense (the perpetrator-via-another) is the real perpetrator as a principal in the first degree and is held accountable for the conduct of the innocent agent»).

Secondo il Natural-Probable-Consequence Liability Model, i programmatori e gli utilizzatori non hanno conoscenza dell'offesa finché non viene commessa perché non l'hanno prevista e non intendono arrecarla mediante l'uso dell'entità artificiale, tuttavia ne sono responsabili se è naturale e probabile conseguenza della loro condotta («…a person might be held accountable for an offense, if that offense is a natural and probable consequence of that person's conduct»).

Se fin qui tali modelli non paiono stridere particolarmente con il nostro ordinamento penale, diverso è il caso in cui si prospetti una rottura del rapporto di dipendenza intercorrente tra il programmatore o l'utilizzatore ed il sistema di IA, come nel caso del Direct Liability Model che si basa interamente sull'entità artificiale, non potendosi più parlare della responsabilità vicaria della persona fisica.

Reati senza autori “intelligenti”?

La rottura del rapporto di dipendenza è normalmente dovuto all'autonomia che caratterizza i sistemi più evoluti, facendosi riferimento alla capacità di prendere decisioni e metterle in atto indipendentemente dal controllo e dall'influenza esterna.

In tale ambito, l'autonomia è un attributo puramente tecnologico e il suo livello dipende dalla complessità del sistema perché quanto più i robot sono autonomi, minormente possono essere considerati meri strumenti nelle mani degli uomini.

Le ordinarie regole di responsabilità non sono idonee e sono auspicabili nuovi interventi normativi per chiarire la responsabilità legale dei vari attori per le azioni o le omissioni di tali sistemi ove non fossero riconducibili ad un determinato soggetto oppure per spiegare come si sarebbero potuti evitare i danni conseguenti al loro utilizzo.

Come evidenziato nella Risoluzione del Parlamento UE, appare necessario valutare la creazione di una nuova categoria giuridica visto che la natura e l'autonomia dei robot stride con quelle già esistenti, atteso che il quadro normativo vigente copre solo i casi di azioni o omissioni attribuibili a uno specifico agente, non consentendo di ritenere il robot responsabile in proprio dei danni cagionati a terzi; infatti, la normativa che vede il produttore responsabile del malfunzionamento del prodotto e l'utente colpevole del comportamento che conduce al danno trova applicazione anche in caso di danni causati dai robot e dagli agenti di IA.

Rimane, altresì, aperta la questione delle machine learning visto che la disciplina in materia non consente di determinare il soggetto sul quale incombe la responsabilità da risarcimento o dal quale esigere la riparazione dei relativi danni (par. “responsabilità”, lett. AF). Pertanto, potrebbe accordarsi un approccio alla gestione del rischio incentrato su chi, in base al caso concreto, sia chiamato a minimizzare i rischi oppure potrebbe configurarsi un'ipotesi di responsabilità oggettiva che, in base al rapporto di causalità materiale, ponga a carico della persona fisica l'evento illecito senza che sia oggetto della sua volontà colpevole o conseguenza di una condotta contraria alle regole di diligenza sociali o scritte.

Tuttavia, deve affermarsi che se si ammettesse la responsabilità penale delle entità artificiali, si minerebbe la struttura del reato, come disciplinata nel nostro ordinamento penale.

In primis si annienterebbe il principio di colpevolezza che riassume le condizioni psicologiche che consentono di imputare il fatto-reato all'autore, che non può che essere un uomo sul presupposto che il rimprovero ha senso solo se il destinatario ha la maturità mentale per conformarsi alle aspettative dell'ordinamento giuridico, discernendo ciò che è lecito da ciò che è illecito.

L'ipotesi di irresponsabilità dei sistemi di IA discenderebbe, infatti, dal carattere personale della responsabilità penale (art. 27 comma 1 Cost.), non potendo rispondervi in prima “persona” perché incapace di un atteggiamento volitivo colpevole.

In secundis verrebbe meno la finalità rieducativa e risocializzante della pena che non deve tradursi in una coercizione, ma deve fondarsi sulla disponibilità psicologica del destinatario, anche al fine di rendere attuale il significato del verbo “tendere” previsto dall'art. 27 comma 3 Cost.

Per questi motivi non può parlarsi di responsabilità morale e giuridica delle entità artificiali: essendo prive di coscienza e di intenzionalità delle proprie azioni e della capacità di determinarsi diversamente, sono solo in grado di adottare e mettere in atto delle decisioni sulla scorta della loro capacità meramente tecnologica, il cui livello dipende dal grado di complessità in cui è stata progettata l'interazione delle stesse con l'ambiente circostante (salva la possibilità di obiettarsi rispetto al funzionamento delle machine learing).

Possibili chiavi di lettura

Non sono stati infrequenti i richiami alla responsabilità amministrativa delle persone giuridiche, tanto da parafrasarsi il noto brocardo latino in machinadelinquere et puniri potest, per poi smentire immediatamente qualsivoglia parallelismo.

Nello scenario del diritto penale in evoluzione sarebbe lontano dall'immaginario comune pensare al legislatore impegnato in un intervento normativo volto ad improntare un modello oggettivo di responsabilità dei sistemi di IA, che tenga conto dei concetti d'interesse e di vantaggio delle persone fisiche? Sarebbe certamente difficile tradurre in termini giuridici e robotici l'idea dell'immedesimazione organica su cui si fonda l'asserita responsabilità per fatto proprio delle societas.

In chiave prospettica potrebbe sostenersi che, quando l'agire intenzionale della macchina coincide con la volontà dell'uomo, potrebbe evidenziarsi il meccanismo del rapporto c.d. di immedesimazione organica e l'art. 5 comma 1 d.lgs. n. 231/2001 tradotto in termini tecnologici potrebbe inaugurare una coordinazione giuridica tra le entità robotiche e gli individui nella manifestazione della loro comune volontà, atteso che l'interesse descrive la proiezione finalistica della condotta da valutarsi ex ante ed il vantaggio esprime il risultato concreto della condotta attuata da accertarsi ex post.

Potrebbe – e l'uso del condizionale è volutamente scelto – sostenersi che la colpevolezza dei soggetti coinvolti nella catena di approvvigionamento (ex apicali) sia frutto di una politica aziendale volta ad osteggiare la conformità dei processi produttivi ai compliance programs, rispondendo a titolo doloso dell'omessa adozione di misure interne, salvo provare di aver azionato meccanismi di reactive fault per identificare i rischi connessi alle tecnologie e progettare un sistema di controllo; mentre, il consumatore (ex subalterno) potrebbe essere colpevole per non aver adoperato i sistemi di IA secondo i criteri di utilizzo o dei codici etici.

Tuttavia, questa ricostruzione dovrebbe essere modulata in base allo specifico caso concreto che vedrebbe il soggetto artificiale agire nell'interesse o nel vantaggio della persona fisica, e non il contrario come nell'ipotesi delle persone giuridiche; né potrebbe omettersi che nell'apparato normativo di riferimento non vi è una disposizione che consente di riconoscere la responsabilità civile o penale delle entità artificiali, al pari dell'art. 197 c.p. in tema di obbligazione civile di garanzia della persona giuridica.

Per quanto concerne le machine learning, trattandosi di algoritmi apertivi vi è una componente di “imprevedibilità prevedibile” visto che la macchina connette gli input acquisiti durante la propria vita con quelli trasmessi al momento dell'attivazione del sistema, secondo schemi aperti strutturati dall'ideatore, dal costruttore o dal programmatore.

Si potrebbe vertere in ipotesi di colpa c.d. cosciente? A mio avviso sì, se tali soggetti escludono la verificazione dell'evento nella convinzione o nella speranza di poterlo evitare, anche facendo affidamento sulle capacità degli utilizzatori.

Allo stesso modo potrebbe affermarsi che vadano esenti da responsabilità laddove siano in grado di dimostrare di aver fatto il possibile per evitare l'evento imprevedibile, ad esempio memorizzando nel software del sistema di IA il principio del neminem leadere come regola di condotta, così richiamandosi la prima legge della robotica formulata da Isaac Asimov secondo il quale «a robot may not injure a human being or, through inaction, allow a human beign to come to harm».

In conclusione

Nonostante la robotica siano un ambito dove prolifera l'incertezza scientifica che alimenta la società c.d. del rischio, non pare sia una valida soluzione – per quanto rispondente al principio di precauzione – vietare la produzione di tali sistemi perché si precluderebbe l'(ormai) irrinunciabile e inarrestabile progresso tecnico-scientifico, essendo, invero, auspicale un bilanciamento tra gli interessi via via sottesi dal caso concreto (in termini di rischi consentiti e benefici per la collettività) e l'individuazione di un'area di rischio consentito.

All'ampliamento dei margini di autonomia dei soggetti artificiali fa da pendant un vuoto di tutela che non può essere colmato mediante schemi d'imputazione erosivi dei principi costituzionali, apparendo risolutivo disegnare o riscrivere il reticolato normativo in chiave evolutiva al fine di tener conto del fatto che l'automazione abbia aggiunto valore alla nostra società moderna. A tal proposito mi pare pertinente richiamare l'art. 640-ter comma 3 c.p. che – seppur introdotto recentemente dall'art. 9 comma 1 lett. a) d.l. 14 agosto 2013, n. 93 convertito con modificazioni dalla l. 15 ottobre 2013 n. 119 – ha originato molteplici discrasie interpretative in merito alla qualificazione delle tecniche c.d. di abboccamento in quanto frutto di un intervento legislativo superficiale innanzi alle poliedriche condotte fraudolente ed avulso dalla tensione evolutiva che connota i diversi phishing attack (phishing VoIp, spear phishing, Man in The Middle Attack, etc.), che sono commessi mediante l'uso dei sistemi di IA.

La ricostruzione del quadro normativo in coerenza con l'evoluzione tecnologica non dovrebbe alimentare la “deresponsabilizzazione” delle persone fisiche e il conseguente indebolimento della tutela dei beni giuridici, ma dovrebbe consentire di rintracciare profili di responsabilità anche in capo agli agenti artificiali, eventualmente disponendo delle misure a carattere retributivo e special-preventivo come, ad esempio, lo spegnimento temporaneo o definitivo del sistema di IA, un nuovo training rieducativo mediante la riprogrammazione del software oppure il sequestro e la distruzione.

Dall'attuale cornice di riferimento emerge un sistema penale ancora fortemente “cucito” sugli uomini, gli unici che possono decidere se orientare le loro condotte in base ai precetti oppure delinquere arrecando un'offesa alla società ed agli altri consociati.

Sarebbe impensabile immaginare sul banco di prova delle entità artificiali visto che, scriveva Franco Cordero, «bisogna che l'imputazione evochi una persona fisica (qualunque animale umano vivo, sopra o sotto i 14 anni, inclusi gli abnormi), esista o no in carne ed ossa […]. Stiamo parlando dei presupposti (a parte rei) mancando i quali, il processo sarebbe pura apparenza».

Tuttavia, nonostante macchine, robot e soggetti di IA non possano essere responsabili della commissione degli illeciti penali e la responsabilità degli uomini debba essere bilanciata in base al livello delle istruzioni impartite ed al grado di autonomia di tali entità (specie considerando che nel caso delle machine learning, quanto superiore sarà la loro capacità di apprendimento, tanto maggiore sarà la responsabilità del “formatore” nella definizione del danno provocato) deve considerarsi che la Commissione Europea ha recentemente affermato nel suo report che «the experts believe there is currently no need to give a legal responsability to emerging technologies», apparendo l'uso dell'avverbio “currently” espressivo della necessità, nel medio-lungo periodo, di un intervento che, senza ostacolare l'innovazione, consideri le implicazioni etiche e giuridiche dell'uso dei sistemi di IA.

Guida all'approfondimento

Commissione Europea, Libro Bianco sull'intelligenza artificiale - Un approccio europeo all'eccellenza e alla fiducia, COM (2020) 65 final, Bruxelles, 2020;

Commissione Europea, Liability for Artificial Intelligence and other emerging digital technologies – Report from the Expert Group on Liability and New Technologies, European Union, 2019;

Commissione Europea, Comunicato della Commissione. Comunicato della Commissione al Parlamento Europeo, al Consiglio, al Comitato Economico e Sociale Europeo e al Comitato delle Regioni: L'intelligenza artificiale per l'Europea, COM (2018) 237 final, Bruxelles, 2018;

Parlamento Europeo, Risoluzione recanti raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica, 2015/2103 (INL), Strasburgo, 2017;

F. Basile, Diritto penale e Intelligenza Artificiale, in Giur. It., Utet, 2019;

G. Hallevy, The Criminal Liability of Artificial Intelligence Entities, in Akron Intellectual Property Journal, 2016.

Sommario