Chat GPT e responsabilità penali: una nuova sfida. O no?
15 Novembre 2023
Premessa: l'analisi dei profili di penale rilevanza nell'uso di Chat GPT: implicazioni etiche e giuridiche «Nell'era della digitalizzazione globale e dell'intelligenza artificiale (IA), la discussione riguardo l'uso di questi sistemi sofisticati diventa sempre più importante. Tra questi, Chat GPT, sviluppato da OpenAI, rappresenta un esempio significativo di come l'IA può portare a nuove questioni etiche e giuridiche. Questo articolo analizza i potenziali profili di rilevanza penale nell'uso di Chat GPT, cercando di identificare le principali implicazioni in questi ambiti. Chat GPT: una panoramica Chat GPT è un modello di linguaggio avanzato basato sull'architettura GPT di OpenAI. È in grado di generare testo coerente e articolato, imparando dai pattern di conversazione umana. Sebbene possa essere utilizzato per molte applicazioni positive, esistono anche rischi associati al suo uso, tra cui la possibilità di abusi a fini criminali. Profili di penale rilevanza Uno dei profili di penale rilevanza nell'uso di Chat GPT è la possibile generazione di contenuti illegali. Ad esempio, se utilizzato in modo inappropriato, Chat GPT potrebbe essere utilizzato per creare discorsi d'odio, diffamazione o materiale pornografico minorile, che sono tutti crimini in molte giurisdizioni. Un'altra area di interesse riguarda la possibilità che Chat GPT possa essere utilizzato per attività fraudolente, come il phishing o lo scam. Poiché Chat GPT può imitare la comunicazione umana in modo convincente, potrebbe essere utilizzato per ingannare le persone, portandole a rivelare informazioni sensibili o a compiere azioni che possono danneggiarle. Implicazioni etiche e giuridiche La questione fondamentale che emerge è come prevenire o mitigare questi rischi. Da un punto di vista etico, è necessario un dialogo aperto sulla responsabilità dell'uso di Chat GPT. Gli sviluppatori di AI hanno il dovere di implementare misure per prevenire l'abuso dei loro sistemi, ma gli utenti finali devono anche assumersi la responsabilità del loro utilizzo. Dal punto di vista giuridico, la questione è più complessa. Le leggi attuali non sono sufficientemente chiare o complete per affrontare le questioni sollevate dall'IA. Ad esempio, chi dovrebbe essere ritenuto responsabile se Chat GPT viene utilizzato per commettere un crimine? L'utente che ha fornito l'input? Lo sviluppatore che ha creato l'IA? Oppure la macchina stessa? Queste sono questioni fondamentali che richiedono una riflessione approfondita e un dibattito pubblico. Potrebbe essere necessario un quadro giuridico internazionale per regolamentare l'uso di IA come Chat GPT, che dovrebbe essere sviluppato con un approccio multilaterale. Implicazioni etiche Oltre alle questioni legali, ci sono anche profonde implicazioni etiche nell'uso di Chat GPT. Un punto importante è la privacy. Gli algoritmi di apprendimento automatico si basano su enormi quantità di dati, spesso personali. È pertanto essenziale garantire che l'uso di tali dati rispetti i principi di consenso, trasparenza e minimizzazione dei dati. Inoltre, l'uso di IA come Chat GPT può portare a forme di manipolazione o di bias. Gli algoritmi sono infatti influenzati dai dati con cui vengono addestrati, e possono quindi riprodurre e amplificare pregiudizi esistenti. Questo solleva importanti questioni etiche, come la necessità di assicurare l'equità e la non discriminazione nell'uso dell'IA. Conclusione L'uso di Chat GPT e di altre tecnologie di intelligenza artificiale rappresenta una sfida per il nostro sistema giuridico e per la nostra etica. Per affrontare queste sfide, è necessario un approccio multidisciplinare che coinvolga giuristi, informatici, filosofi e sociologi. Solo attraverso un dialogo aperto e una regolamentazione adeguata saremo in grado di sfruttare appieno le potenzialità dell'IA, minimizzando al contempo i rischi associati». Abbiamo scherzato… Ebbene sì. Non ho resistito alla tentazione di inserire quale premessa del presente articolo la risposta che il programma in oggetto (nella sua versione a pagamento, in data 1.6.2023) ha fornito alla domanda riportata nel titolo, calibrato (nella richiesta) a un pubblico di magistrati e avvocati. È indispensabile, prima di valutare un fenomeno, cercare di comprendere con che cosa abbiamo a che fare, come possiamo relazionarci con lo stesso e soprattutto se e in che termini dobbiamo avere timore e/o preoccupazione rispetto a quelle che possono essere le conseguenze della diffusione di tale sistema. La lettura del primo paragrafo, verosimilmente, qualche indicazione la può fornire. Uno svolgimento corretto, forse un po' superficiale, indubbiamente prudente e ragionevolmente improntato a un taglio “tradizionalista” di analisi del fenomeno e delle problematiche ad esso sottese. Un approccio distante non solo dal mondo accademico (sarebbe stata necessaria una domanda “mirata” apposita) ma anche – verosimilmente - di non eccezionale utilità anche per coloro che affrontano il tema quali giuristi “pratici”, operativi. Con questo non intendo certamente dire che i giuristi “umani” possono stare per qualche tempo tranquilli, al contrario; mi pare, tuttavia, altrettanto evidente come un approccio critico e con una visione pluriprospettica del problema possa essere ancora ampiamente terreno di coltura per i bipedi pensanti: quantomeno a livello di confronto. E lo è eccome vivo, vivissimo, il confronto. Sono stati pubblicati in tempi recenti numerosi articoli e che hanno affrontato, con professionalità e ricchezza di contenuti, la tematica in oggetto (si rinvia al riguardo all'ampia panoramica reperibile in L. Romanò, La responsabilità penale al tempo di chat GPT: prospettive de iure condendo in tema di gestione del rischio da intelligenza artificiale generativa, in giustiziapenale.it). I numerosi commenti che sul programma in oggetto sono stati espressi a vario titolo consentono di evitare una descrizione delle funzionalità e delle potenzialità che lo stesso presenta. Nondimeno, in chiave di penale rilevanza il problema deve essere posto distinguendo le varie ipotesi nelle quali la responsabilità penale si potrà manifestare. Le condotte dolose Da un lato è molto semplice - quasi semplicistico - ritenere che ogni qualvolta chat GPT viene utilizzato in funzione di attività direttamente e inequivocabilmente criminali - nelle quali la capacità di predisporre testi fortemente credibili e di raccogliere e organizzare informazioni si può rivelare straordinariamente utile - non vi sono ragioni per non ricondurre gli esiti di tale attività ai soggetti che lo hanno “destinato” in tal senso, in base ai generalissimi criteri di imputazione delle responsabilità penali. Basti pensare alle ipotesi di frodi informatiche o comunque di reati posti in essere in rete che si manifestano con modalità comunicative o – ancora - alla possibilità tramite il programma di “creare” e rendere operativi in termini attendibili e per finalità criminali soggetti virtuali. In questi casi è evidente che l'utilizzo del programma per predisporre testi, per organizzare informazioni e per sviluppare contatti funzionali a porre in essere tali condotte illecite non potrà che ricadere - secondo i canoni di ordinaria valutazione della responsabilità - su coloro che l'attività in sé hanno posto in essere. Consideriamo, ad esempio, il caso in cui chat GPT sia “istruito” per replicare modalità espressive di una società ipotizzata quale parte di un meccanismo fraudatorio e che proprio grazie alla capacità di adeguamento espressivo del sistema la condotta risulti particolarmente efficace. A considerazioni analoghe si deve giungere anche per tipologie di reato sostanzialmente differenti, quantomeno sul piano criminale: si pensi - ed è un caso assolutamente emblematico - all'ipotesi di diffamazione online. Un reato certamente tra i più diffusi e nel quali il coefficiente di disvalore è correlato alle modalità espressive - sul piano della forma e dei contenuti - utilizzate dal soggetto al quale la comunicazione è riferibile. In questi casi il testo della comunicazione è elaborato utilizzando chat GPT, dovrà essere attribuito in tutto e per tutto al soggetto che apparentemente ne risulta l'autore e che ne ha “curato” la diffusione in rete. Se l'espressione eventualmente di natura diffamatoria è stata inserita dal programma e non vi è stata un'attività di controllo sul contenuto finale del testo da parte del soggetto che lo ha formalmente diffuso, non ci possono essere dubbi sul fatto che egli dovrà comunque rispondere della comunicazione di tale natura. Si tratta di una soluzione, di fatto, del tutto sovrapponibile a quella di un testo predisposto da un ghostwriter umano, impregiudicate eventuali ragioni di rivalsa nei confronti, in entrambi i casi, della “macchina” (vedremo in quali termini) o dell'uomo. A tale proposito pare indispensabile una puntualizzazione: non si può e non si deve confondere la difficoltà di individuare la riferibilità soggettiva delle funzionalità del programma rispetto all'imputazione delle condotte a coloro che di tali funzionalità risultano i fruitori. Si tratta di due problemi completamente differenti, anche se forte e suggestiva può essere la tentazione di sovrapporli. Il problema non si pone, evidentemente, per quanto riguarda le attività dolose, per le quali l'avere l'autore delle stesse sostituito in parte la propria diretta operatività con le funzionalità del programma non modifica il quadro di valutazione della responsabilità. Non si tratta di “penalizzare” aprioristicamente l'utilizzo di chat GPT, quanto di trarre le dovute conclusioni dai principi generali del sistema. Se si “delega” chat GPT a predisporre una lettera per recuperare un credito e il programma propone un'intimazione di natura sostanzialmente estorsiva, la criticità non può essere nell'elaborazione effettuata dalla A.I., ma nell'utilizzo diretto della stessa da parte del - presunto - creditore. In estrema sintesi si deve ritenere che forme di A.I. non possono essere considerate centro di imputazione della responsabilità penale, poiché non è un agente nel senso penale, non avendo capacità di agire in modo consapevole e volontario - caratteristiche fondamentali dell'agire responsabile. Per quanto difficile potrà risultare, allo stato - e per non poco tempo ancora - è necessario in chiave penale individuare l'uomo dietro alla “macchina”. Il rapporto tra condotta dolosa umana e contributo dell'A.I. La tematica della responsabilità dolosa deve essere affrontata anche sotto un altro profilo, ossia quando, a fronte di un comportamento illecito doloso posto in essere da un soggetto fisico, il dato o l'informazione derivante da tale condotta sia utilizzata da un'intelligenza artificiale, che a sua volta, sulla base della stessa, potrebbe porre in essere una differente e ulteriore condotta penalmente illecita. Si pensi il caso, ad esempio, di un dipendente bancario infedele che decide di aprire un conto intestato a un soggetto esistente ma in realtà ignaro di tale operazione, per autonome finalità illecite. In questo modo viene inserito nel sistema informatico dell'istituto un'informazione non rispondente al vero, che il programma non sarà, con elevata verosimiglianza, in grado di riconoscere come tale. Un'informazione che un programma di intelligenza artificiale potrebbe utilizzare per altre finalità, a loro volta, autonomamente illecite, quali, ad es. diffondere in circuiti specializzati on line false informazioni sulla solvibilità del soggetto apparentemente titolare del conto. In che termini è imputabile al primo soggetto anche la condotta illecita - es diffamazione aggravata on line - che il programma di intelligenza artificiale potrebbe avere posto in essere, fondandosi su tale informazione? È ipotizzabile un concorso a titolo di dolo eventuale nella diffamazione? O si tratta “solo” di una condotta riconducibile ai soggetti che hanno sviluppato il programma e/o che lo stanno utilizzando? E, in questo caso, può sussistere una responsabilità a titolo di dolo eventuale o colpa (sul piano civilistico) dipendente dalla “qualità” della verifica e dalla qualità delle informazioni che il programma è grado di realizzare? Lo vedremo nei punti successivi. Responsabilità a titolo di colpa: un condizionamento psicologico? Il discorso si complica nel momento in cui si passa dalla valutazione di attività di natura dolosa a quelle di natura colposa. È un tema che, ovviamente, non nasce con chat GPT (o prodotti analoghi) ma che da alcuni anni è oggetto di attenzione, in quanto riguarda il rapporto tra la responsabilità del singolo (o di una società, seppure in termini differenti) e forme di “automazione” di condotte o di “elaborazione” di dati e informazioni. La novità - rispetto a chat GPT - è di natura più quantitativa che qualitativa, anche se, nel caso di specie, la variabile “quantità” non può non riflettersi sul piano della qualità. Il concetto, che può apparire astratto, è in realtà concretissimo: l'aumento nella complessità dell'elaborazione è inversamente proporzionale alla possibilità per i fruitori del programma di esercitare forme di controllo, di verifica e se necessario di intervento correttivo sugli esiti dell'elaborazione in oggetto. L'utilizzo massivo di chat GPT nei settori più disparati deve essere valutato in termini di ricostruzione di potenziali responsabilità colpose penali - commissive come omissive - derivanti dell'utilizzo dello stesso, tenendo presente l'oggettiva difficoltà per i fruitori di intervenire in concreto sulle varie fasi di attività del programma. È lecito, comunque, domandarsi - con la massima umiltà possibile - se veramente il fatto che «copiosa letteratura penalistica, sia italiana che internazionale” … abbia “a più riprese evidenziato come l'opacità e l'imprevedibilità di certi strumenti basati su IA renda estremamente difficile imputare per colpa un reato algoritmico all'agire di un singolo soggetto umano»” (così L. Romano, op. cit., 4). In questo senso «il grado di autonomia e la vastità del potenziale applicativo dell'IA parrebbero escludere del tutto la stessa possibilità di un controllo e/o intervento umano preventivo. Se questa ipotesi si rivelasse corretta, venendo meno la possibilità di imputare un eventuale risultato lesivo a un utilizzatore che non partecipa più all'attività algoritmica, addirittura ormai privato della capacità di governarla, non rimarrebbe altro che un problematico “fatto proprio” della macchina, o al massimo un caso fortuito, privo di copertura sul piano della responsabilità penale» (C. Piergallini, Intelligenza artificiale: da ‘mezzo' ad ‘autore' del reato?, in Riv. It. diritto e proc. pen., 2020, 4, 1746). La tesi è suggestiva, acuta ma straordinariamente rischiosa: indicare in termini aprioristici l'assenza di responsabilità in conseguenza dell'impossibilità o della difficoltà di controllo dell'attività di un programma di A.I. da parte dell'utilizzatore dello stesso significa accollare di fatto una quota di rischio sul sistema in generale. Una scelta difficile da accettare sul piano socio-criminale e potenzialmente disastrosa su quello economico. La strada non può essere quella. L'uso di chat GPT è riconducibile alla categoria di cui all'art. 2050 c.c.? Si può o si deve ritenere che l'utilizzo integri l'esercizio di “attività pericolose” di modo che «chiunque cagiona danno ad altri nello svolgimento di un'attività pericolosa, per sua natura o per la natura dei mezzi adoperati, è tenuto al risarcimento, se non prova di avere adottato tutte le misure idonee a evitare il danno»? I soggetti - persone fisiche o giuridiche - che beneficiano dell'utilizzo di chat GPT sono tenuti a risarcire eventuali danni o comunque il pregiudizio di interessi di terzi, ferma restando la necessità di verifica il rapporto fra la responsabilità di quelli che sono i diretti utilizzatori e le responsabilità di coloro che hanno sviluppato e/o applicato il programma? Non si deve inoltre dimenticare il fatto che le potenziali criticità che possono derivare da un programma quale chat GPT non derivano soltanto dalle modalità di programmazione e di sviluppo del programma, quanto anche, in molti casi, soprattutto da quella che è la base informativa che viene utilizzata per sviluppare le funzionalità che lo stesso deve assicurare. Le informazioni che alimentano una intelligenza artificiale sono altrettanto importanti rispetto (considerando l'affidabilità del programma e la “trasparenza” dello stesso) all'algoritmo vero e proprio. Volendo sintetizzare alcune caratteristiche comuni ai molti commenti e alle molte interpretazioni che sono state date sulle possibilità di valutazione di responsabilità penali (nonché sul piano civilistico) di chat GPT, emergono in maniera inequivoca due aspetti, di grande interesse. In primo luogo, un comprensibile desiderio di ricerca di categorie “nuove” per inquadrare le potenziali responsabilità, andando “oltre”, quindi, allo schema codicistico penale e anche prescindendo dal “sistema 231”, che, sostanzialmente, delinea responsabilità di persone giuridiche ed enti partendo comunque da condotte dei singoli di rilievo penale. Ecco, allora, che si ipotizza la creazione di un nuovo inquadramento che tenga conto dell'eccezionale potenziale di innovazione - sotto tutti i profili: relazionali, economici, organizzativi e sociali - che la diffusione di chat GPT può rappresentare. D'altro canto, risulta con ancora maggiore chiarezza un forte timore di proporre delle chiavi di lettura in qualche modo penalizzanti rispetto allo sviluppo e all'utilizzo del programma, tali da essere interpretate come una forma di contrasto o quantomeno di dissuasione - non giustificata - alla diffusione dello stesso. Un timore di essere percepiti come paladini di un approccio tradizionale ai problemi - anche se i risvolti etici dell'utilizzo non sfuggono alla totalità dei commentatori, destinati - prima o poi - a essere travolti delle inarrestabili potenzialità di tali forme di A.I. Al proposito, si è precisato che «la tentazione di individuare potenziali colpevoli cui addossare i danni indotti dalla macchina - al fine di ripristinare la fiducia verso la tecnologia - rischia di condurre a scelte politiche “ultraresponsabiliste” e derive sul piano penalistico» (A. Cappellini, Profili penalistici delle self-driving cars, in Dir. pen. contemporaneo, 2019, 2, 325 ss.). Resta da capire, al riguardo, cosa si debba intendere per scelte ““ultraresponsabiliste”, indicate genericamente come non condivisibili, laddove al contrario il principio di responsabilità deve essere sempre modulato in sintonia con le esigenze di tutela che un sistema giudica prioritarie. Individuazione e gestione del rischio L'identificazione di una responsabilità colposa nell'ambito di un sistema giuridico è strettamente correlata alla scelta, di politica giudiziaria, diretta a individuare il livello di rischio che si ritiene accettabile per le singole attività e le modalità di individuazione dello stesso. A questo principio generale non sfugge la valutazione in tema di intelligenza artificiale e di chat GPT in particolare. A livello europeo non mancano indicazioni generali in tal senso, che, tuttavia, anche laddove concretamente approvate, potrebbero non essere risolutive in relazione alla tematica evidenziata. Si tratta della Proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull'intelligenza artificiale (legge sull'intelligenza artificiale) e modifica alcuni atti legislativi dell'unione (6.4.2021- https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=celex%3A52021PC0206). In estrema sintesi, la proposta distingue tra pratiche di intelligenza artificiale caratterizzate da un rischio inaccettabile, da un rischio alto o da un rischio basso o minimo (delle quali, per evidenti ragioni, non ci occuperemo). Nel primo caso- rischio inaccettabile - si tratta di:
I sistemi ad alto rischio per la salute e la sicurezza o per i diritti fondamentali delle persone fisiche «sono consentiti sul mercato europeo subordinatamente al rispetto di determinati requisiti obbligatori e ad una valutazione della conformità ex ante», tenendo conto che «la classificazione come ad alto rischio non dipende solo dalla funzione svolta dal sistema di IA, ma anche dalle finalità e modalità specifiche di utilizzo di tale sistema». Un programma come chat GPT (o analoghi) rientra verosimilmente in tale categoria, in quanto trattandosi di programma di uso generale (general purpose IA), può prestarsi a un numero potenzialmente indeterminato di funzionalità per le quali non era stato specificamente “addestrato” (in questo senso si è espressa la proposta di emendamento al testo del Regolamento del Consiglio europeo il 6 dicembre 2022). Se questa prospettiva ermeneutica dovesse essere confermata, ne conseguirebbe che tale programma dovrebbe soddisfare tutti i relativi requisiti previsti per le pratiche ad alto rischio. La proposta menzionata, in tema di sistemi di IA ad alto rischio precisa che il capo 2 «definisce i requisiti giuridici per i sistemi di IA ad alto rischio in relazione a dati e governance dei dati, documentazione e conservazione delle registrazioni, trasparenza e fornitura di informazioni agli utenti, sorveglianza umana, robustezza, accuratezza e sicurezza. … Le soluzioni tecniche precise atte a conseguire la conformità a tali requisiti possono essere previste mediante norme o altre specifiche tecniche o altrimenti essere sviluppate in conformità alle conoscenze ingegneristiche o scientifiche generali, a discrezione del fornitore del sistema di IA». Il capo 3 della proposta, rubricato «Obblighi dei fornitori e degli utenti dei sistemi di IA ad alto rischio e di altre parti» definisce una serie di obblighi orizzontali per i fornitori di sistemi di IA ad alto rischio. Obblighi proporzionati sono imposti anche a utenti e altri partecipanti; si tratta, in particolare, degli obblighi dei fornitori dei sistemi di IA ad alto rischio (art. 16) del sistema di gestione della qualità (art. 17) dell'obbligo di redigere la documentazione tecnica (art. 18), della v 19) con previsione , inoltre di specifici obblighi per i dei fabbricanti di prodotti (art. 24) , per i rappresentanti autorizzati (art. 25) per gli importatori (art. 26), per i distributori (art. 27) per distributori, importatori, utenti e altri terzi (art 28) e per gli utenti dei sistemi di IA ad alto rischio (art. 29). Il quadro delineato dalla proposta appare completo: la proposta prevede prescrizioni dirette, la cui efficacia è corroborata dalla previsione di sanzioni ( in base all'art. 71 della proposta «Nel rispetto dei termini e delle condizioni di cui al presente regolamento, gli Stati membri stabiliscono le regole relative alle sanzioni, comprese le sanzioni amministrative pecuniarie, applicabili in caso di violazione del presente regolamento e adottano tutte le misure necessarie per garantirne un'attuazione corretta ed efficace») ed è caratterizzata da una logica generale che impone agli operatori interessati di modulare ai programmi specifici la concreta attuazione dei principi sanciti, in astratto, dalla normativa in materia. Utilizzo e valutazione della colpa Il quadro generale sopra descritto deve essere calato nella valutazione specifica della sussistenza dei presupposti della colpa, in tutti i casi in cui effettivamente i programmi in oggetto siano elaborati, distribuiti e utilizzati. Come è noto, ai sensi dell'art. 43 comma 3 c.p. il reato è colposo «quando l'evento, anche se preveduto, non è voluto dall'agente e si verifica a causa di negligenza o imprudenza o imperizia, ovvero per inosservanza di leggi, regolamenti, ordini o discipline». In che termini e come tale principio è trasponibile al caso di specie? Parametrando la valutazione della colpa (normata in via primaria o integrata dai principi dello “stato dell'arte”) rispetto ai “produttori/sviluppatori” di un programma quale chat GPT, la questione è complessa. Proprio la natura fondamentalmente, ontologicamente “generalista” del programma in oggetto rende estremamente problematica l'applicazione al caso di specie. Indubbiamente, gli obblighi stabiliti dalla proposta di regolamento, in esito all'approvazione - potranno costituire elementi di valutazione di colpa “normata”, fermo restando che in molti casi i principi generali e astratti dovranno essere rapportati alle specifiche caratteristiche e funzionalità del programma. Ciò che appare arduo non è tanto la valutazione in tema di prevenibilità, quanto quella sulla prevedibilità. In termini generali, dobbiamo ricordare che gli algoritmi possono essere definiti come una serie di istruzioni progettate per raggiungere un risultato che si desidera ottenere elaborando alcuni dati di partenza. Se le piattaforme digitali sono il risultato di questa elaborazione di dati, l'algoritmo rappresenta la "ricetta computazionale sottostante". Tuttavia, mentre gli "algoritmi semplici" consistono in un insieme finito di istruzioni, indipendentemente dai dati inseriti, gli "algoritmi di apprendimento automatico" restituiscono potenzialmente risultati infiniti e imprevedibili perché imprevedibili sono i comportamenti umani all'interno dei sistemi da cui apprendono. In questo, sostanzialmente, consiste il vero rischio. Una valutazione ex ante sulla prevedibilità dei rischi di utilizzo di chat GPT - visto l'elevatissimo numero di prospettive di utilizzo - è, per molti aspetti, improba, laddove la valutazione ex post - quantomeno nella prospettiva di miglioramento/implementazione del programma presenta, in relazione alla valutazione della colpa, un'utilità del tutto residuale (se non al fine di comprendere se e come un evento sarebbe stato, ove previsto, prevenibile). Ad ogni modo, impregiudicata la difficoltà - già espressa - di individuare all'interno delle strutture che hanno sviluppato il prodotto i soggetti effettivamente responsabili di eventuali criticità dello stesso, non vi possono essere dubbi sul fatto che in molti casi, proprio sulla base dei principi generali di colpa, potrà essere individuata una responsabilità penali di tali soggetti, ovvero, laddove il legislatore lo ritenga, anche ai sensi del d.lgs. n. 231/2001 in relazione alla responsabilità di enti e persone giuridiche nell'ambito delle quali il soggetto fisico ha operato e ferma restando la necessità di provare il nesso tra l'evento che si assume illecito e la condotta di tali soggetti. Si pensi, ad esempio, all'implementazione della base conoscitiva del programma - e quindi del meccanismo di autoapprendimento - sulla base di dati e informazioni non corretti o non pertinenti o non adeguatamente finalizzati: si tratta di una condotta che, ove provata, potrebbe indubbiamente costituire un principio di colpa, di rilevanza penale così come a livello civilistico. Il rapporto tra programmi e operatori Un aspetto fondamentale della nuova disciplina, anche considerando le indicazioni della proposta di regolamento sopra menzionata, è dato dall'articolo 14 della stessa, nel quale si tratta della “sorveglianza umana”. In base a tale norma «1. I sistemi di IA ad alto rischio sono progettati e sviluppati, anche con strumenti di interfaccia uomo-macchina adeguati, in modo tale da poter essere efficacemente supervisionati da persone fisiche durante il periodo in cui il sistema di IA è in uso. 2. La sorveglianza umana mira a prevenire o ridurre al minimo i rischi per la salute, la sicurezza o i diritti fondamentali che possono emergere quando un sistema di IA ad alto rischio è utilizzato conformemente alla sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile, in particolare quando tali rischi persistono nonostante l'applicazione di altri requisiti di cui al presente capo». Volendo e dovendo semplificare il concetto, si ipotizza di contenere o almeno limitare il pericolo derivante da sistemi ad alto rischio attraverso la previsione “sistematica” offerta della possibilità di un intervento umano in grado di correggere e di intervenire tempestivamente su eventuali malfunzionamenti o criticità del sistema. Si tratta di un'affermazione che non può che lasciare, per molti aspetti, perplessi. Un sistema ad alto rischio di per sé è evidentemente un sistema che presenta un'elevata complessità; in questo senso proprio chat GPT rappresenta l'archetipo di quello che può essere considerato un sistema a rischio elevato. Ora, proprio la complessità e la multiformità di utilizzo di chat GPT rende assolutamente difficile, se non impossibile, la previsione in termini di concreta utilità di un intervento umano in grado di elidere gli effetti di potenziali criticità. Tanto maggiore è la complessità e la “poliedricità” di un sistema - e il conseguente rischio di utilizzo dello stesso (come nel caso indubbiamente di chat GPT) - tanto più difficile è la possibilità di prevedere un intervento da parte degli utilizzatori finali puntuale, efficace e in grado di intervenire e di elidere eventuali situazioni di pericolo o evitare danni per gli interessi che si vogliono tutelare. Queste osservazioni si riflettono sulla valutazione della responsabilità a titolo di colpa in un duplice senso. Da un lato, un sistema di questo tipo aumenta il rischio di potenziali responsabilità di chi lo ha creato e distribuito, proprio perché si tratta di sistemi rispetto ai quali la possibilità di prevedere le modalità di intervento degli utilizzatori è sicuramente più difficile e ancora più complessa è la valutazione ex ante dei potenziali rischi derivanti dalle attività svolte. Nondimeno, il soggetto che accetta di utilizzare il sistema in oggetto in qualche modo si accolla il rischio che lo stesso non sia in grado di essere efficacemente corretto in via eteronoma e che non sia sufficientemente idoneo in via autonoma. Situazioni che ben difficilmente potrebbero escludere la ravvisabilità di responsabilità di natura colposa. Si tratta, allora, di verificare se l'utilizzatore può essere ritenuto responsabile degli eventi avversi derivanti dal malfunzionamento del programma, in quanto riconducibili a una non adeguata gestione della fonte del rischio. È una prospettiva indubbiamente - per certi aspetti - penalizzante per lo sviluppo e la diffusione di programmi e in particolare di quelli che coniugano una straordinaria potenza operativa con la possibile destinazione a funzioni molteplici e svariate. Sul punto, si è osservato che «Non si comprende …. come il fornitore possa elencare tutte le possibili applicazioni, determinare ex ante i rischi per tutti i diritti e beni giuridici coinvolti e sviluppare strategie di prevenzione o mitigazione rispetto ad un modello linguistico (come GPT) il cui utilizzo potrebbe spaziare dalla creazione di una chatbot per l'assistenza clienti di un sito web alla fornitura di un canale di contatto riservato per denunciare violenze e abusi. D'altra parte, tale problematica si ripercuote anche - e con maggior vigore - sulla posizione dell'utilizzatore. È evidente il rischio che dietro questa soluzione si celi una scelta politica ultraresponsabilista, volta ad estendere il ruolo e i doveri di controllo dell'utilizzatore in maniera del tutto irrealistica: in che misura sussiste un potere materiale ed effettivo di intervento in capo a tale soggetto? È opportuno gravare l'utilizzatore di un vero e proprio obbligo giuridico di controllo e intervento rispetto all'attività di un sistema di IAG? Ove si ritenga di procedere in tal senso, l'utilizzatore potrebbe essere ritenuto responsabile degli eventi avversi derivanti dal malfunzionamento dell'IAG, in quanto riconducibili al malgoverno (o omesso governo) della fonte di rischio» (così L. Romanò, op. cit.). In questo senso, si teme una applicazione indiscriminata del principio di responsabilità ex art. 40, comma II c.p. per il mancato impedimento di eventi avversi causati dal programma. In sostanza, la ricerca di nuove forme di parametrazione della responsabilità a titolo di colpa deriverebbe da un duplice concomitante fattore, che proprio per chat GPT si presenta con particolare - si potrebbe dire singolare - chiarezza. La “potenza” di elaborazione e l'impossibilità di prevedere la finalizzazione e l'utilizzo in concreto rende arduo delimitare una responsabilità del produttore e - d'altro canto - la stessa natura e complessità del programma rende altrettanto arduo ipotizzare una responsabilità a titolo omissivo per non avere impedito eventi “nocivi”. Non sarebbe possibile individuare una responsabilità personale in sintonia con i principi del sistema giuridico nei confronti di soggetti non oggettivamente in grado di esercitare un controllo effettivo sul programma. In sostanza, la “sorveglianza umana” - per quanto auspicabile - non può che essere verificata come praticabile nel caso concreto e non in termini astratti. Dall'impossibilità di individuare un potere di controllo e intervento effettivo sul sistema deriverebbe, pertanto, l'impossibilità di delineare profili di responsabilità colposa per eventi derivanti dalle criticità sulle quale non sarebbe di fatto impossibile intervenire. L'esempio del veicolo privo di conduttore controllato da forme di IA è ormai stato ampiamente valutato e discusso, ma proviamo a pensare, ad esempio, a un sistema di sicurezza di un impianto industriale la cui funzionalità in concreto è rimessa a un programma di IA, o se per lo stesso impianto, analogamente, si è provveduto per disciplinare i controlli sulle emissioni, in chiave ambientale. Proviamo a pensare a sistemi con queste finalità, ad alto rischio, per i quali gli interventi di “sorveglianza” umana sono in astratto previsti ma potrebbero essere di fatto non utilmente praticabili. Il sistema giuridico nel suo insieme si può concedere il lusso di escludere aprioristicamente dalla sfera di rilevanza penale reati caratterizzati dall'evento nei casi sopra descritti, ossia limitarsi alla previsione di sanzioni amministrative, di interventi risarcitori o al più di forme di limitazione/inibizione allo svolgimento dell'attività? È una prospettiva difficile da accettare. Anche in questo caso, una “semplificazione” può essere non raffinata ma efficace dal punto di vista espressivo. Se la “soglia” dei reati di pericolo può essere individuata tenendo conto delle peculiarità del settore e delle necessita di non “inibire” lo sviluppo tecnologico, se parliamo di reati di evento il discorso muta radicalmente. E, mutando, finisce per condizionare indirettamente anche la “soglia” menzionata per la stigmatizzazione negativa del pericolo. La risposta contenuta nella proposta di regolamento Siamo tornati al punto di partenza delle presenti osservazioni. Occorre comprendere se il timore di “nuocere” alla diffusione e all'utilizzo generalizzato di forme di AI, tra le quali chat GPT (ma non solo) può essere bilanciato – semplicemente - da nuovi strumenti di riconoscimento delle responsabilità o se non sia necessario affrontare - con le adeguate distinzioni, l'applicazione di canoni e strumenti da tempo metabolizzati dal sistema penale. La risposta non è scontata; sul tema, si è osservato che la prospettiva di imboccare la scorciatoia del diritto penale di evento - ricorrendo ad esempio alla tradizionale nozione di posizione di garanzia - è accattivante per la sua funzione di rassicurazione (o esorcismo) sociale, ma potrebbe determinare un mero centro di accollo di responsabilità in caso di eventi avversi, senza in realtà che ciò presupponga una reale rimproverabilità nei confronti di un umano ormai privo di un reale ed effettivo potere di governo ed intervento sull'attività algoritmica (cfr. Consulich, Flash Offenders. Le Prospettive di Accountability Penale nel Contrasto alle Intelligenze Artificiali Devianti, in Riv. It. Dir. Proc. Pen. 2022, 1050) Una soluzione potrebbe essere quella ispirata dalla proposta di Regolamento sopra menzionata, nella misura in cui la stessa globalmente propone un modello finalizzato a intercettare i rischi e governare in anticipo le problematiche connesse ai sistemi di IA, coinvolgendo direttamente gli operatori nel campo dell'IA nella determinazione delle regole da rispettare nello sviluppo e nell'utilizzo di sistemi intelligenti. In sostanza, la proposta indica la necessità - art. 17 - che la conformità ai requisiti del regolamento debba essere assicurata attraverso l'adozione di un sistema di gestione della qualità, laddove, ai sensi dell'art. 16, il fornitore di sistemi di IA ad alto rischio sarebbe tenuto a rispettare i requisiti stabiliti dal capo 2 della proposta stessa, con la precisazione che «le soluzioni tecniche precise atte a conseguire la conformità a tali requisiti possono essere previste mediante norme o altre specifiche tecniche o altrimenti essere sviluppate in conformità alle conoscenze ingegneristiche o scientifiche generali, a discrezione del fornitore del sistema di IA». È l'espressione “a discrezione” che non convince sino in fondo. Di fatto, viene operato un rinvio allo stato dell'arte e del progresso tecnologico e scientifico, sulla base del quale il “produttore” del programma dovrà parametrare la valutazione e prevenzione del rischio. Una forma di autodisciplina - presidiata ovviamente da sanzioni - mirata a costruire uno schema di “prevenzione” in costante adeguamento, funzionale - anche, evidentemente - a non precostituire forme di inibizione alo sviluppo tecnologico, che potrà, indubbiamente, fornire globali garanzie, ma che lascia inevitabilmente “scoperti” quegli espetti sostanzialmente imprevedibili derivanti dal combinato disposto potenzialità di eleborazione/potenzialità di utilizzo. Difficile che la previsione di reati di mera condotta - e quindi di pericolo presunto - possano coprire l'ampia gamma di eventi che dall'utilizzo di un programma quale chat GPT potrebbero derivare. Per i sistemi rientranti nella categoria sopra esaminata caratterizzati da “rischio inaccettabile” - che non dovrebbero essere utilizzati in settori o per scopi specificamente indicati dal legislatore - la “costruzione di una responsabilità per colpa può presentarsi come non particolarmente problematica, risultando provata dal nesso tra l'evento e l'utilizzo di fatto del programma al di fuori dai casi consentiti. La risposta più difficile, complessa e delicata riguarda ovviamente la parametrazione delle responsabilità per i sistemi ad alto rischio. Sistemi per i quali in via generale si è accettata la possibilità di utilizzo generalizzato ma per i quali si devono garantire condizioni di sicurezza. Si tratta di problema nuovo, ontologicamente nuovo e qualitativamente differente da quelli che si sono presentati con progressiva rilevanza, negli ultimi decenni e che hanno caratterizzato lo sviluppo tecnologico? Verosimilmente no. Il diritto penale, nella sua accezione più rilevante sul piano sociologico e più “nobile” sul piano della elaborazione intellettuale, da molto si deve confrontare con ambiti di applicazione caratterizzati da una elevata innovazione tecnologica alla quale corrisponde una maggiore difficolta di prevedere impatti negativi su vari “valori” costituzionalmente tutelati (vita, salute, ambiente, riservatezza e non solo…). La risposta si è presentata in termini sostanzialmente univoci e non vi sono ragioni per ritenere che tale non dovrà essere anche nel caso di specie. La risposta non può che essere quella di una serie di previsione di sanzioni penali (se possibile “corroborate da profili di responsabilità ex d.lgs. 231/2001 per enti e persone giuridiche) sanzionati con riguardo: - alle omesse o false comunicazioni rese all'autorità amministrativa preposta di informazioni rilevanti per la gestione del rischio - all'applicazione e costante implementazione di sistemi di valutazione e prevenzione dei rischi, strettamente correlati allo “stato dell'arte” del settore - alla previsione di obblighi di verifica e confronto tra produttore/distributore del programma e utilizzatore finale, quantomeno in tutti i casi l'applicazione sia destinata a settore nei quali l'utilizzo non sia una “prassi” consolidata (in sostanza, il principio che in altri campi viene indicato come “sperimentazione”) - a meccanismi di verifica – quantomeno random- su dati e informazioni attraverso i quali viene “alimentato” il meccanismo di autoapprendimento, nonché obbligo di immediato intervento a fronte di notizie certe o verosimili di alimentazione attraverso dati o informazioni falsi o impropri - a obblighi di “adeguatezza” del programma rispetto alle funzionalità per le quali- rispetto a singoli utilizzatori finali- lo stesso sia stata adattato, implementato e calibrato, in termini tale da determinare specifiche e adeguate garanzie di affidabilità per questi ultimi soggetti. Un quadro di riferimento delineato in base a tali principi potrebbe essere in grado di coniugare possibilità di sviluppo e utilizzo del programma che l'esigenza di tutela di collettività e potrebbe costituire una “base” ottimale per verificare- a fronte di eventi di danno – regole di valutazione sull'individuazione di responsabilità - con sanzione parametrate dalle norme sui delitto colposi già esistenti nel sistema e calibrati sulla tipologia di interessi tutelati - ovvero criteri di imputazione di richieste risarcitorie, laddove si ritenga di poter ricondurre le attività in oggetto allo schema delineato dall'art. 2050 c.c., quali attività pericolose e fatta salva la prova di aver adottato «tutte le misure idonee a evitare il danno». In conclusione
|