Responsabilità da uso dell’intelligenza artificiale
Giuseppe Sileci
17 Giugno 2025
Il Parlamento Europeo, approvando il Regolamento n. 1689/2024 del 13 giugno 2024, ha posto le basi di una cornice normativa all'interno della quale possa essere promossa la diffusione di sistemi di intelligenza artificiale affidabili ed antropocentrici e sia garantito un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carte dei diritti fondamentali dell'Unione europea, inclusi la democrazia, lo Stato di diritto e la protezione dell'ambiente.
Inquadramento
Il Regolamento, pur ponendosi come obiettivo la salvaguardia e la tutela di determinati beni e diritti, affronta il problema a monte per un verso individuando in quali casi non è mai consentito l'uso di sistemi di intelligenza artificiale e, per altro verso, stabilendo a quali procedure debbano sottostare i sistemi di intelligenza prima di essere immessi sul mercato.
Non si occupa della sicurezza a valle, ossia non stabilisce criteri e regole per la imputazione della responsabilità qualora l'uso di questi sistemi possa essere causa di danni.
La materia della responsabilità civile da uso dell'intelligenza artificiale sarà disciplinata da apposita direttiva: il 28 settembre 2022 è stata infatti presentata la proposta di Direttiva del Parlamento Europeo e del Consiglio 2022/0303 (COD) relativa all'adeguamento delle norme in materia di responsabilità civile extracontrattuale all'intelligenza artificiale (direttiva sulla responsabilità da intelligenza artificiale).
Frattanto, però, le istituzioni europee hanno approvato la Direttiva 2024/2853 del 23 ottobre 2024 sulla responsabilità per danno da prodotti difettosi, che ha abrogato la Direttiva 85/374/CEE del Consiglio (in Italia recepita dalla legge 29 luglio1988 n. 281 e poi trasfusa nel D.Lgs. 6 settembre 2005 n. 206, c.d. Codice del consumo), la cui revisione si è resa necessaria anche “alla luce degli sviluppi legati alle nuove tecnologie, compresa l'intelligenza artificiale, ai nuovi modelli imprenditoriali dell'economia circolare e alle nuove catene di approvvigionamento globali, che sono fonte di incoerenza e di incertezza giuridica, specialmente in relazione al significato del termine <prodotto>”.
In attesa della approvazione della proposta di Direttiva sulla responsabilità da intelligenza artificiale e tenuto conto del ben più ristretto perimetro in cui opererà la Direttiva 2024/2853 – che dovrà essere recepita dagli Stati membri entro il 9 dicembre 2026 e si applicherà ai prodotti immessi sul mercato o messi in servizio dopo la detta data – le norme di riferimento in materia di responsabilità da uso di sistemi di intelligenza artificiale non potranno che essere, laddove applicabile, la Direttiva 85/374/CEE (e quindi gli artt. 114 e ss. Del D. Lgs. 06.09.2005 n. 206) nonché le disposizioni dell'ordinamento interno, con tutte le difficoltà di adattare un complesso di regole dettate per sanzionare l'inadempimento o l'illecito derivanti da azioni e/o omissioni umane ma non anche quelle ascrivibili ad una entità artificiale.
Tuttavia questo lavoro di esegesi della normativa vigente al fine di individuare le regole applicabili all'intelligenza artificiale, in attesa di disposizioni specifiche che stabiliscano chi e come debba rispondere dei danni causati dall'uso di questi sistemi, non può prescindere da una analisi del Regolamento Europeo sull'intelligenza artificiale intanto per stabilire cosa si intende per sistemi di intelligenza artificiale ed in secondo luogo per individuare esattamente tutti i soggetti che a vario titolo si inseriscono in quella che il regolamento definisce “la catena del valore dell'IA” e che saranno chiamati a rispettarne le norme.
I sistemi di intelligenza artificiale
Il Regolamento Europeo, la cui applicazione tuttavia è differita al 2 agosto 2026 ad eccezione di quelle disposizioni esattamente individuate dall'art. 113 per le quali la applicazione è anticipata al 2 febbraio ed al 2 agosto 2025 ovvero è posticipata al 2 agosto 2027, definisce “sistema di IA” quel “sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall'input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali (art. 3 paragrafo 1 n. 1).
Non tutti i sistemi di intelligenza artificiale potranno essere immessi sul mercato.
Il Regolamento, infatti, individua le aree delle attività umane in cui l'uso di sistemi di IA è sempre vietato (e cioè quelle elencate nell'articolo 5) e distingue i sistemi ad alto rischio, la cui “commercializzazione” dovrà sottostare a specifiche procedure e standard, da tutti gli altri.
Affinché un sistema d'intelligenza artificiale possa essere classificato “ad alto rischio” occorre che siano soddisfatte due condizioni contemporaneamente.
Innanzitutto, il sistema deve essere utilizzato come componente di sicurezza di un prodotto ovvero il sistema stesso è un prodotto tra quelli disciplinati dalla normativa di armonizzazione dell'Unione elencata nell'allegato I (art. 6 paragrafo 1 lett. a).
L'allegato I è suddiviso in due sezioni: nella prima sono inserite 7 direttive e 5 regolamenti riguardanti le macchine, la sicurezza dei giocattoli, le imbarcazioni da diporto e le moto d'acqua, gli ascensori, gli apparecchi ed i sistemi di protezione da utilizzare in atmosfera potenzialmente esplosiva, le apparecchiature radio, le attrezzature a pressione, gli impianti a fune, i dispositivi di protezione individuale, le apparecchiature che bruciano carburanti gassosi, i dispositivi medici ed i dispositivi medico diagnostici; nella seconda sezione sono inseriti 6 regolamenti e 2 direttive riguardanti la sicurezza dell'aviazione civile, la omologazione e la vigilanza del mercato dei veicoli a motore, la omologazione e la vigilanza del mercato dei veicoli agricoli e forestali, l'equipaggiamento marittimo, la interoperabilità del sistema ferroviario dell'Unione europea.
Quindi sarà considerato ad altro rischio quel sistema di intelligenza artificiale che – a mero titolo esemplificativo – sia un componente di sicurezza di un autoveicolo ovvero che sia esso stesso un autoveicolo.
Ma tanto non sarà sufficiente, dovendo essere soddisfatta anche la seconda condizione, e cioè che il prodotto sia soggetto ad una valutazione di conformità da parte di terzi ai fini della immissione sul mercato o della messa in servizio (art. 6 paragrafo 1 lett. b).
L'art. 6 paragrafo 2, inoltre, estende la classificazione di cui sopra anche ai sistemi di intelligenza artificiale di cui all'allegato III, il quale invece individua non il prodotto bensì il settore nel quale di volta in volta l'intelligenza artificiale sarà utilizzata.
Tuttavia, i sistemi di cui al paragrafo 2 (e cioè quelli impiegati nei settori individuati dall'allegato III) non sono considerati ad alto rischio se non presentano un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, anche nel senso di non influenzare materialmente il risultato del processo decisionale (art. 6 paragrafo 3).
Ed il secondo comma del paragrafo dettaglia meglio quando si applica il primo comma, e cioè quando è soddisfatta almeno una delle seguenti condizioni: a) il sistema è destinato ad eseguire un compito procedurale limitato; b) ovvero è destinato a migliorare il risultato di una attività umana precedentemente completata; c) ovvero è destinato a rilevare schemi decisionali o deviazioni da schemi decisionali precedenti e non è finalizzato a sostituire o influenzare la valutazione umana precedentemente completata senza un'adeguata revisione umana; d) ovvero è destinato ad eseguire un compito preparatorio per una valutazione pertinente ai fini dei casi d'uso elencati nell'allegato III.
Si possono tirare le prime conclusioni, a questo punto.
Alla luce del Regolamento sull'intelligenza artificiale, la classificazione come ad alto rischio di un sistema di IA dipende o dalla tipologia del prodotto di cui questo sistema è un componente di sicurezza (fino al punto che lo stesso sistema di IA appartenga a quella tipologia di prodotto) o dal settore in cui è adoperato, con la ulteriore precisazione che in tale seconda ipotesi il sistema sarà declassato quando l'output generato non costituisce un rischio significativo per beni fondamentali come la salute, la sicurezza ed i diritti fondamentali perché non influenza materialmente il risultato del processo decisionale, che è e rimane governato dall'intelligenza umana.
I soggetti della catena di valore della IA
Prima di vedere quali sono le restrizioni previste dal regolamento quando un sistema di intelligenza artificiale deve essere immesso sul mercato o messo a disposizione, occorre individuare i soggetti che – a vario titolo – possono essere coinvolti in tutte le fasi che precedono e che seguono la sua “commercializzazione”.
Questi soggetti sono esattamente individuati dall’art. 3 paragrafo 1 del Regolamento, e cioè:
Il fornitore, ossia una persona fisica o giuridica, un’autorità pubblica, un’agenzia o un altro organismo che sviluppa un sistema di IA o un modello di IA per finalità generali o che fa sviluppare un sistema di IA o un modello di IA per finalità generali e immette tale sistema o modello sul mercato o mette in servizio il sistema di IA con il proprio nome o marchio, a titolo oneroso o gratuito;
Il deployer, ossia una persona fisica o giuridica, un’autorità pubblica, un’agenzia o un altro organismo che utilizza un sistema di IA sotto la propria autorità, tranne nel caso in cui il sistema di IA sia utilizzato nel corso di un’attività personale non professionale;
Il rappresentante autorizzato, ossia una persona fisica o giuridica ubicata o stabilita nell’Unione che ha ricevuto e accettato un mandato scritto da un fornitore di un sistema di IA o di un modello di IA per finalità generali al fine, rispettivamente, di adempiere ed eseguire per suo conto gli obblighi e le procedure stabilite dal Regolamento;
L’importatore, ossia una persona fisica o giuridica ubicata o stabilita nell’Unione che immette sul mercato un sistema di IA recante il nome o il marchio di una persona fisica o giuridica stabilita in un paese terzo;
Il distributore, ossia una persona fisica o giuridica nella catena di approvvigionamento, diversa dal fornitore o dall’importatore, che mette a disposizione un sistema di IA sul mercato dell’Unione;
L’operatore, ossia un fornitore, un fabbricante del prodotto, un deployer, un rappresentante autorizzato, un importatore o un distributore.
Il legislatore europeo tra gli “operatori” ha inserito anche un soggetto estraneo alla elencazione di cui al richiamato paragrafo 1 dell’art. 3, e cioè il fabbricante del prodotto: la scelta sembra del tutto coerente con la classificazione ad alto rischio di un sistema di IA.
Invero, se è tale quello che è costituisce un componente di sicurezza di un prodotto o è esso stesso un prodotto tra quelli richiamati dalla normativa di armonizzazione dell’Unione di cui all’Allegato I, non può rimanere estraneo all’ambito di applicazione del Regolamento quel soggetto, normalmente un imprenditore, che lo “incorpori” nel suo prodotto, traendone vantaggi economici e commerciali.
I sistemi di IA ad alto rischio
Se un sistema di intelligenza artificiale è classificato ad alto rischio, deve rispettare i requisiti di conformità stabiliti dalla Sezione II del Regolamento.
Non è questa la sede per poter passare in rassegna le norme che individuano i requisiti di conformità cui deve essere adeguato ciascun sistema di intelligenza artificiale ad alto rischio.
Tuttavia, occorrerebbe chiedersi quali possano essere le conseguenze se a causare un danno sia stato un sistema di IA immesso sul mercato senza i requisiti di conformità.
E tanto più questa domanda è pertinente se si considera che tra questi requisiti vi è anche la “sorveglianza umana”.
L'art. 14 del Regolamento, infatti, stabilisce che i sistemi di IA ad alto rischio sono progettati e sviluppati, anche con strumenti di interfaccia uomo-macchina adeguati, in modo tale da poter essere efficacemente supervisionati da persone fisiche durante il periodo in cui sono in uso.
Scopo di questa sorveglianza è quello di prevenire o ridurre al minimo i rischi per la salute, la sicurezza o i diritti fondamentali che possano essere compromessi dall'uso di un sistema di IA in modo conforme alle sue finalità previste oppure in condizioni di uso improprio ragionevolmente prevedibile, in particolare quando questi rischi persistono nonostante l'applicazione di altri requisiti previsti dalla Sezione II del Capo II del Regolamento.
Il paragrafo 2 della norma in esame stabilisce che le misure di sorveglianza devono essere commisurate ai rischi, al livello di autonomia e al contesto di utilizzo del sistema di IA ad alto rischio e sono garantite almeno mediante uno dei seguenti accorgimenti: a) misure individuate ed integrate nel sistema dal fornitore prima della sua immissione sul mercato o messa in servizio, ove tecnicamente possibile; b) misure individuate sempre preventivamente dal fornitore adatte ad essere attuate dal deployer.
In tale ottica, il paragrafo 4 della norma chiarisce come la sorveglianza umana debba avere attuazione.
Invero, nel fornire al deployer il sistema di IA occorre garantire che le persone alle quali è affidata la sorveglianza umana abbiano la possibilità di:
Comprendere correttamente le capacità e i limiti pertinenti del sistema ed essere in grado di monitorarne debitamente il funzionamento, anche al fine di individuare e affrontare anomalie, disfunzioni e prestazioni inattese;
Restare consapevole della possibile tendenza a fare automaticamente affidamento o a fare eccessivo affidamento sull'output prodotto da un sistema di IA ad alto rischio (distorsione dell'automazione), in particolare in relazione ai sistemi utilizzati per fornire informazioni o raccomandazioni per le decisioni che devono essere prese da persone fisiche;
Interpretare correttamente l'output del sistema di IA, tenendo conto ad esempio degli strumenti e dei metodi di interpretazione disponibili;
Decidere, in qualsiasi situazione particolare, di non usare il sistema di IA o altrimenti di ignorare, annullare o ribaltare l'output generato dal sistema;
Intervenire sul funzionamento del sistema ovvero interromperlo mediante un pulsante di arresto oppure mediante una procedura analoga che consenta al sistema di arrestarsi in condizioni di sicurezza.
Al fine di consentire al deployer di interpretare correttamente l'output generato dal sistema ed utilizzarlo adeguatamente, il fornitore deve osservare gli obblighi di trasparenza e di informazione dettagliati dall'art. 13 del Regolamento.
Conseguentemente ciascun sistema di IA ad alto rischio deve essere corredato da istruzione per l'uso che comprendano informazioni concise, complete, corrette e chiare e che siano pertinenti, accessibili e comprensibili.
Le istruzioni devono contenere sia le informazioni sulla identità ed i dati di contatto del fornitore o del suo rappresentante autorizzato nonché le caratteristiche, le capacità ed i limiti delle prestazioni del sistema di IA; le eventuali modifiche apportate al sistema e predeterminate al momento della valutazione iniziale della conformità; le misure di sorveglianza umana; le risorse computazionali e di hardware necessarie nonché tutte le misure di manutenzione e cura, inclusa la loro frequenza; una descrizione dei meccanismi inseriti nel sistema che consentono di raccogliere, conservare e interpretare correttamente i log.
La norma chiarisce anche in cosa debbano consistere le informazioni sulle caratteristiche, le capacità ed i limiti delle prestazioni di un sistema di IA ad alto rischio.
Il paragrafo 3 lett. b) dell'art. 13 prescrive che nelle istruzioni per l'uso siano indicate le seguenti informazioni:
La finalità prevista;
Il livello di accuratezza, di robustezza e cybersicurezza;
Qualunque circostanza nota o prevedibile che sia connessa ad un uso del sistema conformemente alle sue finalità oppure in condizioni di uso improprio ragionevolmente prevedibile e che esponga a rischi la salute, la sicurezza o i diritti fondamentali;
Informazioni sulle capacità e caratteristiche tecniche che consentano di spiegarne l'output;
Ove opportuno, le sue prestazioni con riferimento alle persone od a specifici gruppi di persone sui quali il sistema è destinato ad essere utilizzato;
Ove opportuno, le specifiche dei dati di input e qualunque informazione pertinente sui set di addestramento, convalida e prova;
Se del caso, informazioni al deployer che gli consentano di interpretare l'output e di usarlo in modo opportuno.
Se la Sezione II del Capo III individua i requisiti di conformità che ciascun sistema di IA classificato ad alto rischio deve soddisfare, gli obblighi che debbono osservare tutti i soggetti che costituiscono la “filiera” dell'intelligenza artificiale sono dettati dalla Sezione III, intitolata “obblighi dei fornitori e dei deployer dei sistemi di IA ad alto rischio e di altre parti”, e dal Capo IV intitolato “obblighi di trasparenza per i fornitori e i deployer di determinati sistemi di IA”.
Obblighi che si attenuano, ma non scompaiono, anche per i modelli di IA per finalità generali e che sono più intensi quando il modello di IA per finalità generali è classificato come modello con rischio sistemico, secondo la definizione che di rischio sistemico ne dà l'art. 3 paragrafo 1 n. 65.
Lo spazio riservato dal Regolamento a queste disposizioni denuncia con estrema chiarezza lo sforzo del legislatore europeo di garantire un ambiente in cui tanto la progettazione quanto l'uso di sistemi e di modelli di intelligenza artificiale possano avvenire in modo “responsabile”.
E sebbene, come detto, molte di queste norme si applicheranno non prima del 2 agosto 2026, non si può parlare di responsabilità da intelligenza artificiale senza avere chiaro che la inosservanza delle disposizioni che subordinano la immissione sul mercato di sistemi di intelligenza artificiale ad alto rischio alla sussistenza di requisiti di conformità e di quelle che impongono precisi doveri ai soggetti che costituiscono la filiera, e ciò anche quando si tratti non di sistemi di IA ad alto rischio ma di modelli di IA per finalità generali, non potrà non essere priva di conseguenze se l'uso di questa tecnologia avrà causato danni a persone o cose.
I diversi profili di responsabilità
Fatta questa premessa, è necessario adesso cercare di delimitare il perimetro della riflessione.
Se il fornitore di un sistema di IA lo immette sul mercato ed a sua volta un distributore lo mette a disposizione, ossia lo fornisce per essere impiegato nell’esercizio di una attività commerciale ed indipendentemente dal titolo – oneroso o gratuito – della cessione, il deployer altro non sarà che colui che avrà acquisito il diritto di utilizzarlo.
È evidente che in questa sequenza, prima che il sistema di IA possa essere usato dal deployer, si avranno tre rapporti contrattuali in virtù dei quali ciascuna delle due parti assumerà obblighi ed acquisterà diritti verso l’altra.
La inosservanza di questi obblighi rileverà sotto il profilo dell’inadempimento contrattuale e troverà rimedio nelle norme generali – sia sostanziali che processuali – che disciplinano l’istituto della responsabilità contrattuale.
Vi è poi un secondo profilo in cui rileva la interazione tra sistemi di IA e condotta umana di chi decide di farne uso.
Il deployer – per definizione datane dal Regolamento sulla IA – è colui (persona fisica, giuridica, autorità pubblica, agenzia o altro organismo) che utilizza un sistema di IA sotto la propria autorità per finalità diverse da una attività personale: dunque il deployer, nella definizione del regolamento, è il soggetto che userà il sistema nell’esercizio di una attività di impresa o professionale.
Il deployer, quindi, entrerà in relazione con altri soggetti, e cioè i “clienti”, per la esecuzione di una prestazione (consistente in un dare o in un fare) rispetto alla quale sarà strumentale, in tutto o in parte, l’utilizzazione e/o l’impiego di un sistema di IA.
Anche in questo caso, l’eventuale inesatta esecuzione della prestazione esporrà il deployer ad una responsabilità di natura contrattuale: graverà sul cliente, quindi dedurre l’inadempimento e dimostrare il nesso di causalità tra il lamentato danno ed il detto inadempimento, mentre sull’altra parte graverà l’onere di dimostrare che la prestazione non è stata possibile per fatto ad essa non imputabile.
L’impiego di un sistema di IA, tuttavia, potrà interferire con la sfera giuridica anche di terzi totalmente estranei, cioè soggetti che non hanno alcun tipo di rapporto con il deployer, ma che dall’impiego del sistema di IA potranno subire un pregiudizio.
La proposta di direttiva sulla responsabilità extracontrattuale da uso dell’intelligenza artificiale si propone la finalità proprio di offrire maggiori e più adeguate tutele ai terzi i cui diritti possano essere violati dall’impiego di sistemi di IA.
A questo punto vi è da chiedersi se, fino a quando la proposta in questione non sarà approvata dal Parlamento Europeo e non sarà recepita dai singoli Stati, le norme già vigenti saranno in grado di offrire una adeguata tutela.
La proposta di direttiva sulla responsabilità extracontrattuale da uso della IA
Prima di entrare nel merito della questione è bene sinteticamente dare conto della suddetta proposta di direttiva, la quale persegue sia lo scopo di favorire la divulgazione di elementi di prova relativi ad un sistema di intelligenza artificiale ad alto rischio per consentire all’attore in un’azione civile di responsabilità extracontrattuale per colpa di motivare adeguatamente la domanda di risarcimento del danno e sia l’ulteriore scopo di disciplinare l’onere della prova nelle azioni civili di responsabilità extracontrattuale da danno causato da un sistema di IA.
La futura direttiva non pregiudicherà le norme nazionali che stabiliscano su chi incombe l’onere della prova e quale sia il livello richiesto di certezza della prova ovvero che definiscono il concetto di colpa; rimangono impregiudicate anche le norme nazionali più favorevoli all’attore a condizione che tali disposizioni siano compatibili con il diritto dell’Unione.
Sostanzialmente, la proposta di direttiva intende intervenire su due piani.
Innanzitutto alleggerendo l’onere della prova del danneggiato attraverso un meccanismo che gli consenta di ottenere da una autorità giudiziaria un ordine nei confronti del fornitore o di altro soggetto sottoposto ai medesimi obblighi ovvero all’utente di un sistema di IA (e cioè il deployer nella definizione di cui al Regolamento sulla IA) di divulgare – anche prima che la causa civile sia promossa – gli elementi di prova pertinenti di cui dispone in relazione ad un determinato sistema di IA ad alto rischio che si sospetta abbia cagionato il danno.
Saranno i singoli ordinamenti a disciplinare in concreto la procedura ed a prevedere sistemi di temperamento e mitigazione anche a tutela di eventuali segreti commerciali, ma ciò che qui preme mettere in evidenza sono le conseguenze nel caso di inosservanza dell’ordine dell’autorità giudiziaria: il giudice presumerà la non conformità a un pertinente obbligo di diligenza da parte del convenuto che gli elementi di prova richiesti erano intesi a dimostrare ai fini della domanda di risarcimento del danno.
Si tratta di una presunzione relativa, perché il convenuto potrà sempre dimostrare il contrario.
Il secondo piano di intervento della direttiva riguarda il nesso di causalità tra uso del sistema di IA e danno: i giudici nazionali, infatti, potranno presumere l’esistenza del nesso di causalità tra la colpa del convenuto e l’output prodotto da un sistema di IA o la mancata produzione di un output da parte di tale sistema.
Questa presunzione del nesso di causalità opererà al sussistere di determinate condizioni che varieranno al variare del soggetto responsabile (se fornitore o deployer) ovvero della classificazione del sistema (se ad alto rischio oppure no) ovvero dell’ambito di impiego del sistema (se per fini professionali oppure no), ma che non è possibile trattare in questa sede sia per ragioni di spazio sia perché ancora la normativa è all’esame delle istituzioni europee.
Qui si è voluto dare brevemente conto della suddetta proposta di direttiva per meglio delimitare il perimetro dell’indagine, e cioè la individuazione delle norme dell’ordinamento interno in materia di responsabilità extracontrattuale applicabili almeno fino a quando la proposta di direttiva non sarà approvata dal parlamento europeo e recepita dai singoli Stati.
A questo punto è necessaria una precisazione.
Quando parliamo di sistemi di IA, dobbiamo tenere presente che questi possono essere essi stessi un prodotto ovvero, e questo sarà verosimilmente l’impiego più frequente, un componente di un prodotto di cui il deployer si avvarrà nell’eseguire la prestazione promessa.
Sia nell’uno che nell’altro caso non sarebbe di secondaria importanza la distinzione tra sistemi di IA totalmente autonomi e sistemi parzialmente autonomi, dovendo definirsi i primi come quelli in grado di generare l’output atteso in assoluta “indipendenza” e senza alcuna interferenza umana.
Ma anche in questo caso, si imporrebbe una ulteriore distinzione: sistemi il cui output, nel momento in cui è generato, incide immediatamente sui diritti e/o beni di persone ed imprese e sistemi il cui output è “filtrato” dalla decisione umana.
Ebbene, la proposta di direttiva sulla responsabilità extracontrattuale da uso di sistemi di IA non affronta questi specifici aspetti che tuttavia potrebbero seriamente condizionare la ricerca e la applicazione delle norme dell’ordinamento interno in base alle quali affermare la responsabilità del deployer, almeno fino a quando la detta proposta di direttiva non sarà stata approvata dal parlamento europeo e recepita dall’Italia.
La responsabilità del deployer
L’eventuale azione risarcitoria promossa da un terzo che lamenti di avere subito un danno causato da un sistema di IA presupporrebbe la prova, il cui onere incomberebbe sull’attore, della colpa del deployer.
Il danneggiato dovrebbe dimostrare innanzitutto che il deployer ha violato una determinata regola di condotta stabilita dall’ordinamento.
Prova che potrebbe non essere agevole perché potrebbe presupporre l’accertamento della osservanza da parte del deployer di specifici obblighi imposti dalla normativa europea, in particolare per sistemi di IA classificati ad alto rischio, e quindi la conoscenza di circostanze ed elementi ai quali il danneggiato potrebbe non avere accesso.
Per questo motivo, come si è visto, nelle intenzioni del legislatore europeo c’è la volontà di alleggerire la posizione processuale di chi assuma di essere stato danneggiato da un sistema di IA prevedendo il diritto di chiedere la divulgazione degli elementi di prova pertinenti di cui dispone.
La proposta di direttiva non specifica quali debbano essere gli elementi di prova pertinenti, ma richiede che “l’attore potenziale” corrobori la domanda mediante fatti e prove sufficienti a sostenere la plausibilità della domanda risarcitoria.
Dunque, non dovrebbero essere ammissibili domande di divulgazione generiche che, se proposte, non dovrebbero implicare la presunzione di colpa del deployer che si sia rifiutato in questi casi di fornire i chiesti elementi di prova e che è la “sanzione” prevista dalla proposta di direttiva se l’autore del presunto illecito non collabora.
Nel nostro ordinamento non esiste nulla di analogo.
L’istituto che maggiormente si avvicina è quello dell’accesso agli atti della pubblica amministrazione disciplinato dall’art. 24 e seguenti della L. 7 agosto 1990 n. 24, che consente ai privati di ottenere la ostensione di atti della pubblica amministrazione ma che prevede un rimedio giurisdizionale in due fasi attraverso la impugnazione dinanzi ai Tribunali amministrativi regionali del silenzio/rifiuto o del parziale accoglimento della istanza e di una seconda fase, nel caso di perdurante inerzia della pubblica amministrazione che sia stata condannata a consentire l’accesso, mediante la attivazione del giudizio di ottemperanza e la eventuale nomina di un commissario ad acta che, sostituendosi all’amministrazione inadempiente, dia concreta attuazione all’ordine giudiziale.
Analogo procedimento non è previsto nei rapporti tra privati.
Sicché, nulla impedirebbe ad un “attore potenziale”, ossia – ricorrendo alla definizione che ne dà la proposta di direttiva sulla responsabilità extracontrattuale da intelligenza artificiale – ad una persona fisica o giuridica che stia valutando la possibilità di presentare una domanda di risarcimento del danno, di chiedere al deployer la divulgazione di pertinenti elementi di prova, ma in caso di rifiuto il diritto del danneggiato sarebbe privo di tutela sia perché non potrebbe ricorre all’autorità giudiziaria per ottenere un ordine di divulgazione e sia perché il rifiuto del deployer di cooperare sarebbe privo di concrete conseguenze sul piano processuale, nel senso che non si potrebbe presumere la sua colpa o, più precisamente, la non conformità a un pertinente obbligo di diligenza da parte del convenuto, che gli elementi di prova richiesti erano finalizzati a dimostrare ai fini della domanda risarcitoria.
Il dovere di buona fede e correttezza
In attesa che la proposta di direttiva sulla responsabilità extracontrattuale da intelligenza artificiale sia approvata, può essere utile cercare di capire se il vigente ordinamento interno offre già adesso un livello minimo di tutela a colui il quale abbia subito un danno causato dall'output o dal mancato output di un sistema di intelligenza artificiale.
Occorre innanzitutto chiedersi se il rifiuto del deployer, al quale chi lamenti un danno da uso dell'intelligenza artificiale abbia chiesto di divulgare gli elementi di prova di cui dispone, sia privo di conseguenza.
Orbene, da tempo la giurisprudenza adopera in maniera assai flessibile il principio generale di buona fede e correttezza, che si ritiene applicabile non solo per regolare i rapporti di natura contrattuale ma anche nei rapporti di natura extracontrattuale.
In particolare, “l'obbligo di buona fede oggettiva o di correttezza costituisce un autonomo dovere giuridico, espressione del generale principio di solidarietà sociale, applicabile non solo in ambito contrattuale, ma anche extracontrattuale, ponendo una regola di comportamento, in base alla quale, nei rapporti della vita di relazione, ciascuno è tenuto ad un comportamento leale, volto alla salvaguardia della utilità altrui nei limiti dell'apprezzabile sacrificio” (Cass. Civ., Sez. III, 29 gennaio 2018 n. 2057).
Nella accezione così ampia del dovere di buona fede potrebbe essere incluso, quindi, il dovere del deployer – che nell'esercizio della propria attività di impresa o professionale abbia deciso di fare uso di sistemi di intelligenza artificiale classificati ad alto rischio – di rendere palesi, se gli perviene una motivata richiesta, tutte le informazioni pertinenti sul sistema medesimo così da mettere in condizione la parte che si ritenga lesa dall'output generato (o non generato) di valutare se sono stati violati gli obblighi di diligenza ai quali il deployer doveva conformarsi.
L'eventuale rifiuto del deployer di cooperare in buona fede con la parte che asserisca di avere subito un danno non produrrebbe lo stesso effetto previsto dalla proposta di direttiva sulla responsabilità extracontrattuale da intelligenza artificiale, perché il giudice eventualmente adito non potrebbe presumere la non conformità a un particolare obbligo di diligenza da parte del convenuto, ossia non potrebbe presumere la colpa del deployer e su tali basi affermarne la responsabilità in assenza di una specifica norma – quale è quella oggetto della proposta di direttiva - che permetta di presumere la responsabilità del deployer dal suo rifiuto di fornire i pertinenti elementi di prova.
Eppure, tra le pieghe dell'ordinamento è forse possibile rinvenire uno strumento coercitivo che sanzioni sul piano processuale la inosservanza dell'obbligo.
Si intende fare riferimento all'obbligo di esibizione disciplinato dagli artt. 210 e 213 c.p.c.
È nei poteri del giudice, infatti, ordinare ad una delle parti processuali o ad un terzo – a determinate condizioni – di esibire in giudizio un documento o un'altra cosa di cui ritenga necessaria l'acquisizione al processo.
La norma è stata recentemente novellata prevedendo che, se la parte non adempie senza giustificato motivo all'ordine di esibizione, il giudice la condanna ad una pena pecuniaria “e può da questo comportamento desumere argomenti di prova a norma dell'art. 116, secondo comma c.p.c”.
L'esercizio di questo potere deve avvenire nei limiti imposti dall'art. 118 c.p.c., a mente del quale “il giudice può ordinare alle parti ed ai terzi di consentire sulla loro persona o sulle cose in loro possesso le ispezioni che appaiono indispensabili per conoscere i fatti della causa, purché ciò possa compiersi senza grave danno per la parte o per il terzo e senza costringerli a violare uno dei segreti previsti negli artt. 351 e 352 del c.p.p.”.
La giurisprudenza ha sempre interpretato in maniera abbastanza restrittiva l'art. 210 c.p.c., avendo ripetutamente affermato che “l'ordine di esibizione è subordinato alle molteplici condizioni di ammissibilità di cui agli art. 118 e 210 c.p.c e 94 delle disposizioni di attuazione del c.p.c., che impongono alla parte di dare specifica indicazione dei documenti che ne costituiscono oggetto, il cui possesso l'istante provi di non essere riuscito diversamente ad acquisire, e di dimostrare, quando necessario, che la parte o il terzo li possieda, onde evitare indagini istruttorie non pertinenti o comunque non utilmente esperibili, essendo tali prescrizioni espressione di un principio generale in base al quale nessuna indagine istruttoria, anche inquisitoria, può essere ammessa ove non siano forniti elementi apprezzabili, anche indiziari, della sua pertinenza e della concreta possibilità della stessa di pervenire a risultati utili per il processo. L'ordine di esibizione, peraltro, costituisce strumento istruttorio residuale, utilizzabile soltanto quando la prova dei fatti non soltanto sia indispensabile, ma non possa essere acquisita con altri mezzi e non sia perciò volto a supplire al mancato assolvimento dell'onere probatorio a carico della parte istante, sicché esso è espressione di una facoltà discrezionale rimessa al prudente apprezzamento del giudice di merito, il cui mancato esercizio non può, quindi, formare oggetto di ricorso per cassazione per violazione di norma di diritto” (Cass. Civ., Sez. II, 10 gennaio 2024 n. 982; in senso conforme Cass. Civ., Sez. I, 27 dicembre 2023 n. 36063).
Ancora più recentemente la Cassazione ha precisato che l'attività di acquisizione documentale può essere compiuta anche dal consulente d'ufficio, ovviamente nei limiti delle indagini che gli sono state affidate, se questi sono necessari per rispondere ai quesiti ed a condizione che le parti ne avessero fatta richiesta nei termini per formulare i mezzi di prova (Cass. Civ., Sez. I, 16 febbraio 2025 n. 3947).
Tuttavia, trattandosi di un potere – quello esercitato dal giudice e consistente nell' ordinare la esibizione di un documento – del tutto discrezionale e svincolato da un obbligo di motivazione nel caso di rigetto, per pressoché unanime giurisprudenza il provvedimento negativo non è sindacabile in sede di legittimità, neppure sotto il profilo del difetto di motivazione (Cass. Civ., Sez. III, 8 ottobre 2021 n. 27412).
Parimenti, se disposto l'ordine di esibizione, la eventuale sua inosservanza è comportamento valutabile dal giudice ai sensi dell'art. 116 comma 2 c.p.c.; qualora il giudice, esercitando questo suo potere discrezionale, ritenga di non valorizzare l'inottemperanza della parte che era onerata, questa decisione non è neppure sindacabile in sede di legittimità (Cass. Civ., Sez. Lav. 27 gennaio 2017 n. 2148).
Volendo tirare le fila del ragionamento, si può concludere che – almeno sino a quando la proposta di direttiva sulla responsabilità extracontrattuale da intelligenza artificiale non sarà approvata dal Parlamento Europeo – la parte che alleghi di avere subito un danno da uso di sistemi di intelligenza artificiale potrebbe non essere del tutto priva di tutela.
Non sarebbe irragionevole, infatti, ritenere che in questi casi il Giudice, se la istanza di esibizione ex art. 210 c.p.c. è stata preceduta da una richiesta di divulgazione di pertinenti elementi di prova di un sistema di intelligenza artificiale ad alto rischio sospettato di avere arrecato un danno, possa ordinare alla parte convenuta di mettere a disposizione quei documenti considerati indispensabili ai fini di una compiuta istruttoria quando è plausibile che la parte attrice non abbia avuto modo di acquisire i documenti e/o quegli elementi necessari per comprendere se l'uso del sistema di intelligenza artificiale sia avvenuto nella osservanza dei doveri di diligenza e del più generale dovere del neminem laedere, tanto più se questi documenti erano stati chiesti prima della introduzione del giudizio mediante una dettagliata istanza ed il deployer si era rifiutato immotivatamente di fornirli.
Dalla osservanza o meno dell'ordine di esibizione discenderanno conseguenze diverse: se la parte onerata della esibizione vi avrà ottemperato, sarà possibile – se del caso attraverso una consulenza tecnica – accertare se il danno causato dal sistema di intelligenza artificiale sia imputabile al deployer perché questi non si è attenuto a specifici doveri di diligenza ovvero al più generale dovere del neminem leadere; se la parte non vi avrà ottemperato, non sarà consentito senz'altro di presumere la colpa del deployer per non essersi attenuto ad un pertinente obbligo di diligenza (presunzione di colpa che è espressamente prevista dalla proposta di direttiva sulla responsabilità extracontrattuale da intelligenza artificiale), tuttavia il giudice ben potrà desumere argomenti di prova della colpevolezza del convenuto ai sensi dell'art. 116 comma 2 c.p.c..
È però evidente che la proposta di direttiva, se dovesse essere approvata nel suo attuale testo, garantirebbe alla parte danneggiata una tutela certamente più rafforzata.
Intanto perché sanzionerebbe il rifiuto del deployer (e di qualunque altro attore della catena di valore dell'intelligenza artificiale, a cominciare dal fornitore) presumendone la colpa, ossia “la non conformità a un pertinente obbligo di diligenza da parte del convenuto”, ed in secondo luogo perché questo potere del giudice potrebbe essere compulsato ancor prima che la causa sia iniziata: lo scopo della direttiva, infatti, è proprio quello di mettere un “attore potenziale” in condizione di valutare ex ante se sussistono i presupposti per imputare al fornitore e/o al deployer il danno causato da un sistema di intelligenza artificiale ad alto rischio.
Il nesso di causa
La proposta di direttiva sulla responsabilità da intelligenza artificiale intende affrontare anche un profilo che è tutt'altro che trascurabile e che potrebbe esporre la parte danneggiata – se non adeguatamente regolamentato – al serio rischio di vedersi rigettata la domanda risarcitoria.
Per l'accoglimento della domanda, non sarebbe sufficiente dimostrare solo la colpa, dovendo la parte danneggiata dimostrare anche il nesso di causalità tra la colpa del convenuto e l'output prodotto (o non) da un sistema di intelligenza artificiale.
Proprio per ovviare alle difficoltà che il danneggiato potrebbe incontrare nell'assolvere questo onere, la proposta di direttiva stabilisce – a determinate condizioni – una presunzione relativa che certamente semplificherebbe la posizione processuale dell'attore.
L'art. 4 della proposta di direttiva sulla responsabilità extracontrattuale da intelligenza artificiale, infatti, stabilisce che questo nesso di causalità tra la colpa del convenuto e l'output generato dal sistema di AI si presume se:
L'attore ha dimostrato ovvero l'autorità giudiziaria ha presunto la colpa del convenuto o di una persona della cui condotta il convenuto è responsabile e consistente nella non conformità ad un obbligo di diligenza;
Si può ritenere ragionevolmente probabile, sulla base delle circostanze del caso, che il comportamento colposo abbia influito sull'output prodotto da un sistema di AI o sulla mancata produzione dell'output atteso;
L'attore ha dimostrato che il danno è stato causato dal sistema di AI.
Quindi, il nesso di causalità giuridica dovrà sempre essere dimostrato dall'attore, il quale dovrà provare che dall'output generato dalla AI o non generato gli è derivato un danno “conseguenza”.
Poiché potrebbe non essere sempre agevole accertare il nesso di causalità materiale, ossia il collegamento eziologico tra il comportamento colposo e l'output, la proposta di direttiva alleggerisce la posizione processuale dell'attore stabilendo appunto una presunzione relativa del nesso di causalità.
In assenza di una disposizione ad hoc, una volta acquisiti agli atti del processo mediante un ordine di esibizione tutti i pertinenti elementi di prova in merito alla colpevolezza del convenuto, sarà onere dell'attore dimostrare il nesso eziologico.
Onere certamente gravoso ma mitigato dai principi ripetutamente affermati in merito dalla Suprema Corte, secondo la quale l'accertamento da parte del giudice del nesso di causalità materiale deve avvenire attraverso la combinazione di due regole, quella del “più probabile che non” e quella della “prevalenza relativa della probabilità”.
In particolare, il principio del più probabile che non “presuppone che, per l'affermazione della verità dell'enunciato, vi siano una o più prove dirette – di cui è sicura la credibilità o l'autenticità – che confermano l'ipotesi, oppure una o più prove indirette dalle quali si possono derivare validamente inferenze convergenti a sostegno della stessa. La prevalenza relativa delle probabilità rileva, invece, nel caso di c.d. multifattorialità nella produzione del danno, ossia nel caso in cui esistano diversi enunciati che narrano il fatto in modi diversi e che hanno ricevuto qualche conferma positiva dalle prove acquisite nel corso del giudizio” (Cass. Civ., Sez. III, 6 luglio 2020 n. 13872).
Si tratta quindi di un “modello di certezza probabilistica” in cui la probabilità rileva come “relazione logica” tra l'ipotesi e gli elementi di conferma disponibili in base al caso concreto.
Elementi di conferma che possono essere acquisiti con ogni mezzo, e dunque anche mediante presunzioni semplici (Cass. Civ., Sez. III, 20 febbraio 2018 n. 4024).
Le fattispecie speciali di responsabilità
La proposta di direttiva in materia di responsabilità extracontrattuale da intelligenza artificiale stabilisce espressamente (art. 1 paragrafo 3 lett. D) che essa non pregiudica le norme che definiscono il concetto di colpa, tranne in relazione a quanto previsto agli articoli 3 (divulgazione degli elementi di prova e presunzione relativa di non conformità) e 4 (presunzione relativa del nesso di causalità in caso di colpa).
Il codice civile disciplina una serie di ipotesi in cui la responsabilità è presunta e – in taluni casi – oggettiva, in cui cioè il danneggiato – in deroga alla regola stabilita dall'art. 2043 c.c. – non deve provare la colpa del responsabile ed è invece quest'ultimo che deve offrire la prova liberatoria di volta in volta richiesta dall'ordinamento.
Vi è da chiedersi a questo punto se alcune di queste norme possano applicarsi alle fattispecie di danno derivante dall'uso di sistemi di intelligenza artificiale.
Prima di affrontare la questione, è doverosa una premessa.
Il Regolamento sulla intelligenza artificiale definisce il “sistema di IA” come un “sistema automatizzato progettato per funzionare con livelli di autonomia variabili”.
La definizione, quindi, include anche quei sistemi progettati per funzionare in totale autonomia, ossia senza la supervisione e/o la sorveglianza umana, e dunque in grado di assumere decisioni in maniera indipendente.
Nei casi estremi, o più esattamente in presenza di sistemi assai sofisticati di intelligenza artificiale generativa, si potrebbe essere indotti a ritenere che la capacità del sistema medesimo di assumere decisioni in maniera del tutto autonoma determini una cesura tra l'azione umana e quella della macchina con la ulteriore conseguenza che solo alla macchina e non all'uomo dovrebbe essere imputato l'evento di danno.
Una tale conclusione non sarebbe condivisibile perché l'attuale stato delle conoscenze scientifiche e tecniche insegna che l'azione di un sistema di intelligenza artificiale è mediata dall'azione umana che quel sistema ha progettato, scrivendo l'algoritmo.
Sicché ritenere che un elevato grado di autonomia separi la responsabilità umana da quella artificiale, così da richiedere una disciplina ad hoc che regoli queste nuove ed inedite forme di responsabilità, rappresenta una evidente forzatura che oltretutto non si confronta con l'impianto su cui si regge il Regolamento europeo in materia di intelligenza artificiale e con gli scopi che intende perseguire, ossia “promuovere la diffusione di un'intelligenza artificiale antropocentrica e affidabile, garantendo nel contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali” (art. 1 paragrafo 1).
Ed è proprio per assicurare lo sviluppo di una intelligenza artificiale antropocentrica che numerose norme del Regolamento europeo stabiliscono una serie di obblighi cui devono uniformarsi tutti i soggetti, dal fornitore al deployer, che a vario titolo si inseriscono nella catena del valore della intelligenza artificiale, in particolare modo quando si tratta di sistemi di AI ad alto rischio.
Questi doveri sono stati sopra sinteticamente elencati.
Qui pare opportuno brevemente richiamare alcune norme del Regolamento che sembrano rendere ancora più esplicita la volontà del legislatore europeo di mantenere ferma la centralità umana.
In tal senso assai emblematico è l'art. 4 del Regolamento, intitolato “alfabetizzazione in materia di IA”, che impone ai fornitori ed ai deployer la adozione di misure idonee che garantiscano un livello sufficiente di alfabetizzazione del loro personale e di qualunque altra persona che per loro conto si occupa del funzionamento e dell'utilizzo di questi sistemi.
Altrettanto rilevante – nell'ottica di una responsabilizzazione di chi fornisca un sistema di AI – è l'art. 9 del Regolamento, intitolato “sistema di gestione dei rischi”, che (paragrafo 5 comma 2 lett. A) affida proprio ad una “adeguata progettazione e fabbricazione del sistema di AI ad alto rischio” la eliminazione o la riduzione dei rischi che il sistema di gestione deve tendere a minimizzare.
Ma decisivo, allo scopo di assicurare uno sviluppo antropocentrico della intelligenza artificiale, è l'art. 14 del Regolamento, intitolato “sorveglianza umana”.
Tre mi paiono le disposizioni di questa norma più rilevanti da esaminare in questa sede.
Il paragrafo 1 dell'art. 14, a mente del quale “i sistemi di IA ad alto rischio sono progettati e sviluppati, anche con strumenti di interfaccia uomo-macchina adeguati, in modo tale da poter essere efficacemente supervisionati da persone fisiche durante il periodo in cui sono in uso”; il paragrafo 4 lett. D), a mente del quale l'obbligo di cui al paragrafo 1 è attuato mettendo in condizione le persone fisiche a cui è affidata la sorveglianza umana di “decidere, in qualsiasi situazione particolare, di non usare il sistema di AI ad alto rischio o altrimenti di ignorare, annullare o ribaltare l'output” generato dal sistema; il paragrafo 4 lett. E), a mente del quale la persona fisica addetta alla sorveglianza deve poter “intervenire sul funzionamento del sistema di AI ad alto rischio o interrompere il sistema mediante un pulsante di arresto o una procedura analoga che consenta al sistema di arrestarsi in condizioni di sicurezza”.
Infine, anche i deployer – che altro non sono se non gli utilizzatori del sistema di AI ad alto rischio – devono osservare precisi obblighi stabiliti dall'art. 26 del Regolamento, e tra questi quello (paragrafo 2) di affidarne “la sorveglianza umana a persone fisiche che dispongono della competenza, della formazione e dell'autorità necessarie nonché del sostegno necessario”.
In definitiva, anche il sistema di AI progettato per funzionare in assoluta autonomia non potrà mai essere sottratto alla vigilanza umana, che è e rimane quindi il centro di imputazione di eventuali responsabilità se l'output generato (o atteso, ma non generato) dal sistema ha arrecato un danno.
Fatta questa necessaria premessa, cui segue – quale logica conseguenza – la responsabilità del deployer ai sensi dell'art. 2043 c.c qualora il danneggiato deduca e provi la colpa dell'utilizzatore di un sistema di AI ad alto rischio, e che consisterà nella inosservanza di uno degli obblighi stabiliti dalla legge e dunque anche dell'obbligo di vigilanza, occorre adesso verificare – come detto – se nel vigente ordinamento si possono individuare disposizioni normative che consentano di affermare una presunzione di responsabilità se non addirittura una responsabilità oggettiva.
Le norme che vengono in evidenza sono gli artt. 2048,2049,2050,2051,2052,2053 e 2054 del Codice civile, che – nell'ottica di agevolare la posizione processuale del danneggiato – derogano ai principi generali posti dall'art. 2043 c.c. prevedendo forme di responsabilità presuntiva ovvero oggettiva.
La giurisprudenza sovente, quando è stata chiamata ad applicare queste disposizioni, ha spiegato la deteriore posizione processuale del danneggiante ricorrendo al principio “cuius comoda eius et incommoda”, in virtù del quale chi trae determinati vantaggi da una determinata situazione (la disponibilità di una cosa o di un animale, la prestazione di un terzo, una determinata attività) ne sopporta anche gli svantaggi (Trib. Potenza 6 ottobre 2023 n. 1241e Trib. Mantova 4 settembre 2023 n. 596 in materia di responsabilità da cose in custodia; Cass. Civ. Sez. III 4 dicembre 1998 n. 12307).
Occorre stabilire adesso se vi sia e quale sia – tra i diversi tipi di responsabilità presunta o oggettiva – il riferimento normativo che meglio si presterebbe a regolare la “imputazione” delle conseguenze dannose provocate da un sistema di AI.
Non potendosi assimilare l'azione artificiale a quella umana (a mente degli artt. 2048 e 2049 c.c., tanto i genitori che i precettori quanto i padroni ed i committenti rispondono dei danni cagionati dal fatto illecito cagionato con dolo o colpa da persone fisiche, ossia cagionato dalla azione o dalla omissione di determinate persone individuate nei minori d'età oppure nei domestici o nei commessi) e neppure all'azione animale (dalla quale l'art. 2052 c.c. fa discendere la responsabilità di chi se ne serve per il tempo in cui lo ha in uso), il cerchio si restringe sostanzialmente a tre norme, e cioè gli artt. 2050,2051 e 2053 c.c.
Poiché per costante giurisprudenza la fattispecie disciplinata dall'art. 2053 c.c. si pone in rapporto di species a genus rispetto alla responsabilità per danno da cose in custodia di cui all'art. 2051 c.c. (Cass. Civ. 8 settembre 1998 n. 8876), le uniche due norme che vengono in evidenza sono appunto l'art. 2051 e l'art. 2050 c.c.
Per stabilire se il danno cagionato da un sistema di intelligenza artificiale è equiparabile al danno cagionato da una cosa in custodia occorre stabilire cosa si intende per “res” e per “custodia” ai sensi dell'art. 2051 c.c.
La responsabilità da cosa in custodia
È doverosa una premessa: sono esclusi dall'ambito di applicazione dell'art. 2051 c.c. tutti quei danni cagionati non dalla cosa ma con la cosa, ossia a causa dell'uso che ne è stato fatto da un agente umano.
Così ancora recentemente la Cassazione ha escluso la responsabilità ex art. 2051 c.c. del gestore di una discoteca per i danni causati al cliente colpito da una bottiglia poiché l'evento era stato causato non già dal dinamismo della bottiglia ma dall'uso della bottiglia fatto da un avventore rimasto sconosciuto (Cass. Civ. Sez. III 4 giugno 2019 n. 15249).
Più problematico potrebbe essere l'inquadramento della fattispecie se il danno è cagionato dalla cosa mentre è azionata dall'uomo.
La Cassazione ha affrontato la questione affermando che l'art. 2051 c.c. si applica in tutti i casi in cui le cose “non vengono adoperate quale semplice strumento dell'attività dell'uomo, mediante l'impiego esclusivo e diretto della forza umana” (Cass. Civ. Sez. III 24 febbraio 1983 n. 1425 che ha escluso l'applicabilità dell'art. 2043 c.c. al danno prodotto da un cancello meccanico nel momento del suo abbassamento, ancorché il movimento del cancello fosse posto sotto il controllo di un custode che poteva arrestarne la corsa in qualunque momento mediante un pulsante).
L'art. 2051 c.c. quindi “presuppone che sia stata direttamente la cosa in custodia a cagionare l'evento dannoso, nel senso che questo sia stato causato dal dinamismo connaturato alla cosa stessa ovvero dall'insorgere in essa di un agente dannoso, ancorché provocato da elementi provenienti dall'esterno, che – al di fuori del mero collegamento spaziale – si inserisca nella struttura della cosa stessa in modo da alterarne la natura ed il comportamento, sì da provocarne un'intrinseca attitudine lesiva” (Cass. Civ. Sez. III 14 aprile 1983 n. 2619).
La giurisprudenza successiva ha mantenuto ferma una definizione abbastanza ampia di danno cagionato da cose in custodia, facendovi rientrare sia il pregiudizio “causato dal dinamismo connaturato alla cosa” sia il caso in cui “in essa è insorto un agente dannoso, anche se proveniente dall'esterno” (Cass. Civ. Sez. III 16 maggio 2008 n. 12419) e predicando l'applicazione dell'art. 2051 c.c. anche “nei casi in cui il danno non sia l'effetto di un dinamismo interno alla cosa, scatenato dalla sua struttura o dal suo funzionamento (scoppio della caldaia, scarica elettrica, frana della strada o simili), ma richieda che l'agire umano, ed in particolare quello del danneggiato, si unisca al modo di essere della cosa, essendo essa di per sé statica ed inerte”, con la ulteriore precisazione che in questi casi il nesso di causa è soddisfatto se si dimostra “che lo stato dei luoghi presentava un'obiettiva situazione di pericolosità, tale da rendere molto probabile, se non inevitabile, il danno” (Cass. Civ. Sez. III 5 febbraio 2013 n. 2660).
In generale, quindi, l'art. 2051 c.c. si applicherà indipendentemente dalla natura della cosa che ha cagionato il danno, nel senso che questa responsabilità sussisterà “non solo allorquando il danno scaturisca quale effetto dell'intrinseco dinamismo della cosa, ma anche laddove consegua a un'azione umana che determini l'insorgenza di un processo dannoso nella cosa medesima” (Cass. Civ. Sez. III 12 luglio 2022 n. 21977).
Principi ai quali ha aderito la giurisprudenza di merito, che ha ripetutamente affermato la applicabilità dell'art. 2051 c.c. indipendentemente dalla natura della cosa in custodia, giacché tutte le cose possono costituire potenziale causa di danno, quale che sia la loro struttura e qualità, sia che si tratti di cose inerti o in movimento, pericolose o meno (Corte appello Genova 12 ottobre 2021 n. 1033; Corte appello Firenze 25 maggio 2010 n. 851; Trib. Siena 10 gennaio 2019 n. 40; Trib. Bari 11 marzo 2016 n. 1417).
Ebbene, sarebbe difficile spiegare perché un sistema di IA, sia quando è direttamente utilizzato per generare output sia quando – a maggior ragione – è inserito in un altro prodotto per costituirne un componente essenziale al suo funzionamento, non debba essere considerato una cosa ai sensi dell'art. 2051 c.c..
E tanto più questa esclusione sarebbe una evidente forzatura se si considera che il Regolamento europeo definisce “sistema di AI” qualunque “sistema automatizzato progettato per funzionare con livelli di autonomia variabile”, laddove l'atto della progettazione pone inevitabilmente l'intelligenza artificiale ad un gradino più basso dell'intelligenza umana, almeno allo stato attuale delle conoscenze, e ne fa un prodotto che tale rimane anche quando – sempre grazie alla attività di progettazione – è in grado di assumere “decisioni” in autonomia.
Decisioni che apparentemente assume il sistema di AI perché, anche quello più sofisticato e progettato per essere in grado di “auto apprendere”, agisce sulla base delle istruzioni che gli ha fornito l'essere umano che ha scritto l'algoritmo.
A tutto ciò si aggiunga che la recente Direttiva Europea 23 ottobre 2024 n. 2853 sulla responsabilità per danno da prodotti difettosi ha ampliato la definizione di prodotto, estendendola al software ed ai file per la fabbricazione digitale.
Dunque, anche un sistema di IA è un prodotto e quindi è una “res” che espone il custode al rischio di dovere rispondere dei danni cagionati dal detto sistema secondo lo schema delineato dall'art. 2051 c.c. anche quando l'intelligenza artificiale ha un limitato livello di autonomia perché il suo funzionamento è pur sempre sotto la vigilanza ed il controllo umano.
E che tra il deployer ed il sistema di IA vi sia una relazione di custodia non pare seriamente contestabile.
Se per il Regolamento Europeo è considerato “deployer” chiunque – persona fisica o giuridica – utilizza un sistema di IA sotto la propria autorità e se, per la pressoché pacifica giurisprudenza, “il presupposto della custodia va inteso quale relazione meramente fattuale con il bene, a prescindere dalla corrispondenza di tale relazione con un determinato diritto reale o personale di godimento” (Cass. Civ. Sez. III 10 maggio 2024 n. 12796), per il vigente ordinamento nazionale dei danni cagionati dal sistema di IA dovrebbe risponderne in maniera oggettiva il deployer anche ai sensi dell'art. 2051 c.c., se non riuscisse a dimostrare il caso fortuito.
La responsabilità da attività pericolose
Vi è da chiedersi a questo punto se la responsabilità del deployer possa declinarsi anche ai sensi dell'art. 2050 c.c., tanto più quando il sistema di AI è tra quelli classificati ad alto rischio.
La norma correla la responsabilità all'esercizio di una attività pericolosa, che sia tale per sua natura o per la natura dei mezzi adoperati.
La Cassazione, premettendo che tutte le attività umane contengono in sé un grado più o meno elevato di pericolosità, distingue tra pericolosità della condotta (quando l'attività è innocua ma diventa pericolosa a causa della condotta imprudente e negligente dell'operatore) e pericolosità dell'attività in quanto tale, e cioè quando l'attività “è potenzialmente dannosa di per sé per l'alta percentuale di danni che può provocare in ragione della sua natura o della tipologia dei mezzi adoperati e rappresenta una componente della responsabilità disciplinata dall'art. 2050 c.c.” (Cass. Civ. Sez. III 27 marzo 2019 n. 8449).
Quindi, la nozione di “attività pericolosa” rilevante ai sensi dell'art. 2050 c.c. non è limitata alle attività tipiche, ossia a quelle già qualificate tali da una disposizione normativa, ma deve essere estesa ad ogni attività umana previo accertamento in concreto della sua pericolosità giacché “anche un'attività per natura non pericolosa può diventarlo in ragione delle modalità con cui viene esercitata o dei mezzi impiegati per espletarla” (Cass. Civ. Sez. III 19 luglio 2018 n. 19180).
Alla luce dei principi giurisprudenziali sopra richiamati, quindi, si può sostenere che il deployer risponderà dei danni causati da un sistema di IA che sia adoperato per svolgere una attività che sia pericolosa per sua natura.
Più problematico è stabilire se l'impiego di sistemi di intelligenza artificiale, tanto più se classificati ad alto rischio, trasformi una certa attività, di per sé innocua, in potenzialmente pericolosa, ossia se l'uso dell'algoritmo comporti una rilevante possibilità del verificarsi di un danno.
Ai sensi dell'art. 6 del Regolamento, è definito ad alto rischio quel sistema di AI che: a) è utilizzato quale componente di sicurezza di un prodotto ovvero è esso stesso un prodotto tra quelli disciplinati dalla normativa europea di armonizzazione di cui all'allegato I e quando la immissione sul mercato del prodotto è soggetto ad una valutazione di conformità da parte di terzi; b) ovvero, è impiegato in uno dei settori di cui all'allegato III, a meno che il sistema di cui al detto allegato III comunque non rappresenti un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone.
Nel caso in cui il sistema di AI è un componente di sicurezza di un prodotto od è esso stesso prodotto tra quelli oggetto di armonizzazione normativa, la funzione assolta dall'intelligenza artificiale (componente di sicurezza) e la natura dei prodotti di cui alla normativa europea menzionata nell'allegato I al Regolamento, dovrebbero essere elementi sintomatici della pericolosità dell'attività svolta con l'impiego di questi prodotti.
Si pensi, a mero titolo esemplificativo alla direttiva 2014/33/UE concernente l'armonizzazione delle legislazioni nazionali in materia di ascensori, ovvero alla direttiva 2014/33/UE in materia di apparecchi e sistemi di protezione destinati ad essere utilizzati in atmosfera potenzialmente esplosiva, ovvero al regolamento 2016/424 relativo agli impianti a fune.
Quindi, la pericolosità dell'attività in questi casi dipenderebbe dalle caratteristiche dei mezzi adoperati.
Laddove, invece, la classificazione ad alto rischio di un sistema di intelligenza artificiale dipenda non già dal tipo di prodotto in cui esso è inserito come componente di sicurezza bensì dal settore in cui questo viene adoperato, stabilire se l'attività di ciascun singolo settore possa essere considerata pericolosa per effetto della combinazione della sua natura con l'impiego di un algoritmo è operazione tutt'altro che agevole.
I settori presi in esame dall'allegato III del regolamento, infatti, sono i seguenti:
a) biometria;
b) infrastrutture critiche;
c) istruzione e formazione professionale;
d) occupazione, gestione dei lavoratori e accesso al lavoro autonomo;
e) accesso ai servizi privati essenziali e a prestazioni e servizi pubblici essenziali e fruizione degli stessi;
f) attività di contrasto;
g) migrazione, asilo e gestione del controllo delle frontiere;
h) amministrazione della giustizia e processi democratici.
Si tratta di attività che – a ben vedere – difficilmente sarebbero considerate pericolose ai sensi dell'art. 2050 c.c.
Si pensi alla attività di contrasto, e cioè quando i sistemi di AI sono adoperati: a) per determinare il rischio per una persona fisica di diventare vittima di reati; b) come poligrafi e strumenti analoghi; c) per valutare l'affidabilità di elementi probatori nel corso delle indagini e del perseguimento di reati; d) per valutare i tratti della personalità o il comportamento criminale di persone o gruppi; e) per effettuare la profilazione delle persone fisiche nell'accertamento dei reati.
Ebbene, la Cassazione ha escluso che l'attività di polizia svolta per la tutela dell'ordine pubblico e della sicurezza pubblica (attività in cui dovrebbero rientrare tutti gli usi appena elencati di un sistema di AI) possa ritenersi per sua natura pericolosa ai sensi dell'art. 2050 c.c., dovendosi derogare a questo principio solo quando la medesima attività sia svolta con mezzi, quali le armi ed altri mezzi di coazione, che per la loro natura la renderebbero pericolosa (Cass. Civ. Sez. III 10 ottobre 2014 n. 21426).
È stata invece affermata la responsabilità ex art. 2050 c.c. della banca nel giudizio promosso dal correntista per l'abusiva utilizzazione delle sue credenziali informatiche, fondando la detta responsabilità oggettiva su una espressa disposizione normativa (l'art. 15 del D. Lgs. 30 giugno 2003 n. 196) che, disciplinando l'azione di responsabilità per i danni derivanti da illecito trattamento dei dati personali, prevedeva (la norma infatti è stata abrogata dall'art. 27 comma 1 lett. A) numero 2 del D. Lgs. 10 agosto 2018 n. 101) che il soggetto responsabile dei detti dati dovesse rispondere ai sensi dell'art. 2050 c.c.
Come detto, l'art. 15 del D. Lgs. n. 196/2003 è stato abrogato: tuttavia la natura oggettiva della responsabilità per illecito trattamento di dati personali e violazioni della normativa privacy si può rinvenire nel Regolamento europeo 27 aprile 2016 n. 679, il cui art. 82 paragrafo 3 espressamente prevede che il titolare ed il responsabile del trattamento sono esonerati dalla responsabilità se dimostrano che l'evento dannoso non è imputabile a loro in alcun modo.
Quindi, se nell'ordinamento si potesse rinvenire una disposizione normativa che, per alcuno dei settori di cui all'allegato III del Regolamento, prevedesse l'applicazione dell'art. 2050 c.c., come nel caso di danno derivante da illecito trattamento di dati personali, potrebbe ragionevolmente sostenersi che in quei determinati settori la natura pericolosa dell'attività avrebbe il suo fondamento nella espressa volontà del legislatore.
In assenza di normativa ad hoc, invece potrebbe non essere sufficiente – ai fini della applicabilità dell'art. 2050 c.c. – che i sistemi di intelligenza artificiale impiegati nei settori di cui all'allegato III del Regolamento siano classificati ad alto rischio, non potendo desumersi la natura pericolosa delle attività oggetto di quei settori dalla classificazione del sistema di IA, la quale sembrerebbe dipendere non già dalla natura dell'attività ovvero dalla spiccata potenzialità offensiva dei mezzi adoperati, che sono le caratteristiche necessarie richieste dalla giurisprudenza quando una attività non è espressamente qualificata pericolosa da una disposizione di legge (Cass. Civ. Sez. III 14 marzo 2024 n. 6811), bensì dalla natura dei beni che possono essere attinti da un cattivo funzionamento dell'algoritmo.
Il più volte richiamato art. 6 del Regolamento, infatti, per un verso considera ad alto rischio anche i sistemi di IA di cui all'allegato III, ossia quelli adoperati nei settori indicati nel menzionato allegato, ma per altro verso esclude quegli stessi sistemi che non presentano “un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, anche nel senso di non influenzare materialmente il risultato del processo decisionale”.
Condizione soddisfatta tutte le volte che il sistema di AI deve: a) eseguire un limitato compito procedurale; b) migliorare il risultato di una attività umana precedentemente completata; c) rilevare schemi decisionali ma senza sostituire o influenzare la valutazione umana; d) eseguire un compito preparatorio per consentire una valutazione pertinente.
Non è del tutto chiaro se il legislatore europeo abbia voluto fissare un principio di carattere generale, stabilendo una relazione diretta tra i settori di cui all'allegato III ed il rischio significativo di danno per la salute, la sicurezza ed i diritti fondamentali delle persone fisiche.
Se così fosse, non basterebbe – per considerarlo ad alto rischio – che il sistema di AI fosse impiegato in uno dei settori di cui all'allegato III, ma occorrerebbe che quell'impiego esponga le persone fisiche ad un rischio significativo di danno.
Se invece il legislatore europeo avesse voluto classificare ad alto rischio tutti i sistemi di IA per il semplice fatto di essere adoperati nei settori di cui al menzionato allegato III, escludendo da questa definizione solo quei sistemi che sostanzialmente dovrebbero assolvere compiti di supporto ma mai potrebbero sostituirsi alla decisione umana, allora la definizione di sistema di IA ad alto rischio prescinderebbe del tutto dalla attitudine ad esporre al rischio significativo di danno determinati beni e diritti delle persone fisiche.
In ogni caso, sia che si consideri ad alto rischio quel sistema che, adoperato nei settori di cui all'allegato III, espone la salute, la sicurezza o i diritti fondamentali delle persone fisiche ad un significativo pericolo di danno, sia che si consideri tale qualunque sistema adoperato nei suddetti settori, indipendentemente dalla sua attitudine ad esporre le persone fisiche ad un rischio significativo di danno, tanto non autorizzerebbe a ritenere che per questa sola ragione il settore in cui è utilizzato ha sempre ad oggetto una attività che per sua natura è pericolosa.
Per classificare come pericolosa una attività di cui ai settori indicati nell'allegato III del Regolamento occorrerebbe qualcosa di più del fatto che il sistema di IA adoperato in quegli ambiti è definito ad alto rischio.
In accordo con la giurisprudenza della Cassazione, sarebbe altresì necessario che quella specifica attività: a) renda probabile, e non meramente possibile, il verificarsi di un evento di danno (Cass. Civ. Sez. III 8 ottobre 2019 n. 25028); b) ovvero comporti una rilevante possibilità (Cass. Civ. Sez. III 19 luglio 2018 n. 19180; Cass. Civ. Sez. III 29 luglio 2015 n. 16052; Cass. Civ. Sez. III 18 maggio 2015 n. 10131) oppure una rilevante probabilità (Cass. Civ. Sez. III 16 gennaio 2013 n. 919; Cass. Civ. Sez. III 9 aprile 2009 n. 8688) del verificarsi di un danno; ovvero debba considerarsi pericolosa per l'alta percentuale di danni che può provocare (Cass. Civ. Sez. III 27 marzo 2019 n. 8449).
Quindi, se il danno fosse cagionato da un sistema di IA definito ad alto rischio perché impiegato in uno dei settori di cui all'allegato III del Regolamento, potrebbe affermarsi la responsabilità del deployer ai sensi dell'art. 2050 c.c, in assenza di specifica disposizione normativa, solo se l'ambito in cui l'algoritmo è stato adoperato abbia i requisiti richiesti dalla giurisprudenza per ritenere pericolosa una determinata attività.
In conclusione
L’intelligenza artificiale è la sfida del ventunesimo secolo.
La sua diffusione modificherà profondamente la vita delle persone e delle imprese, che certamente ne avranno innegabili vantaggi dal suo uso ma che inevitabilmente dovranno confrontarsi con i rischi che l’impiego di questi sistemi nelle diverse attività umane comporta, alcuni del tutto nuovi.
L’Europa ha gettato le basi perché ciò avvenga in maniera “protetta”.
La proposta di direttiva sulla responsabilità extracontrattuale da intelligenza artificiale delimiterà meglio il perimetro, assicurando ai terzi un più elevato livello di garanzie.
Nel frattempo, la giurisprudenza e la dottrina avranno modo di individuare se e quali tutele già offre il vigente ordinamento, indagando la applicabilità ai danni causati da un agente artificiale di quelle norme originariamente pensate per sanzionare la condotta umana illecita.
Vuoi leggere tutti i contenuti?
Attiva la prova gratuita per 15 giorni, oppure abbonati subito per poter continuare a
leggere questo e tanti altri articoli.
Sommario
I diversi profili di responsabilità
La proposta di direttiva sulla responsabilità extracontrattuale da uso della IA