Responsabilità civile dei sistemi di Intelligenza Artificiale: le proposte di Direttive UE

08 Febbraio 2024

Il contributo si propone di inquadrare la questione “cosa-persona” nel contesto delle proposte di Direttive che l'Unione Europea ha messo sul tavolo per regolamentare la materia della responsabilità civile dei sistemi di Intelligenza Artificiale, al fine di comprendere meglio le scelte del legislatore europeo in tema di imputabilità per danni causati dai sistemi di IA.

L'ontologia della soggettività

Hegel nella sua figura retorica del rapporto tra servo e signore spiega il passaggio dalla coscienza all'autocoscienza: essere soggetto, signore del proprio movimento, non significa ancora essere cosciente di sé e del proprio rapporto oggettivo e dialettico con l'esterno, poiché la coscienza è una peculiarità dello spirito.

Stando a questa impostazione, quindi, sembrerebbe che il raggiungimento della ragione (ultimo stadio dell'autocoscienza) si possa avere con una sintesi tra “l'essere cosa in generale” (cosalità) e l'essere coscienza per sé.

Traslando questo concetto nel mondo del diritto degli oggetti, scopriamo che è proprio il passaggio dal materiale (cosalità) allo spirituale (coscienza, volontà) ad essere al centro del dibattito sulla natura della soggettività di certi agenti, gli artefatti informatici superintelligenti.

Fino a qualche decennio fa non era pensabile, però, che si potesse andare oltre la cosalità parlando di entità artificiali, al più ci si rifugiava sul piano di tutela del brevetto o del segreto industriale; ciò perché mancava loro la autocoscienza, la consapevolezza delle proprie azioni.

Invece, negli anni più recenti è diventato urgente capire prima e stabilire poi come sciogliere il nodo cosa-persona, perché la sofisticazione dei recenti sistemi di IA pone seriamente la possibilità che le macchine siano senzienti e capaci di produrre ragionamenti identici a quelli umani, nonché di “sentire” come un essere umano.

Dalla comprensione di questo dilemma scaturiscono punti fermi in tema di responsabilità, soprattutto civile.

Si ricorda in questo senso la Risoluzione del Parlamento Europeo del 2017 la quale, partendo dal presupposto che gli agenti artificiali intelligenti fossero sempre oggetti e non soggetti, suggeriva di categorizzare le conseguenze delle azioni dei robot in responsabilità oggettiva e della gestione del rischio.

Ad oggi il dibattito è ancora acceso, date anche le proposte dell'Unione Europea su come regolamentare le esigenze contrapposte della promozione dell'innovazione, da un lato, e la tutela dei cittadini e consumatori, dall'altro.

Tutti i soggetti possono essere intelligenti, ma tutte le intelligenze possono essere soggetti?

La dottrina che si è interrogata in materia fa partire la sua indagine da una definizione di intelligenza e la più quotata è quella per cui è intelligente chi è capace di affrontare con successo problemi nuovi o sconosciuti e imprevedibili. Il discorso si complica quando si cerca di comprendere la natura di questa intelligenza capace di risolvere situazioni impreviste; intanto si distingue tra l'intelligenza umana e l'intelligenza artificiale.

L'intelligenza umana è, per così dire, duale, composta da una parte autonoma e dall'altra eteronoma; quella autonoma è composta dalle istruzioni del DNA (caratteri originari posseduti fin dalla nascita) quella eteronoma è data dall'ambiente educativo, culturale, economico e via dicendo.

Se paragoniamo un bimbo ad un robot dotato di un algoritmo programma originario e di uno che serve per apprendere, intuiamo che l'intelligenza artificiale dovrebbe essere un'intelligenza naturale creata fuori dal corpo umano e in questo senso dovremmo ridurre la mente al cervello (teoria monista dell'identità) e dovremmo respingere il costrutto dualista che vede la mente come res cogitans distinta dal cervello, res extensa.

Epperò le due posizioni, sia che ritengano o meno i procedimenti del cervello artificiale mere copie di quelli umani, non risolvono la questione della dicotomia cosa-persona, poiché si fermano alla funzione dei procedimenti e non alla loro essenza.

Un esempio di questo limite argomentativo è dato dai programmi che stipulano contratti: un robot capace di raggiungere un obiettivo con azioni imprevedibili da parte dell'uomo che lo ha costruito sembra talmente autonomo da farlo considerare, se non una persona, almeno una cosa-agente diversa dalla mera cosa. Da qui si era arrivati a giustificare la validità dei contratti stipulati dai robot ricorrendo a figure quali il rappresentante o il nuncius o, addirittura, la persona giuridica fittizia (Finocchiaro, Sartor).

Ebbene, dando per assodato che i procedimenti intellettuali che avvengono in un calcolatore non sono autentici e non sono spiegazioni dei procedimenti intellettuali cerebrali, ma solo simulazioni, gli argomenti pro e contro un'autentica capacità di pensiero delle macchine si equivalgono, però, se è vero che ci dicono tutto sul procedimento, non ci dicono nulla sul contenuto del procedimento (Mason).

Ecco, allora, che per passare dal piano funzionale a quello del contenuto si ha bisogno di comprendere che cosa si intende per soggettività ontologica. Questa, verificata attraverso i criteri assoluti della intellezione, dell'autocoscienza e dell'autodeterminazione, si contrappone ad una soggettività cosiddetta attribuita (giuridica) che per definizione è relativa perché viene ascritta dall'ordinamento a seconda delle situazioni in cui viene ad emergere.

Scrive, magistralmente, Santoro Passarelli che “sono persone giuridiche quelle la cui unità è opera dell'ordinamento giuridico”; egli spiega che “l'elevazione ad unità, a soggetto non può dipendere che dal riconoscimento, e, in questo senso, è sicura la funzione costitutiva dello stesso. Non però nel senso che questo possa bastare a creare un soggetto, quando manchi o venga meno l'organismo destinato a portare la personalità; il cosiddetto substrato è, in altri termini, condizione necessaria per l'esistenza della persona giuridica sebbene esso non sia né concorra ad essere la causa efficiente della soggettività”.

La soggettività ontologica si riconosce, mentre la soggettività ascritticia si conferisce (Taddei Elmi).

Il collo di bottiglia, relativamente agli artefatti informatici e ai robot, sta proprio qui: non sono considerabili soggetti ontologici (perché hanno sensazioni non sentite, eseguono istruzioni programmate o autoacquisite, ma non possiedono autentica autodeterminazione), ma non possono essere considerati nemmeno soggetti ascrittici (perché non si rinvengono quelle ragioni pratico-funzionali come per le società - Finocchiaro).

Perimetrata la questione della soggettività, si passi all'analisi dei tecnicismi sulla responsabilità derivante dalle condotte delle macchine intelligenti; qui ci si sofferma sui profili civilistici.

Si ritiene, però, di dover fin d'ora respingere l'ipotesi di coloro i quali optano per una personificazione (si parla di personalità elettronica) delle intelligenze artificiali per diverse ragioni.

Intanto, non vedo la necessità funzionale pubblica che giustifica la teoria della immedesimazione organica, ma nemmeno la necessità (privatistica) di quella elevazione a persona che si giustifica perché lo scopo della combinazione di mezzi materiali e personali eccede (per importanza e per durata) le possibilità dell'individuo. Infine, perché ritengo che le macchine siano e debbano sempre rimanere esoscheletri rispetto alla voluntas umana, proprio per non facilitare la elusione di responsabilità degli uomini che grazie alle macchine potrebbero commettere condotte gravissime senza nulla rischiare. Chioso su questo punto affermando che a poco servirebbe decidere di ricondurre un sistema di IA ad una persona fisica; ricordo, infatti, che personificare significa mutare da “res” a “esse” (da cosa ad essere) e per fare ciò bisogna possedere una autocoscienza di tipo umano, secondo cui la macchina sarebbe in grado non solo di capacità cognitive, ma anche emotive.

La responsabilità giuridica delle cose-agenti

La Commissione Europea ha messo a punto un pacchetto di misure volte a sostenere la diffusione dell'IA in Europa, promuovendo l'eccellenza dei sistemi di IA e la fiducia che gli utenti ripongono in essi.

Tale pacchetto comprende tre filoni di lavoro complementari:

– una proposta legislativa che stabilisce norme orizzontali sui sistemi di intelligenza artificiale (cd. legge sull'IA);

– una revisione delle norme settoriali e orizzontali in materia di sicurezza dei prodotti;

– norme dell'UE per affrontare le questioni in materia di responsabilità relative ai sistemi di IA. Qui ci si concentra sugli ultimi due.

a) Proposta di Direttiva cd. Prodotti

Si propone di modernizzare le norme esistenti sulla responsabilità oggettiva dei produttori per prodotti difettosi (dalla tecnologia intelligente ai prodotti farmaceutici). La mens legis è di dare alle imprese certezza giuridica affinché possano investire in prodotti nuovi e innovativi, garantendo che le “vittime” possano ottenere un equo risarcimento quando i prodotti difettosi, compresi i prodotti digitali e ricondizionati, causano danni.

Vigendo al momento la Direttiva sui prodotti difettosi (datata, ormai, 40 anni) il quadro normativo può essere riassunto nel modo seguente.

Nell'Unione Europea i consumatori possono chiedere il risarcimento dei danni causati da prodotti difettosi e le norme emanate hanno sempre mirato a mantenere un giusto equilibrio tra gli interessi dei consumatori e dei produttori. Questa legislazione si applica a qualsiasi prodotto commercializzato nello Spazio Economico Europeo (SEE). Il risarcimento del danno materiale è limitato ai beni di uso o consumo privato con una soglia inferiore a 500 euro. La norma stabilisce un termine di 3 anni per il risarcimento dei danni e vieta clausole che limitino o escludano la responsabilità del produttore. Spetta al danneggiato provare il danno, il difetto e la connessione causale tra difetto e danno ai fini del risarcimento. I produttori possono essere esonerati dalla responsabilità a determinate condizioni, in particolare se dimostrano che:

  • non hanno messo in circolazione il prodotto,
  • il difetto era dovuto alla conformità del prodotto alle norme imperative emanate dalle pubbliche autorità,
  • lo stato delle conoscenze scientifiche o tecniche al momento della messa in circolazione del prodotto non consentiva di individuare il difetto.

Però, dalla loro nascita ad oggi, tale Direttiva è stata sottoposta a verifiche e controlli grazie ai quali la Commissione ha ritenuto di dover intervenire per adeguare le disposizioni alle nuove tecnologie e all'evoluzione della società digitale.

Le verifiche condotte hanno fatto emergere che la attuale “Direttiva prodotti difettosi” presenta diverse carenze; intanto, dal punto di vista giuridico non è chiaro come applicare le definizioni e concetti vecchi di decenni ai prodotti della moderna economia digitale e dell'economia circolare (ad esempio ai software che necessitano di altri software o di servizi digitali per funzionare, come i dispositivi intelligenti e i veicoli autonomi). Inoltre, l'onere della prova (ovvero la necessità -per ottenere il risarcimento- di dimostrare che il prodotto era difettoso e che questo ha causato il danno subito) è stato molto impegnativo per persone danneggiate in casi complessi (per esempio quelli che coinvolgono prodotti farmaceutici, smart products o prodotti abilitati all'intelligenza artificiale). Infine, la norma limita eccessivamente la possibilità di avanzare richieste di risarcimento (i danni materiali di valore inferiore a 500 euro non sono risarcibili ai sensi della direttiva prodotti).

Come si è inteso modernizzare questo quadro? La nuova Direttiva prodotti vuole garantire che le norme sulla responsabilità riflettano la natura e i rischi dei prodotti nell'era digitale e dell'economia circolare; altresì, mira a garantire che ci sia sempre un'impresa con sede nell'Unione Europea che possa essere ritenuta responsabile per difetti di prodotti acquistati direttamente da produttori extra UE, e ciò alla luce della tendenza crescente da parte dei consumatori ad acquistare prodotti direttamente da paesi extra UE senza che vi sia un produttore o un importatore con sede nell'Unione; mira ad alleggerire l'onere della prova in casi complessi e allentare le restrizioni sulla presentazione di citazioni garantendo, nel contempo, un giusto equilibrio tra gli interessi legittimi dei produttori, dei danneggiati e dei consumatori in genere; infine, vuole garantire la certezza giuridica allineando meglio la direttiva al nuovo quadro legislativo creato dalla Decisione 768/2008/CE7 e dalle norme sulla sicurezza dei prodotti e mediante codificazione della giurisprudenza relativa alla direttiva prodotti del 1985.

Si sottolinea, tra tutti, l'aspetto rilevante della posizione paritaria tra produttore e utente che non consiste solamente in maggiore flessibilità dei termini o in minori restrizioni per proporre i reclami, bensì in un migliore flusso informativo tra i soggetti fino a prescrivere che il produttore dovrà fornire le prove richieste dal consumatore.

Tale vocazione alla trasparenza pare, infatti, un ottimo viatico per superare le barriere date dalla black box e dal fatto che spesso, nella catena complessa di produzione di sistemi di IA, è molto difficile risalire a chi ha fatto cosa.

b) Proposta di Direttiva sulla responsabilità da IA

In un'indagine rappresentativa realizzata nel 2020, la responsabilità è emersa quale uno dei tre ostacoli principali all'uso dell'IA da parte delle imprese europee, venendo citata come l'ostacolo esterno più rilevante (43 %) per le imprese che intendono adottare l'IA, ma che non lo hanno ancora fatto.

Le consultazioni condotte dalle Istituzioni europee e il continuo lavoro di verifica operato sulle norme vigenti, ma non più rispondenti alla attuale società digitale e artificialmente intelligente, hanno evidenziato che le norme nazionali degli Stati membri operanti in materia di responsabilità, in particolare per colpa, non sono adatte a gestire le azioni di responsabilità per danni causati da prodotti e servizi basati sull'IA.

In base a tali norme, coloro che subiscono un danno sono tenuti a dimostrare un'azione o un'omissione illecita da parte della persona che ha causato il danno. Le caratteristiche specifiche dell'IA, tra cui la complessità, l'autonomia e l'opacità (il suddetto effetto "scatola nera"), possono rendere difficile o eccessivamente costoso, per quanti subiscono un danno, identificare la persona responsabile e dimostrare che sussistono i presupposti ai fini dell'esito positivo di un'azione di responsabilità. In particolare, quando chiedono un risarcimento, i danneggiati potrebbero dover sostenere costi iniziali molto elevati e affrontare procedimenti giudiziari notevolmente più lunghi rispetto a quanto accade nei casi che non riguardano l'IA, venendo pertanto del tutto dissuasi dal chiedere un risarcimento. Queste sono le considerazioni che si leggono nella relazione che accompagna alla proposta di Direttiva e da cui si intuisce che la Commissione tenda non solo a ridurre l'incertezza giuridica per le imprese che sviluppano o utilizzano l'IA in relazione alla possibile esposizione alla responsabilità, ma anche a prevenire la frammentazione derivante da adeguamenti specifici all'IA delle norme nazionali in materia di responsabilità civile.

Nel concreto la Direttiva sulla responsabilità stabilirà norme uniformi per l'accesso alle informazioni e l'alleggerimento dell'onere della prova in relazione ai danni causati dai sistemi di IA, stabilendo una tutela più ampia per le vittime (siano esse persone fisiche o imprese). Armonizzerà alcune norme per i reclami che non rientrano nel campo di applicazione della nuova Direttiva cd. prodotti, nei casi in cui il danno è causato da un comportamento illecito. Ciò copre, ad esempio, violazioni della privacy o danni causati da problemi di sicurezza informatica (ad esempio, si renderà più semplice ottenere un risarcimento se qualcuno è stato discriminato in un processo di reclutamento che coinvolge la tecnologia dell'intelligenza artificiale).

La Direttiva semplifica il procedimento legale per le vittime quando si tratta di dimostrare che la colpa di qualcuno ha causato un danno, introducendo due caratteristiche principali:

1) nelle circostanze in cui è stata accertata una colpa rilevante e sembra ragionevolmente probabile un nesso causale con la prestazione dell'IA, la cosiddetta “presunzione di causalità” affronterà le difficoltà incontrate dalle vittime nel dover spiegare in dettaglio come il danno sia stato causato da una colpa o un'omissione specifica (il che può essere particolarmente difficile quando si cerca di comprendere e navigare in sistemi di intelligenza artificiale complessi);

2) le vittime avranno più strumenti per chiedere un risarcimento legale, introducendo il diritto di accesso alle prove di aziende e fornitori, nei casi in cui è coinvolta un'intelligenza artificiale ad alto rischio.

Alla presunzione di causalità il produttore potrà controbattere, garantendo così al soggetto “forte” del rapporto di potersi difendere; ciò appare in linea con il corrispettivo dovere del produttore di dare accesso alle prove.

In conclusione

Le due suddette iniziative politiche sono strettamente collegate e danno vita a un pacchetto, in quanto le azioni che rientrano nel loro ambito di applicazione riguardano tipologie diverse di responsabilità. La Direttiva sulla responsabilità per danno da prodotti difettosi riguarda la responsabilità oggettiva del produttore per prodotti difettosi, che determina un risarcimento per alcuni tipi di danni subìti principalmente da persone fisiche. La Direttiva sulla responsabilità da IA contempla le azioni di responsabilità a livello nazionale, principalmente per colpa di una persona, nell'ottica di risarcire qualsiasi tipo di danno e qualsiasi tipo di danneggiato. I due atti sono complementari e sembrano formare un sistema generale di responsabilità civile efficace.

Il “sembrano” è dovuto al fatto che la responsabilità per colpa nel nostro ordinamento nazionale presuppone (come ampiamente dedotto dalle premesse del contributo) la compresenza di due elementi di cui uno è subiettivo, cioè pretende una imputazione soggettiva: a quale soggetto collego psicologicamente il danno? Sarà interessante, per chi fa diritto in ordinamenti di civil law, analizzare come verrà strutturato dalla Direttiva il sistema di imputabilità per colpa.

Vuoi leggere tutti i contenuti?

Attiva la prova gratuita per 15 giorni, oppure abbonati subito per poter
continuare a leggere questo e tanti altri articoli.

Sommario