La responsabilità giuridica delle cose-agenti
La Commissione Europea ha messo a punto un pacchetto di misure volte a sostenere la diffusione dell'IA in Europa, promuovendo l'eccellenza dei sistemi di IA e la fiducia che gli utenti ripongono in essi.
Tale pacchetto comprende tre filoni di lavoro complementari:
– una proposta legislativa che stabilisce norme orizzontali sui sistemi di intelligenza artificiale (cd. legge sull'IA);
– una revisione delle norme settoriali e orizzontali in materia di sicurezza dei prodotti;
– norme dell'UE per affrontare le questioni in materia di responsabilità relative ai sistemi di IA. Qui ci si concentra sugli ultimi due.
a) Proposta di Direttiva cd. Prodotti
Si propone di modernizzare le norme esistenti sulla responsabilità oggettiva dei produttori per prodotti difettosi (dalla tecnologia intelligente ai prodotti farmaceutici). La mens legis è di dare alle imprese certezza giuridica affinché possano investire in prodotti nuovi e innovativi, garantendo che le “vittime” possano ottenere un equo risarcimento quando i prodotti difettosi, compresi i prodotti digitali e ricondizionati, causano danni.
Vigendo al momento la Direttiva sui prodotti difettosi (datata, ormai, 40 anni) il quadro normativo può essere riassunto nel modo seguente.
Nell'Unione Europea i consumatori possono chiedere il risarcimento dei danni causati da prodotti difettosi e le norme emanate hanno sempre mirato a mantenere un giusto equilibrio tra gli interessi dei consumatori e dei produttori. Questa legislazione si applica a qualsiasi prodotto commercializzato nello Spazio Economico Europeo (SEE). Il risarcimento del danno materiale è limitato ai beni di uso o consumo privato con una soglia inferiore a 500 euro. La norma stabilisce un termine di 3 anni per il risarcimento dei danni e vieta clausole che limitino o escludano la responsabilità del produttore. Spetta al danneggiato provare il danno, il difetto e la connessione causale tra difetto e danno ai fini del risarcimento. I produttori possono essere esonerati dalla responsabilità a determinate condizioni, in particolare se dimostrano che:
- non hanno messo in circolazione il prodotto,
- il difetto era dovuto alla conformità del prodotto alle norme imperative emanate dalle pubbliche autorità,
- lo stato delle conoscenze scientifiche o tecniche al momento della messa in circolazione del prodotto non consentiva di individuare il difetto.
Però, dalla loro nascita ad oggi, tale Direttiva è stata sottoposta a verifiche e controlli grazie ai quali la Commissione ha ritenuto di dover intervenire per adeguare le disposizioni alle nuove tecnologie e all'evoluzione della società digitale.
Le verifiche condotte hanno fatto emergere che la attuale “Direttiva prodotti difettosi” presenta diverse carenze; intanto, dal punto di vista giuridico non è chiaro come applicare le definizioni e concetti vecchi di decenni ai prodotti della moderna economia digitale e dell'economia circolare (ad esempio ai software che necessitano di altri software o di servizi digitali per funzionare, come i dispositivi intelligenti e i veicoli autonomi). Inoltre, l'onere della prova (ovvero la necessità -per ottenere il risarcimento- di dimostrare che il prodotto era difettoso e che questo ha causato il danno subito) è stato molto impegnativo per persone danneggiate in casi complessi (per esempio quelli che coinvolgono prodotti farmaceutici, smart products o prodotti abilitati all'intelligenza artificiale). Infine, la norma limita eccessivamente la possibilità di avanzare richieste di risarcimento (i danni materiali di valore inferiore a 500 euro non sono risarcibili ai sensi della direttiva prodotti).
Come si è inteso modernizzare questo quadro? La nuova Direttiva prodotti vuole garantire che le norme sulla responsabilità riflettano la natura e i rischi dei prodotti nell'era digitale e dell'economia circolare; altresì, mira a garantire che ci sia sempre un'impresa con sede nell'Unione Europea che possa essere ritenuta responsabile per difetti di prodotti acquistati direttamente da produttori extra UE, e ciò alla luce della tendenza crescente da parte dei consumatori ad acquistare prodotti direttamente da paesi extra UE senza che vi sia un produttore o un importatore con sede nell'Unione; mira ad alleggerire l'onere della prova in casi complessi e allentare le restrizioni sulla presentazione di citazioni garantendo, nel contempo, un giusto equilibrio tra gli interessi legittimi dei produttori, dei danneggiati e dei consumatori in genere; infine, vuole garantire la certezza giuridica allineando meglio la direttiva al nuovo quadro legislativo creato dalla Decisione 768/2008/CE7 e dalle norme sulla sicurezza dei prodotti e mediante codificazione della giurisprudenza relativa alla direttiva prodotti del 1985.
Si sottolinea, tra tutti, l'aspetto rilevante della posizione paritaria tra produttore e utente che non consiste solamente in maggiore flessibilità dei termini o in minori restrizioni per proporre i reclami, bensì in un migliore flusso informativo tra i soggetti fino a prescrivere che il produttore dovrà fornire le prove richieste dal consumatore.
Tale vocazione alla trasparenza pare, infatti, un ottimo viatico per superare le barriere date dalla black box e dal fatto che spesso, nella catena complessa di produzione di sistemi di IA, è molto difficile risalire a chi ha fatto cosa.
b) Proposta di Direttiva sulla responsabilità da IA
In un'indagine rappresentativa realizzata nel 2020, la responsabilità è emersa quale uno dei tre ostacoli principali all'uso dell'IA da parte delle imprese europee, venendo citata come l'ostacolo esterno più rilevante (43 %) per le imprese che intendono adottare l'IA, ma che non lo hanno ancora fatto.
Le consultazioni condotte dalle Istituzioni europee e il continuo lavoro di verifica operato sulle norme vigenti, ma non più rispondenti alla attuale società digitale e artificialmente intelligente, hanno evidenziato che le norme nazionali degli Stati membri operanti in materia di responsabilità, in particolare per colpa, non sono adatte a gestire le azioni di responsabilità per danni causati da prodotti e servizi basati sull'IA.
In base a tali norme, coloro che subiscono un danno sono tenuti a dimostrare un'azione o un'omissione illecita da parte della persona che ha causato il danno. Le caratteristiche specifiche dell'IA, tra cui la complessità, l'autonomia e l'opacità (il suddetto effetto "scatola nera"), possono rendere difficile o eccessivamente costoso, per quanti subiscono un danno, identificare la persona responsabile e dimostrare che sussistono i presupposti ai fini dell'esito positivo di un'azione di responsabilità. In particolare, quando chiedono un risarcimento, i danneggiati potrebbero dover sostenere costi iniziali molto elevati e affrontare procedimenti giudiziari notevolmente più lunghi rispetto a quanto accade nei casi che non riguardano l'IA, venendo pertanto del tutto dissuasi dal chiedere un risarcimento. Queste sono le considerazioni che si leggono nella relazione che accompagna alla proposta di Direttiva e da cui si intuisce che la Commissione tenda non solo a ridurre l'incertezza giuridica per le imprese che sviluppano o utilizzano l'IA in relazione alla possibile esposizione alla responsabilità, ma anche a prevenire la frammentazione derivante da adeguamenti specifici all'IA delle norme nazionali in materia di responsabilità civile.
Nel concreto la Direttiva sulla responsabilità stabilirà norme uniformi per l'accesso alle informazioni e l'alleggerimento dell'onere della prova in relazione ai danni causati dai sistemi di IA, stabilendo una tutela più ampia per le vittime (siano esse persone fisiche o imprese). Armonizzerà alcune norme per i reclami che non rientrano nel campo di applicazione della nuova Direttiva cd. prodotti, nei casi in cui il danno è causato da un comportamento illecito. Ciò copre, ad esempio, violazioni della privacy o danni causati da problemi di sicurezza informatica (ad esempio, si renderà più semplice ottenere un risarcimento se qualcuno è stato discriminato in un processo di reclutamento che coinvolge la tecnologia dell'intelligenza artificiale).
La Direttiva semplifica il procedimento legale per le vittime quando si tratta di dimostrare che la colpa di qualcuno ha causato un danno, introducendo due caratteristiche principali:
1) nelle circostanze in cui è stata accertata una colpa rilevante e sembra ragionevolmente probabile un nesso causale con la prestazione dell'IA, la cosiddetta “presunzione di causalità” affronterà le difficoltà incontrate dalle vittime nel dover spiegare in dettaglio come il danno sia stato causato da una colpa o un'omissione specifica (il che può essere particolarmente difficile quando si cerca di comprendere e navigare in sistemi di intelligenza artificiale complessi);
2) le vittime avranno più strumenti per chiedere un risarcimento legale, introducendo il diritto di accesso alle prove di aziende e fornitori, nei casi in cui è coinvolta un'intelligenza artificiale ad alto rischio.
Alla presunzione di causalità il produttore potrà controbattere, garantendo così al soggetto “forte” del rapporto di potersi difendere; ciò appare in linea con il corrispettivo dovere del produttore di dare accesso alle prove.