Responsabilità civile
RIDARE

La responsabilità civile derivante dall'utilizzo di sistemi di IA e la responsabilità dei provider

19 Febbraio 2025

L'evoluzione rapida ed esponenziale delle tecnologie digitali emergenti ha portato a nuovi interrogativi soprattutto in tema di responsabilità: il presente contributo delinea il quadro normativo di riferimento della responsabilità civile in ordine a IA e provider, nonché le possibili prospettive e connotazioni future che assumerà la responsabilità legata a tali prodotti

Premessa

Le tecnologie digitali emergenti possono generare scenari dannosi che differiscono da quelli tradizionalmente trattati dal punto di vista giuridico. Tale situazione si verifica quando i danni sono causati da robot che svolgono attività che potrebbero essere eseguite da esseri umani o da intelligenze artificiali dotate di capacità di autoapprendimento. In quest'ultimo caso, le scelte vengono prese senza l'intervento umano e si basano sull'elaborazione di algoritmi, risultando da un processo di adattamento o capacità decisionali autonome. In tal senso, in caso di danni o pregiudizi subiti da parte dell'utilizzatore del dispositivo intelligente o da terze parti, la mancanza di un soggetto designato legalmente responsabile, potrebbe comportare l'assenza di una figura incaricata di rispondere per i danni causati.

La responsabilità civile derivante dall'utilizzo dei sistemi di Intelligenza Artificiale

L'evoluzione rapida ed esponenziale delle tecnologie digitali emergenti, che comprendono sia sistemi automatizzati che semi-automatizzati (c.d. machine learning e deep learning) ha notevolmente ampliato le possibilità tecnologiche e applicative dell'Intelligenza Artificiale (di seguito,  anche IA), ponendo nuovi interrogativi riguardo alla responsabilità civile e del risarcimento dei danni in caso di incidenti.

Tali tecnologie possono generare infatti una vasta gamma di scenari dannosi che differiscono significativamente da quelli tradizionalmente affrontati dal punto di vista giuridico. Questa situazione si verifica quando i danni sono causati da robot che svolgono attività che potrebbero essere eseguite da esseri umani o da intelligenze artificiali dotate di capacità di autoapprendimento. In quest'ultimo caso, le scelte vengono prese senza l'intervento umano e si basano sull'elaborazione di algoritmi, risultando da un processo di adattamento o capacità decisionali autonome.

In tal senso, in caso di danni o pregiudizi subiti da parte dell'utilizzatore del dispositivo intelligente o da terze parti, la mancanza di un soggetto legalmente responsabile designato potrebbe comportare l'assenza di una figura incaricata di rispondere per i danni causati.

L'utilizzo degli algoritmi può inoltre mettere a rischio le libertà e i diritti fondamentali dell'individuo, compresi aspetti cruciali come la sicurezza personale, la salute, la privacy e la protezione dei dati personali, l'integrità, la dignità e l'autodeterminazione.

Questa situazione ha sollevato «un dibattito dottrinale relativo all'estensione della “soggettività” agli agenti elettronici capaci di elaborare decisioni algoritmiche autonome» e, correlativamente, ha comportato la necessità di valutare se le normative esistenti sulla responsabilità siano adeguate o se sia necessario introdurre nuovi principi e regole volte a determinare chi sia responsabile per le azioni e le omissioni dannose attribuibili all'Intelligenza artificiale, quando le cause non possono essere attribuite a un soggetto umano specifico.

Qualora si intenda il danno come sinonimo di illecito causato dall'impiego dell'IA, in tal caso l'oggetto della ricerca si sposta sulla funzione che la responsabilità civile può assolvere per rimediare ai danni causati dalla IA. Al riguardo è necessario premettere che questo settore non è utilmente comparabile con alcuno di quelli sui quali, in passato, si è sviluppato il dibattito della responsabilità civile. La diversità deriva dal fatto che l'illecito aquiliano dirime un conflitto che nasce nell'economia individuale del responsabile e del danneggiato. La rilevanza sociale del fenomeno è più presente nei c.d. sinistri di massa, come ad es. gli incidenti stradali, ma anche in questi il risarcimento vale a ripianare un equilibrio con il quale è soddisfatta la vittima, in rapporto con il responsabile. Se il sinistro è di massa, l'ordinamento giuridico ne deve prendere atto e deve trovare un rimedio capace di garantire al contempo l'attenuazione del rischio del suo verificarsi e l'apprestamento di un rimedio in grado di garantire la pace sociale. Queste sono le premesse che storicamente hanno portato al matrimonio fra responsabilità civile e assicurazione. Dato il numero di veicoli in circolazione, non si possono evitare gli incidenti stradali, però l'assicurazione obbligatoria per la circolazione dei veicoli è capace di rendere più efficace l'applicazione delle regole della responsabilità civile, quindi di offrire una soluzione socialmente accettabile. Certo, la disciplina riguarda i veicoli senza guida di rotaie, i natanti, ma non comprende tutti gli altri mezzi che possono causare danno, ma che non circolano sulla pubblica via. Questo livello di dettaglio, che ha consentito al legislatore di introdurre una importante normativa, presupponeva di individuare una situazione stigmatizzata nel conflitto fra il conducente di un veicolo in circolazione e la vittima. Il modello è stato replicato in tutti i settori nei quali è elevato il rischio quantitativo dei sinistri, da ultimo ha riguardato la posizione dei professionisti, come medici e avvocati, nei rapporti con i loro assistiti e con i terzi. Il medesimo modello è stato replicato anche per i grandi sinistri come quelli derivanti dall'impiego pacifico dell'energia nucleare secondo la l. 31 dicembre 1962, n.1860.

Risulta, quindi, una sfida l'applicazione della disciplina vigente in materia di responsabilità civile applicata all'intelligenza artificiale.

La normativa esistente è stata concepita per regolare le conseguenze delle azioni umane, che coinvolgono soggetti capaci di autonomia decisionale e di prendere decisioni in modo indipendente. L'intelligenza artificiale, al contrario, è un oggetto, seppur sofisticato, che funziona tramite l'elaborazione di grandi quantità di dati forniti esternamente. In altre parole, il ruolo dell'essere umano rimane fondamentale. Pertanto, attribuire una responsabilità legale all'intelligenza artificiale per i danni causati diventa problematico, rendendo necessario esplorare alternative con le loro conseguenti sfide e adattamenti. Alla luce di tali considerazioni, l'impetuosa espansione delle applicazioni dell'IA pone interrogativi sulla possibilità di riconoscere ai robot la qualità di soggetti di diritto e sulla necessità potenziale di creare una nuova categoria giuridica: la personalità elettronica, con le sue caratteristiche specifiche e implicazioni peculiari; inoltre le macchine intelligenti, pur dotate di capacità decisionali e comportamentali autonome, non possono essere ricondotte a una singola definizione che le comprenda tutte indiscriminatamente ma, al contrario, devono essere presi in considerazione diversi aspetti, come la natura del robot, l'ambiente in cui agisce e il tipo di controllo esercitato dall'uomo su di esso.

Un primo sforzo per fornire risposte a livello europeo si riscontra nel percorso volto all'approvazione di un Regolamento riguardante la responsabilità civile dell'Intelligenza Artificiale.

Tale percorso prende avvio dalla proposta formulata nella Risoluzione del Parlamento europeo datata 20 ottobre 2020, che offre raccomandazioni alla Commissione in merito a un quadro di responsabilità civile per l'Intelligenza Artificiale.

Prima di intraprendere questo percorso è opportuno delineare il quadro giuridico di riferimento e la nozione giuridica di intelligenza artificiale.

Sebbene si siano susseguite molteplici definizioni nel corso degli ultimi anni, solo di recente il legislatore europeo ha sentito il bisogno di inquadrare giuridicamente questo complesso (e variegato) fenomeno. Il primo passo è stato compiuto attraverso la direttiva n. 85/374/CE del Consiglio del 25 luglio 1985, recepita nel Codice del Consumo italiano (specificamente negli artt. 114-127 del Titolo II, Parte IV).

Successivamente, il 31 maggio del 2016, la Commissione JURI del Parlamento europeo, a seguito dell'audizione di numerosi esperti di alto livello nel campo dell'automazione e della digitalizzazione, ha presentato un primo «progetto di relazione» che poneva al centro dell'attenzione il riconoscimento della responsabilità civile riguardo ai danni causati dai dispositivi automatizzati (ricomprendendo con tale termine anche l'Intelligenza Artificiale). Il Progetto di Relazione ha avuto un seguito nel Febbraio 2017, mediante una serie di raccomandazioni fornite dal Parlamento alla Commissione Europea riguardo le norme civili in materia di «robotica», con l'obiettivo di elaborare una disciplina armonizzata e renderla uniforme in tutti gli Stati Membri, per affrontare le sfide e le questioni etiche correlate all'automazione e all'Intelligenza Artificiale, promuovendo al contempo lo sviluppo sostenibile e l'adozione responsabile di queste innovazioni tecnologiche.

Nell'attuale contesto normativo, la direttiva n. 85/374/CE è stata abrogata dalla Direttiva (UE) 2024/2853 del Parlamento europeo e del Consiglio del 23 ottobre 2024, sulla responsabilità per danno da prodotti difettosi. Tale normativa ha riscritto il corpus di norme sulla responsabilità nella duplice ottica di garantire il corretto funzionamento del mercato interno, impedendo che la concorrenza sia falsata da prodotti difettosi aventi effetti distorsivi sulle dinamiche del libero mercato e, quindi, di assicurare piena tutela al cittadino consumatore, lasciando immutato il criterio della responsabilità oggettiva degli operatori economici. Essa troverà applicazione solo con riguardo ai prodotti immessi sul mercato o messi in servizio dopo il 9 dicembre 2026.

Attraverso gli indirizzi forniti dal gruppo di esperti di alto livello, è stato promosso un concetto di Intelligenza Artificiale affidabile, basato su tre fondamentali componentilegalità, eticità e robustezza.

Questi principi costituiscono un fondamento solido per affrontare le sfide e le implicazioni della diffusione dell'IA nella società. Il perseguimento di un utilizzo responsabile e affidabile dell'IA richiede un impegno congiunto da parte degli attori coinvolti per garantire un equilibrio tra innovazione tecnologica, rispetto delle norme giuridiche ed etiche, e tutela dei diritti e del benessere delle persone.

L'impegno delle istituzioni dell'Unione Europea, in linea con quanto espresso nella Risoluzione del 2017, ha portato così alla creazione di diversi strumenti giuridici.

Tra questi si annoverano la Comunicazione «L'Intelligenza Artificiale per l'Europa», il Piano coordinato sull'Intelligenza Artificiale, la Comunicazione «Creare fiducia nell'Intelligenza Artificiale antropocentrica» e il Libro bianco sull'Intelligenza Artificiale, volti a definire il concetto dell'IA come «un insieme di tecnologie che combina dati, algoritmi e potenza di calcolo in grado di cambiare radicalmente le nostre conoscenze e le loro applicazioni».

Parallelamente a tali documenti, sono stati prodotti numerosi studi e linee guida che hanno influenzato la redazione di molteplici atti legislativi già adottati o in fase di adozione. È importante evidenziare come, nonostante l'obiettivo di questa normativa sia quello di fornire una protezione adeguata ai consumatori e di stabilire una chiara responsabilità per i produttori all'interno del contesto europeo di riferimento, sorgono preoccupazioni rilevanti riguardo l'interdipendenza tra nesso di causa e la gestione delle nuove sfide presentate dall'intelligenza artificiale nonché l'ottenimento del correlato risarcimento effettivo per i danni subiti, spesso di considerevole entità.

Le questioni legali sollevate includono la responsabilità civile per i danni causati dagli algoritmi, la protezione della privacy e dei dati personali, la discriminazione algoritmica e la sicurezza cibernetica, solo per citarne alcuni esempi.

In ambito nazionale, sono emersi problemi simili che hanno richiesto un'attenta valutazione dell'adeguatezza delle norme codicistiche tradizionali per affrontare in modo efficace le questioni sollevate dalla diffusione sempre più ampia dell'intelligenza artificiale.

Questa diffusione ha portato all'emergere di nuovi scenari e ha presentato sfide legali connesse che richiedono una riflessione approfondita. Riassumendo, l'interazione complessa tra molteplici attori coinvolti, l'evoluzione autonoma delle tecnologie e la difficoltà delle legislazioni nel tenere il passo con tali progressi, contribuiscono a generare una significativa dose di incertezza che induce le imprese a manifestare una certa riluttanza nell'adottare l'intelligenza artificiale.

Di conseguenza, la necessità di affrontare queste (nuove) sfide legali ha stimolato dibattiti accesi e ha portato i legislatori a considerare l'adozione di nuove norme e regolamenti specifici:

  • per affrontare in modo adeguato la responsabilità derivante dall'uso di dispositivi basati sull'intelligenza artificiale;
  • per bilanciare l'innovazione tecnologica con la protezione dei diritti fondamentali, il mantenimento della certezza giuridica e la promozione di un ambiente favorevole all'innovazione.

Da ultimo, occorre citare la proposta di direttiva sulla responsabilità da intelligenza artificiale del 28 settembre 2022 del Parlamento europeo e del Consiglio relativa all'adeguamento delle norme in materia di responsabilità civile extracontrattuale per l'intelligenza artificiale (AI Liability Directive). Tale normativa deve essere inquadrata nell'ambito di un insieme di misure che comprendono una revisione delle norme settoriali e orizzontali in materia di sicurezza dei prodotti e, infine, una disciplina della responsabilità civile relativa ai sistemi di AI. Tali misure sono complementari al Regolamento sull'intelligenza artificiale e consentono solamente di contenere i rischi e non prevedono rimedi a favore di coloro che abbiano subito danni causati dai sistemi di intelligenza artificiale, sicché in tali casi trovano applicazione le norme in materia di responsabilità previste dalla proposta di direttiva qui in esame.

In conclusione, si può affermare che in materia di responsabilità civile per i danni cagionati dai sistemi di AI sia prevalsa la logica compromissoria che spesso presiede le scelte legislative dell'Unione europea.

Del resto, le regole in materia di responsabilità risultano tra le più sensibili alle novità tecnologiche ed è inevitabile che siano valutate dalle istituzioni europee anche alla luce della loro incidenza economica, sicché è stata messa in luce l'esigenza di un bilanciamento tra la promozione dell'intelligenza artificiale e la tutela dei soggetti danneggiati dai sistemi che la integrano.

Un regime di responsabilità analogo a quello previsto per i prodotti difettosi avrebbe soddisfatto l'esigenza di tutelare i soggetti danneggiati, atteso che l'applicazione di tale disciplina ai danni causati dai sistemi di AI avrebbe significato l'adozione di un criterio di imputazione della responsabilità di tipo oggettivo, che prescinde dall'accertamento della colpa e consente di far fronte al rischio, invero elevato, che le applicazioni di AI arrechino danni a coloro che interagiscono con esse.

Nell'ambito della proposta di direttiva sulla responsabilità da intelligenza artificiale, la Commissione si è riservata di riesaminare l'applicazione della direttiva stessa a distanza di 5 anni dal termine fissato per il suo recepimento al fine di valutare l'adeguatezza delle norme in materia di responsabilità oggettiva per le domande di risarcimento presentate contro gli operatori di determinati sistemi di AI ed esaminare la necessità di una copertura assicurativa, tenendo conto nel contempo dell'effetto e dell'impatto sulla diffusione e sull'adozione dei sistemi di AI, in particolare per le PMI.

Questa sembra una valida via percorribile anche attraverso polizze assicurative non da responsabilità, ma da evento e con copertura anche solo indennitaria e non necessariamente risarcitoria, limitando così, senza però negarlo totalmente, il ristoro del pregiudizio. In una prospettiva iure condendo, appare utile integrare tale sistema con l'istituzione di un fondo di garanzia pubblica che tuteli danneggiati, rimasti privi di risarcimento.

Ciò consentirebbe di dialogare i costi sociali dei sistemi di intelligenza artificiale secondo una modalità caratterizzata da un elevato livello di sostenibilità economica, secondo il meccanismo della Market Share Liability, che prevede a carico di ciascun produttore un onere di contribuzione al finanziamento del fondo direttamente proporzionale alle proprie quote di mercato. Questi sviluppi dipendono da una serie di fattori che richiedono la volontà politica delle Istituzioni europee di vincere la resistenza opposta dalle imprese sviluppatrici dei sistemi di intelligenza artificiale.

Vi è anche un altro problema che attiene alla concreta praticabilità e operatività di un regime di assicurazione obbligatoria, considerato che la diffusione dei sistemi di intelligenza artificiale è un fenomeno relativamente recente, non si dispone ancora di dati statisticamente significativi in ordine al rischio e all'entità dei danni concernenti le molteplicità ed eterogenee applicazioni dell'intelligenza artificiale.

Ciò impedisce o rende difficile una ricognizione dei profili caratteristici degli incidenti, pregiudicando la sana e prudente gestione del rischio da parte delle compagnie assicurative, che sono tenute all'accantonamento delle riserve tecniche necessarie a coprire sinistri. In assenza di un quadro completo, razionale e sistematico del rischio assunto dalle assicurazioni, è difficile prevedere la diffusione di polizze assicurative per i sistemi di intelligenza artificiale, se non con riferimento a specifici settori per i quali si dispone di maggiori informazioni sulle caratteristiche di tali sistemi e sui potenziali rischi da questi generati. Ne consegue che, tra i principali fattori da cui dipendono i futuri sviluppi normativi in materia di responsabilità, spicca quello relativo al tempo necessario ad acquisire dati statistici accurati, come è accaduto anche per le automobili nell'arco del tempo che ha preceduto l'introduzione del regime di assicurazione obbligatoria. A tal fine, i 5 anni indicati dalla proposta di direttiva non paiono sufficienti affinché possa maturare una adeguata conoscenza di tali dati, ma questo lasso di tempo è utile a riesaminare l'applicazione della direttiva, onde verificare se il sistema delle presunzioni operative abbia dato buona prova di sé o se invece sia necessario ricorrere a un sistema di responsabilità oggettiva, secondo una valutazione che deve essere compiuta alla luce del principio di proporzionalità e che deve tener conto degli sviluppi tecnologici e dei pregiudizi che essi possono concretamente arrecare.

Resta ferma la necessità ravvisata dalle stesse Istituzioni europee di raccogliere dati e altre evidenze pertinenti in merito alle materie in questione, sicché il tempo rappresenta ancora una volta un fattore fondamentale nell'orientare gli sviluppi normativi futuri, nonché la diffusione di adeguate soluzioni da parte del mercato assicurativo. Tutto ciò che occorre a confermare come la disciplina della responsabilità costituisca una questione nevralgica, affinché prevalga un approccio autenticamente antropocentrico all'intelligenza artificiale che non alimenti una tecnofobia, ma ispiri un umanesimo digitale consapevole delle notevoli potenzialità dei nuovi sistemi, ma anche della loro fallibilità e dei danni che essi possono arrecare.

La responsabilità dei provider e la giurisprudenza italiana sul tema

A livello europeo, una delle prime normative volte a disciplinare l'attuale società dell'informazione è stata la Direttiva 2000/31 relativa al commercio elettronico (Direttiva E-commerce) e alla responsabilità degli Internet Service Providers (ISP).  L'art. 14, comma 1 della Direttiva E-Commerce, in particolare, prevede che il prestatore di un servizio della società dell'informazione consistente nella memorizzazione di informazioni fornite da un destinatario del servizio (hosting provider) non sia responsabile dei contenuti pubblicati dagli utenti qualora:

  1. non sia effettivamente a conoscenza dell'illiceità dei contenti;
  2. o, non appena ne venga a conoscenza, agisca immediatamente per rimuovere le informazioni o per disabilitarne l'accesso.

Il terzo comma della predetta norma fa salva la possibilità che un organo giurisdizionale o un'autorità amministrativa, in conformità agli ordinamenti giuridici degli Stati membri, esiga che l'hosting provider ponga fine ad una violazione o la impedisca.

Pertanto, l'hosting provider può essere il destinatario di ingiunzioni, anche se non è esso stesso responsabile delle informazioni memorizzate sui suoi server.

Le condizioni e le modalità delle suddette ingiunzioni concernenti prestatori intermediari rientrano dunque nell'ambito di applicazione del diritto nazionale, sebbene questo debba comunque rispettare i principi sanciti dalla Direttiva E-Commerce.

La Direttiva disciplina i «servizi della società dell'informazione», qualificati come «qualsiasi servizio prestato normalmente dietro retribuzione, a distanza, per via elettronica e a richiesta individuale di un destinatario di servizi».

In tale definizione sono comprese le responsabilità di quei soggetti, “provider”, che operano nel web memorizzando e trasmettendo informazioni e la disciplina relativa al commercio elettronico (e-commerce).

La metà degli anni Novanta del secolo scorso è un periodo decisivo per il diritto dell'informatica italiano: le prime due norme specifiche sul tema (il d.lgs. 518/1992 sulla “duplicazione abusiva” del software e la l. n. 547/1993 sulla criminalità informatica), hanno posto all'attenzione generale i problemi specifici che l'informatica è idonea a generare in un determinato ordinamento giuridico.

Tali provvedimenti si sono trovati a dover affrontare nuove tematiche, utilizzando istituti “tradizionali” come punto di riferimento, in un'ottica di rassicurazione e di maggior certezza per l'interprete.

Due ordinanze, una del Tribunale di Napoli (Trib. Napoli, 8 agosto 1997) e l'altra del Tribunale di Teramo (Trib. Teramo, 11 dicembre 1997), hanno ravvisato, ad esempio, responsabilità in capo agli ISP semplicemente attribuendo loro lo stesso regime di responsabilità che è in capo agli organi di stampa e che è, come noto, molto specifico e oneroso (obbligo di controllo e vigilanza sui contenuti creati anche da terzi).

Decisioni di tale tenore, equiparando il gestore di un sito Internet a un organo di stampa, ne fanno derivare degli obblighi di vigilanza (l'ordinanza di Napoli parla di «diligente verifica» e di «controllo preventivo») che aumentano il raggio di responsabilità.

L'approccio appena descritto viene accantonato da un'interpretazione più moderna, che porta alla ribalta un nuovo orientamento più garantista, contenuto nell'ordinanza del Tribunale di Roma (Trib. Roma, 4 luglio 1998). Nel caso di specie veniva rigettata una richiesta di rimozione di un contenuto diffamatorio contenuto in un'area di discussione di un sito web. Il giudice romano analizza con cura la figura del webmaster e la modalità in cui metta a disposizione lo «spazio virtuale» per i suoi clienti, sino ad arrivare ad affermare che «il news-server si limita a mettere a disposizione degli utenti lo spazio “virtuale” dell'area di discussione e nel caso di specie, trattandosi di un newsgroup non moderato, non ha nessun potere di controllo e vigilanza sugli interventi che vi vengono inseriti».

S'inizia a distinguere, per la prima volta, la reale possibilità di controllo, da parte di un soggetto, con riferimento ai contenuti che circolano in uno spazio da lui gestito.

Tre pronunce successive continuarono a definire la posizione che i provider hanno con particolare riferimento al loro potere di controllo sui contenuti. (Trib. Roma, 22 marzo 1999; Trib. Bologna, 26 novembre 2001; Trib. Firenze, 21 maggio 2001).

Nonostante siano provvedimenti riferibili a un quadro informatico non più attuale, sono molto importanti per comprendere un passaggio interpretativo corrispondente alla valutazione di reali possibilità di azione e di intervento del provider con riferimento ai contenuti.

La terza fase interpretativa, quella che ha disegnato il quadro attuale, inizia a prendere forma dopo il d.lgs. n. 70/2003 e in un approccio dove si pone al centro dell'attenzione il principio della neutralità del provider.

Ciò porta, altresì ad individuare “nuove” ipotesi di responsabilità quando il giudice ritiene che la posizione del provider, nel sistema informatico globalmente considerato, non sia “neutrale”.

Si veda, ad esempio, la sentenza del Tribunale di Milano del 24 marzo 2011 che, anche se un po' risalente, è rilevante in quanto ha riguardato il caso dei “suggerimenti” di Google, ossia quelle parole o frasi che appaiono nel riquadro del motore di ricerca quando si inseriscono dei termini connessi a una pagina che si vuole ricercare.

Un imprenditore aveva ritenuto lesivi alcuni “accostamenti” che apparivano automaticamente digitando il suo nome su Google e aveva chiesto una sorta di “rettifica” al motore di ricerca.

Il giudice, dopo il rifiuto del motore di ricerca di agire, ordinò la rimozione del collegamento tra nome del soggetto e parole offensive, nonostante il provider ribadisse la sua natura “terza” rispetto a simili processi e la sua posizione di provider passivo.

Il giudice, muovendo dalle categorie della Direttiva europea, dichiara Google come hosting provider, e non come “semplice” ISP, con un conseguente obbligo di attivarsi nel momento in cui viene a conoscenza dell'attività illecita o, comunque, dannosa. Da un lato, quindi, viene ribadita la non responsabilità per i contenuti immessi da terzi (in tale caso i suggerimenti diffamatori apparivano poiché collegati a contenuti immessi non da Google ma da soggetti terzi che volevano offendere l'imprenditore); dall'altro, però, viene “consacrato” l'obbligo di agire per la rimozione di contenuti illeciti non appena occorre una segnalazione.

Riferimenti (Bibliografia)

  • I.M Alagna, Social Media e responsabilità civile, in Officina-civile e processo (responsabilità civile), Giuffrè Francis Lefebvre, 2020.
  • C. Leanza, Intelligenza artificiale e diritto: ipotesi di responsabilità civile nel terzo millennio, in Responsabilità Civile e Previdenza, fasc.3, 1° marzo 2021.
  • M.Iaselli, AI Act, Principi regole ed applicazioni pratiche del Reg. UE 1689/2024, Maggioli Editore, 2024, pp.155-164.

Vuoi leggere tutti i contenuti?

Attiva la prova gratuita per 15 giorni, oppure abbonati subito per poter
continuare a leggere questo e tanti altri articoli.

Sommario