Oggi è praticamente impossibile connettersi a Internet o aprire un qualunque giornale senza trovare articoli - di varia natura e di vario valore - che si occupano di intelligenza artificiale. Un tema, direbbero gli inglesi, particolarmente “cool”, anche se grande è a tutt'oggi l'incertezza sui confini, sulla definizione e sulla corretta prospettiva ermeneutica che tale argomento deve suscitare.
In quest'ottica, la problematica definitoria non può essere considerata secondaria: la rilevanza economica, tecnologica e statistica del fenomeno non può essere affrontata in termini generici. Individuare indistintamente la creazione e l'adattamento di algoritmi come forme di intelligenza artificiale rappresenterebbe un approccio superficiale e – per altri aspetti- probabilmente ingeneroso verso coloro che di tale problema effettivamente si occupano.
Nella presente sede occorre concentrare l'attenzione sulla tematica dell'intelligenza artificiale nell'ambito specificamente giuridico e in particolare in quello giuridico penale. Il problema deve essere affrontato in una duplice prospettiva: parlare di intelligenza artificiale vuol dire sicuramente interrogarsi su quali possono essere le utilizzazioni e gli sviluppi di applicativi destinati a prevenire, accertare e reprimere varie forme di criminalità. Nondimeno, allo stesso modo e in maniera anche più rilevante, è importante comprendere come l'intelligenza artificiale sia finalizzata allo sviluppo e alla realizzazione di fatti di rilievo penale e come da tale spunto, che la realtà quotidianamente offre, sia indispensabile prendere le mosse per affrontare il fenomeno.
Se non si considera questo aspetto, non potremo essere in grado di contrastare con armi pari - o perlomeno non troppo inferiori - manifestazioni criminali che, evidentemente, sono potenzialmente in grado di ottenere effetti devastanti sul piano qualitativo come su quello quantitativo. Non si tratta di una scelta, quanto di una precisa necessità, se si vuole evitare di fare la fine della cavalleria polacca a fronte delle divisioni corazzate della Wehrmacht. Rispetto alle analisi che da tempo sono state proposte sul tema, resta aperto e più che mai attuale la problematica - di non secondario rilievo - di un inquadramento del fenomeno. Fenomeno che in questi anni si è dilatato in termini esponenziali, anche se resta il dubbio sulla possibilità di individuare una soglia “quantitativa” di coefficiente informatico tale da determinare una modifica “qualitativa” dell'intervento, passando nell'area definibile dell'intelligenza artificiale.
Almeno un aspetto, indubbiamente, deve essere considerato con maggiore rilievo: l'autoapprendimento, allo stato applicato in molteplici forme e considerato in molti casi come la vera cifra distintiva dell'intelligenza artificiale. Algoritmi in grado di “cibarsi” della realtà informatico/telematica della quale sono chiamati a occuparsi, laddove il meccanismo a autoapprendimento sarebbe in grado di sviluppare manifestazioni analoghe al pensiero umano - o addirittura superiori in qualche modo a quest'ultimo – proprio metabolizzando e rielaborando disparate espressioni di tale pensiero, di natura comunicativa e dichiarativa – filtrando le stesse e quindi riproponendola in termini funzionali a specifiche esigenze.
Non pensiamo solo alle forme di sistemi di elaborazioni di testi ma anche di programmi destinati a raccogliere dai social il “sentiment”, i gusti, le opinioni dirette e indirette dei fruitori di tali social, consentendo rielaborazioni complesse e complete. Si tratta di un'elaborazione che contiene una suggestione tanto potente quando ingannevole, in quanto pone la riferibilità degli esiti della funzionalità dell'applicativi apparentemente al di fuori della sfera decisionale di coloro che il programma stesso hanno sviluppato e soprattutto voluto.
Si pensi, ad es. a programmi destinati ad attività di controllo sulle manifestazioni del pensiero su uno specifico social, destinate a indentificare e impedire la pubblicazione di espressioni caratterizzate da forme di pregiudizio e/o volontà di discriminazione. Se un simile programma viene alimentato dall'analisi delle realtà che su tale sociale è solita manifestarsi, è altamente verosimile che sia condizionata da quegli stessi pregiudizi che dovrebbe isolare e contrastare, salvo che – ovviamente – chi programma non abbia inserito degli specifici correttivi.
In questa prospettiva emerge il problema della documentazione del dataset, ossia dei database utilizzati per addestrare le IA; un problema serio, in quanto «…non sapere la provenienza dei dati da cui le IA imparano a dialogare, risolvere problemi, creare immagini, scrivere testi e molto, molto altro ancora, espone a rischi di discriminazione, abusi da parte dei governi, mancato rispetto delle minoranze e violazione di copyright…». Si tratta di «un aspetto molto delicato dello sviluppo delle IA…: la provenienza dei dati che servono per allenarle. Va ricordato che questa mole enorme di informazioni viene concessa agli sviluppatori in modo gratuito, con l'idea che ne facciano un uso non commerciale. Che non ci guadagnino su, insomma...». (Così E. Capone, L'intelligenza artificiale oltre quella umana e gli umani come formiche: OpenAI e i rischi della IA Forte, www.repubblica.it)
Un'idea, forse che deve essere ripensata, profondamente ripensata.
Il concetto che si vuole evidenziare era – e resta – chiaro, e proprio l'illusione dell'autoapprendimento consente di renderlo ancora più preciso. Allo stato, l'intelligenza artificiale non esiste e non opera se non nelle forme con le quali soggetti- a vario titolo e in vario modo e intensità- la determinano.
L'intelligenza artificiale non è in grado di autodeterminarsi – al momento, anche se occorre chiedersi per quanto; anni orsono il celebre astrofisico Stephen Hawking aveva paventato i rischi dell'intelligenza artificiale che potrebbe “spazzare via l'umanità”, ipotizzando lo sviluppo della cd cosiddetta strong AI, ossia di una vera intelligenza artificiale in grado di ragionare e risolvere problemi in autonomia.
Nell'attesa di questo giorno- vedremo se infausto o ragionevolmente fausto- dobbiamo considerare che in tutti i casi- anche e soprattutto quando si presenta in termini apparentemente “neutri”, come nel caso dell'autoapprendimento- la AI è frutto di precise e specifiche scelte, funzionali a precisi e specifici interessi. Qualsiasi forma oggi definita di intelligenza artificiale in realtà è il frutto di indicazioni che sono individuate, sviluppate realizzate applicate e corrette da singoli soggetti fisici.
Si tratta di una considerazione fondamentale, ove si consideri che uno degli aspetti centrali del diritto penale consiste nell'individuare la riferibilità a soggetti determinati di condotte che si assumono oggettivamente tali da integrare un reato. Questa è uno dei nodi centrali del sistema, nel momento in cui vi è la necessità di verificare la legittimità in chiave penale di condotte riferibili a realtà organizzate- private come pubbliche- strutturate su differenti livelli decisionali e attuare e gestite attraverso programmi informatici. In sostanza, a tutte le realtà complesse.
In molte di queste è relativamente semplice identificare la catena decisionale e i conseguenti provvedimenti che hanno determinato le scelte aziendali oggetto di valutazione. In molti altri, al contrario, si tratta di una attività investigativa difficile e problematica, anche se a volte le argomentazioni difensive possono presentarsi come frutto di semplificazioni e/o logicamente non credibili (ma non per questo meno efficaci nel rendere arduo il percorso di accertamento dei presupposti “storici” delle responsabilità).
A fronte di un programma la cui applicazione è tale da determinare eventi caratterizzati da un possibile rilievo penale (es: condotte discriminatorie in relazione all'organizzazione del lavoro o al controllo sul lavoro, applicazione di condizioni contrattuali standard non conformi alla legge in contesti bancari o assicurativi, omissione di controlli funzionali alla tutela dei diritti nell'ambito di realtà telematiche) lo schema di accertamento può essere sintetizzato in termini generali:
- la violazione è frutto di scelte non corrette dei programmatori/sviluppatori del programma: non si può escludere logicamente a priori, ma nella maggior parte dei casi si tratta di semplici esecutori di indicazioni altrui
- la violazione è frutto di valutazioni generali di natura giuridico-amministrativa dei soggetti che devono tradurre le indicazioni dei vertici aziendali al settore “informatico”: anche questa ipotesi è plausibili ma statisticamente non frequente, specie in realtà caratterizzate da elevati standard professionali
- la violazione deriva da scelte aziendali riferibili agli organi di vertice della società/ente per ragioni economiche o strategiche di mercato, poi tradotte in termini operativi dalle strutture aziendali.
L'investigazione su forme di condotta che si manifestano a mezzo dell'utilizzo di algoritmi non può prescindere da questo approccio. Di certo, non semplice potrà essere la ricostruzione della catena decisionale- per via testimoniali o attraverso documenti, interni o esterni alla realtà aziendale: non semplice ma inevitabile.