Allarme per i progressi dell’Intelligenza Artificiale, si muove anche l’ONU

28 Febbraio 2023

Dopo l’avvento, per molti inatteso, dei primi motori di Intelligenza Artificiale generativa (come ChatGPT), sul finire del 2022, il mondo degli esperti e delle istituzioni si sta interrogando sui possibili rischi derivanti dal progresso dell’IA. L’Alto Rappresentante ONU per i Diritti Umani, Volker Türk, ha lanciato un appello a fare presto per fissare regole e argini al potenziale dannoso dell’IA generativa. Nel mentre, il Regolamento UE sull’IA rischia di “nascere vecchio”.

Ha colpito gli esperti internazionali di diritto digitale ed etica il recente appello dell'Alto commissario delle Nazioni Unite per i diritti umani Volker Türk sui progressi dell'Intelligenza Artificiale, rilasciato a Ginevra lo scorso 18 febbraio 2023: «Sono profondamente turbato dal potenziale dannoso dei recenti progressi nell'intelligenza artificiale. Il libero arbitrio umano, la dignità umana e tutti i diritti umani sono a serio rischio. Questo è un appello urgente sia per le imprese sia per i governi a sviluppare rapidamente "guardrail" efficaci, che sono così urgentemente necessari. Seguiremo da vicino questo fronte, forniremo le nostre competenze specifiche e faremo in modo che la dimensione dei diritti umani rimanga centrale in questi progressi» (ohchr.org).

Perché questo allarme? L’Alto Commissario ONU si riferisce, evidentemente, all’improvvisa pubblicazione e messa a disposizione di chiunque su Internet, del motore di Intelligenza Artificiale generativa denominato “ChatGPT”, fondato su un modello GPT-3 (Generative Pre-trained Transformer 3, cioè un modello linguistico intelligente che utilizza l'apprendimento profondo per produrre testo simile al linguaggio naturale umano). ChatGPT è frutto del lavoro di OpenAI, un laboratorio di ricerca sull'Intelligenza Artificiale con sede a San Francisco, finanziato da grandi realtà, fra le quali spicca Microsoft, che ha già annunciato di volerne integrare le funzionalità nei propri prodotti. Altri motori di IA generativa sono pronti ad approdare sul mercato e a disposizione del pubblico, in questi mesi, come risultati di ricerca e sviluppo di grandi operatori tecnologici, inclusi Google e META.

Non inganni il riferimento alla produzione di testo simile al linguaggio umano: non si tratta di sistemi che meramente copiano, incollano e ricombinano insieme testi scritti da umani; si tratta, anzi, di sistemi in grado di generare testo con linguaggio umano e/o linguaggio-macchina (per esempio, possono programmare codice informatico). Questo significa, in sostanza, che i sistemi di IA come ChatGPT possono, per l’appunto, generare non solo concetti e pensieri nuovi, inediti, originali, ma anche, in prospettiva, ulteriori algoritmi per la creazione di altri sistemi intelligenti. Una potenzialità che sembra ben distante dalla definizione di Intelligenza Artificiale che era stata approvata dal Gruppo di esperti ad alto livello sull'Intelligenza Artificiale nominato dalla Commissione Europea nel giugno 2018; definizione, quella, tutta imperniata su di un’idea di Intelligenza Artificiale non generativa, sempre e comunque progettata da un essere umano, come si evince dalle parole stesse utilizzate, illo tempore, dal Gruppo di esperti: «L’Intelligenza Artificiale (IA) si riferisce a sistemi progettati da esseri umani che, dato un obiettivo complesso, [evidentemente dato dagli esseri umani che li progettano, nda] agiscono nel mondo fisico o digitale percependo il loro ambiente, interpretando i dati raccolti strutturati o non strutturati, ragionando sulla conoscenza derivata da questi dati e decidendo le migliori azioni da intraprendere (secondo parametri predefiniti [predefiniti pur sempre dagli esseri umani che li progettano, nda]) per raggiungere l'obiettivo prefissato. Anche i sistemi di intelligenza artificiale possono essere progettati per imparare ad adattare il proprio comportamento analizzando come l'ambiente è influenzato dal proprio azioni precedenti».

L’avvento di ChatGPT su base di GPT-3 (che si fonda su 175 miliardi di parametri di apprendimento automatico, già in predicato di essere superata ampiamente dalla nuova versione GPT-4) si è rivelato, quindi, dirompente e spiazzante sia per i semplici utenti online, che ne hanno massivamente sperimentato le competenze elaborative – sottoponendo domande o richieste di programmazione e formulazione di testi ex novo al sistema intelligente – sia per i regolatori di tutto il mondo. La stessa Proposta di Regolamento UE sull’Intelligenza Artificiale, che sembra ormai arrivata a un buon punto di negoziazione nel Trilogo fra Commissione Europea, Consiglio UE e Parlamento Europeo, si fonda su una definizione di IA legata alla (obsoleta, alla luce degli eventi?) definizione suggerita cinque anni fa dal Gruppo di esperti di alto livello, pur rivista ed emendata nelle ulteriori versioni durante l’iter legislativo. In tal senso, il venturo Regolamento UE sull’Intelligenza Artificiale non pare – già prima di nascere – sufficientemente adeguato a fronteggiare scenari in cui il sistema sia “senza padrone” (o, meglio, senza fornitore/provider umano, cioè senza esseri umani od organizzazioni governate da esseri umani a progettarlo e fornirlo agli utenti). Scenari, va detto, resi probabili se non certi grazie all’IA generativa, che porranno un angosciante punto interrogativo senza, per ora, risposte convincenti sugli orizzonti di responsabilizzazione giuridica soggettiva – sia privatistica, sia, soprattutto, pubblicistica – di questi “attori non umani”.

Al di là della capacità di “figliare” tipica dei sistemi generativi e trasformativi, l’opinione pubblica, gli esperti e gli esponenti delle istituzioni – come l’Alto Rappresentante ONU per i diritti umani – sembrano preoccupati da ulteriori aspetti che potranno impattare sui diritti e le libertà fondamentali degli esseri umani, ma anche su interessi pubblici essenziali delle democrazie. Ci si riferisce, in particolare, alla constatazione dell’eccezionale potenziale sostitutivo del pensiero e delle conoscenze umane dimostrato da ChatGPT, in grado di superare esami universitari (il test è stato provato all'Università del Minnesota in USA) e di redigere documenti, pareri, analisi con un livello di precisione e qualità del tutto sorprendenti. Infine, ultimo ma non meno importante, il grande tema dell’ingannevolezza (in taluni casi, perfino, dell’ipotetica “follia”) dei contenuti generati da questi sistemi intelligenti generativi, che stanno presentando una tendenza a “inventare” risposte fantasiose o che comunque si prestano a essere utilizzati per generare informazioni false ma apparentemente vere (deep fake), pertanto capaci di influenzare e viziare le opinioni umane. Per tutte queste ragioni, non stupisce l’appello allarmato e allarmante lanciato dall’Alto Commissario ONU. Capiremo nei prossimi mesi e anni quanto i legislatori, nei singoli Paesi come nei consessi internazionali, intenderanno rincorrere l’ennesima e, storicamente, la più inquietante fuga in avanti delle tecnologie. 

Vuoi leggere tutti i contenuti?

Attiva la prova gratuita per 15 giorni, oppure abbonati subito per poter
continuare a leggere questo e tanti altri articoli.