OpenAI e l’evoluzione della corporate governance nell’era dell’intelligenza artificiale, tra modelli innovativi e problemi tradizionali. Una scommessa persa?

17 Gennaio 2024

Il contributo ripercorre la convulsa vicenda che ha interessato OpenAI nella seconda metà di novembre 2023, quando il CEO Sam Altman è stato rimosso dall’incarico e poi reinsediato nella carica nel giro di pochi giorni. Dopo una breve ricognizione della peculiare struttura giuridica di OpenAI, costruita per permettere la convivenza di un’anima for-profit e un’anima non-profit, vengono tratteggiati gli eventi principali della vicenda, per trarre infine alcune brevissime conclusioni.

Introduzione

Chat-GPT è, ormai, uno strumento universalmente conosciuto, che non necessita di alcuna presentazione. La notorietà del prodotto si è irradiata sull’impresa che lo produce, OpenAI, che è prepotentemente entrata nell’arena della creazione di intelligenze artificiali innovative ritagliandosi in pochi mesi un ruolo di primissimo piano. L’innovatività non contraddistingue, però, solo l’attività di OpenAI, ma anche la sua struttura: come si vedrà, sin dal principio la scelta dei fondatori è stata quella di scommettere su una struttura ibrida, distante dai modelli societari più diffusi, nel tentativo di governare al meglio i rischi derivanti dallo sviluppo di intelligenze artificiali sempre più sofisticate.

Fino a poco tempo fa tale struttura non aveva dato particolari segni di manifestazione all’esterno, e di OpenAI si scriveva e discuteva con riferimento alla sua principale creazione, Chat-GPT. Un punto di svolta è giunto a novembre 2023, quando OpenAI è stata al centro di una storia tanto avvincente quanto complessa, apertasi con il licenziamento del CEO da parte del board e conclusasi, con un gioco di specchi, con il ritorno del CEO e le dimissioni del board.

Più specificamente, ed è quel che qui interessa, si è trattato di una vicenda esemplare di corporate governance, che merita di essere ripercorsa per verificare se e con quali conseguenze siano possibili modelli alternativi rispetto a quelli tradizionali, (in ipotesi) maggiormente capaci di incidere nella gestione dell’attività sociale uno stakeholderism più marcato. Prima di ripercorrere la sorprendente vicenda novembrina, però, è utile soffermarsi brevemente sullo status quo ante bellum.

Premessa: la scommessa di OpenAI, tra profit e non-profit

Pur essendo assurta tra i protagonisti del mondo dell’intelligenza artificiale, a fianco di entità del calibro di Google e Microsoft, OpenAI nasce, almeno sulla carta, da premesse molto diverse, come si evince dalla presentazione pubblicata sul suo sito ufficiale:

«Because of AI’s surprising history, it’s hard to predict when human-level AI might come within reach. When it does, it’ll be important to have a leading research institution which can prioritize a good outcome for all over its own self-interest. We’re hoping to grow OpenAI into such an institution

In armonia con questa dichiarazione d’intenti OpenAI nasce come non-profit nel 2015, con la missione di «advance digital intelligence in the way that is most likely to benefit humanity as a whole, unconstrained by a need to generate financial return»; tra i suoi fondatori figurano Samuel «Sam» Altman ed Elon Musk, che ha lasciato il board nel 2018. La struttura giuridica scelta inizialmente era quella disegnata dal § 501(c)(3) del Title 26 dello United States Code, che prevede esenzioni fiscali per gli enti senza fini di lucro: si trattava in pratica di un’entità (tecnicamente una public charity) configurata per non subordinare i fini di ricerca a quelli di massimizzazione del profitto.

Col passare degli anni, però, due elementi hanno imposto un cambiamento di rotta. In primo luogo, la consapevolezza di aver sottostimato la quantità di potenza computazionale necessaria per sviluppare sistemi sempre più avanzati, e di conseguenza il capitale necessario per il conseguimento di tale risultato; in secondo luogo, la presa d’atto di non riuscire a incoraggiare sufficienti donazioni, esemplificata dal fallimento dell’ambizioso tentativo di raccogliere un miliardo di dollari, interrottosi a soli 130 milioni di dollari.

Piuttosto che trasformare la non-profit in una for-profit, però, OpenAI ha scelto una struttura più originale: mantenere la public charity non-profit, creando al contempo un’entità for-profit, interamente controllata dalla prima, strumentale al controllo di ulteriori società poste a valle della catena. Lo schema seguente, che riassume la complessa struttura adottata, è tratto dal sito ufficiale di OpenAI:

La struttura di questo gruppo si impernia su due entità principali: una non-profit (al vertice) e una for-profit (alla base), interconnesse tra loro per il tramite di una holding company e una partnership. Da un lato, le operazioni della neonata for-profit vengono così ad essere interamente controllate dalla non-profit e cioè, concretamente, dal board of directors di quest’ultima; dall’altro, la for-profit può raccogliere capitale ma è in grado di distribuire utili solo entro un limite (cap) di cento volte l’investimento iniziale: una soglia elevatissima, giustificata ufficialmente dal fatto che in caso di successo nella creazione di un’Artificial General Intelligence (c.d. «AGI») OpenAI prevede di generare profitti maggiori di diversi ordini di grandezza,. Tutti gli investitori sono resi edotti di tali limiti fin da subito, con il disclaimer seguente:

«[…] It would be wise to view any investment in OpenAI Global, LLC in the spirit of a donation, with the understanding that it may be difficult to know what role money will play in a post-AGI world. The Company exists to advance OpenAI, Inc.’s mission of ensuring that safe artificial general intelligence is developed and benefits all of humanity. The Company’s duty to this mission and the principles advanced in the OpenAI, Inc. Charter take precedence over any obligation to generate a profit. The Company may never make a profit, and the Company is under no obligation to do so. The Company is free to re-invest any or all of the Company’s cash flow into research and development activities and/or related expenses without any obligation to the Members […]».

Peraltro, il board di OpenAI (più precisamente, della non-profit) è stato sin dal principio composto in maggioranza da independent directors senza alcuna quota nella for-profit, con l’aggiunta nel tempo di un seggio senza voto (tecnicamente un board observer) per Microsoft, investitore principale dal 2019 (con il 49% delle quote).

Si tratta, come si vede, di una struttura inusuale e creativa, che fino a poco tempo fa non aveva mostrato sintomi di instabilità, sembrando anzi in grado di riuscire a coniugare la genetica missione di OpenAI con le sopravvenute necessità finanziarie. OpenAI ha così nell’ultimo anno sviluppato il sistema di intelligenza artificiale generativa più avanzato sul mercato, fissando un nuovo standard in un settore in continua evoluzione. La scommessa di OpenAI, in sostanza, consisteva in un nuovo modello di corporate governance, per porre rimedio alla ritenuta incapacità delle strutture più classiche di far fronte alle nuove sfide di AI governance; una scommessa che fino a poco tempo fa sembrava destinata ad essere coronata dal successo.

Gli eventi del novembre 2023

Come si diceva, dal 2019 OpenAI ha valorizzato gli ingenti investimenti raccolti per progredire enormemente nello sviluppo di intelligenze artificiali generative, riuscendo sul finire del 2022 a catalizzare l’attenzione del pubblico con Chat-GPT. Quasi un anno dopo, a metà novembre 2023, l’idillio è stato scosso da una crisi profonda, nel momento in cui il CEO Sam Altman è stato improvvisamente sostituito per scelta del board al termine di un «deliberative review process […] which concluded that he was not consistently candid in his communications with the board, hindering its ability to exercise its responsibilities». In altre parole, almeno apparentemente, un classico caso di abuso di asimmetria informativa tra CEO e board, per inadeguatezza dei flussi informativi.

Non è chiaro che cosa sia accaduto esattamente, e non è certo questa la sede per dedicarsi a infeconde speculazioni; è, comunque, da rilevare come le informazioni disponibili consentano di leggere la divergenza di vedute tra il board e Altman con almeno due chiavi diverse, non troppo distanti, una più tradizionale ed economica e l’altra più tecnologica. Da un lato, più familiare alla giuscommercialistica, può porsi l’accento sulla doppia anima di OpenAI, non-profit e for-profit, la prima incarnata in Altman e la seconda nel board. Mentre il primo si sarebbe eccessivamente concentrato sulla necessità di raccogliere ulteriori capitali e sulle potenzialità di crescita di OpenAI, peraltro con notevole successo, il secondo avrebbe giudicato eccessiva l’enfasi sulla dimensione for-profit, per statuto esclusivamente strumentale a quella non-profit.

Dall’altro lato, tecnologico, lo scontro può essere letto sul campo dell’AI safety, cioè dei rischi (anche esistenziali) legati allo sviluppo dell’intelligenza artificiale, alla luce della dicotomia tra AI doomers e AI accelerationists. Tali espressioni, traducibili con pessimisti e «accelerazionisti», sono ormai invalse nel settore per designare due atteggiamenti opposti nei confronti degli sviluppi degli ultimi anni: da un lato i pessimisti, più negativi, che vedono nell’IA un fenomeno potenzialmente esiziale, da sviluppare cautamente e da regolare attentamente; dall’altro gli accelerazionisti, più ottimisti, che vedono nell’IA le potenzialità per risolvere molti dei problemi che affliggono l’umanità e costruire il migliore dei mondi possibili, perseguendo dunque una strategia di sviluppo veloce, accelerato e accelerando, con minime interferenze da parte delle autorità pubbliche.

Così, mentre il board avrebbe mostrato una crescente preoccupazione per la velocità degli eventi dell’ultimo anno, ritenendo che il livello di rischio non fosse adeguatamente preso in considerazione, Altman avrebbe evitato di fornire informazioni adeguate e complete sui nuovi progetti, per continuare ad accelerare la ricerca e lo sviluppo di sistemi sempre più raffinati senza impedimenti; violando così i propri doveri informativi.

Tornando a novembre 2023, se la vicenda si fosse conclusa con l’allontanamento del CEO essa avrebbe potuto essere utilizzata — nonostante i molti punti oscuri — per dimostrare la lungimiranza del modello organizzativo scelto nel 2019, in grado di mantenere gli obiettivi di OpenAI in linea con quelli della società tutta e non dei singoli shareholders, persino a costo di rimuovere il volto di OpenAI, Sam Altman. Ciò che è davvero peculiare, però, è quanto è accaduto nei giorni (o meglio: nelle ore) seguenti.

Innanzitutto, di fronte alla fermezza del board (e alla sua incapacità di fornire spiegazioni convincenti e documentate), Microsoft — principale investitore di OpenAI — ha annunciato di aver creato una nuova divisione, assumendo Altman e Brockman (rispettivamente ex-CEO ed ex-presidente di OpenAI) e dichiarando di essere disponibile ad accogliere tutti i dipendenti di OpenAI che volessero seguirli. Nelle stesse ore, i dipendenti di OpenAI hanno scritto e sottoscritto (con un tasso di adesione superiore al 95%, almeno 743 su circa 770 dipendenti totali) una lettera aperta diretta al board, su impulso (tra gli altri) di Mira Murati, CEO ad interim nelle 48 ore successive alla rimozione di Altman.

Il contenuto e il tono di tale lettera, reperibile online, sono categorici: la scelta del board avrebbe messo a repentaglio la posizione di forza in cui si trova OpenAI, oggi «the world’s leading AI company», dimostrando così l’inadeguatezza dei consiglieri per mancanza di «competence, judgement and care» verso la missione di OpenAI e i suoi dipendenti. In particolare, e ciò è particolarmente importante, la lettera chiedeva al board di dimettersi e di reinstallare Altman nel suo ruolo originario, minacciando in caso contrario di raggiungere quest’ultimo nella nuova divisione di Microsoft.

Così, infine, di fronte alla prospettiva di compromettere irrimediabilmente l’operatività di OpenAI, il board è capitolato accettando di nominare nuovamente Altman come CEO, mutando al contempo la propria composizione con le dimissioni di due consigliere. In particolare, queste ultime — le uniche due donne nel board, l’una imprenditrice e l’altra ricercatrice — sono state sostituite da Bret Taylor, già executive di Facebook, e soprattutto Lawrence «Larry» Summers, già Segretario al Tesoro degli Stati Uniti e rettore dell’università di Harvard.

La vicenda si è conclusa, dunque, con lo stesso CEO ma con un board dalla composizione profondamente diversa. Solo il tempo consentirà di comprendere se questa diversità soggettiva e di professionalità si rifletterà anche in un cambiamento di identità di OpenAI; è, comunque, già oggi possibile svolgere alcune riflessioni.

Alcune riflessioni. Una scommessa aperta

Quella appena tratteggiata è una vicenda che, oltre ad avere un probabile impatto diretto sul futuro della ricerca nel campo dell’IA, può fungere da caso studio e punto di partenza per alcune riflessioni nell’ambito della corporate governance, con particolare riferimento alla corporate governance nell’era dell’intelligenza artificiale.

Innanzitutto, l’esperienza di OpenAI dimostra come l’antico dibattito, mai sopito, sul fine della società possa arricchirsi di soluzioni nuove, combinando tra loro istituti eterogenei che consentano di emanciparsi dagli schemi legali più tradizionali. Senza voler qui riassumere esaustivamente un tema che meriterebbe ben altro spazio, in tale dibattito possono oggi individuarsi almeno tre posizioni: a un estremo, lo shareholderism puro di chi ancora afferma il peso esclusivo degli interessi economici degli investitori; all’altro estremo, chi rigetta tali posizioni abbracciando il c.d. stakeholderism, mettendo in risalto la funzione sociale della società e l’importanza della partecipazione degli altri portatori di interessi; tra di esse, le posizioni più intermedie del c.d. enlightened shareholderism.

A ben vedere, quella di OpenAI sembra una soluzione difficilmente collocabile in questa tripartizione. Nonostante, infatti, sia certamente da negare un collocamento nella prima categoria, ciò non implica che sia immediato leggere nell’attività di OpenAI tutte le caratteristiche della seconda (o della terza) categoria. Più precisamente, rispetto ai fautori dello stakeholderism pare sussistere una convergenza sul piano dei fini, accompagnata da una divergenza sul piano dei mezzi.

Da un lato, infatti, la scelta di OpenAI è stata quella di volgere l’attività sociale all’ambizioso obiettivo di beneficio dell’umanità tutta, con un’accezione dal perimetro più ampio possibile del concetto di stakeholder, ritenendo evidentemente che il faro del profitto non possa guidare adeguatamente gli operatori economici in un settore tanto delicato. Ciò è testimoniato ad esempio da una dichiarazione di Adam D’Angelo, membro del board: «my hope is that we can do a lot more good for the world than just become another corporation that gets that big».

Dall’altro lato, però, è da notare che sul piano strutturale gli istituti classici del diritto societario sono stati ritenuti inadatti allo scopo, in contrasto dunque con l’idea per cui il fenomeno societario, nato con l’avvento del sistema capitalistico, sarebbe oggi ben capace di svolgere una funzione diversa da quella di massimizzazione del profitto. OpenAI ha scelto infatti di creare un’altra struttura di governance, peculiare, allo scopo precipuo di raccogliere capitale dagli investitori per utilizzarlo a fini di utilità sociale. Da qui, uno dei primi commentatori ha ritenuto di trarre dalla vicenda una lezione importante: «[i]f a company wants to get serious about social purpose and stakeholder welfare, it cannot rely on traditional corporate governance».

In secondo luogo, come del resto riconosciuto da questa stessa dottrina, è difficile non vedere nella vicenda di OpenAI le debolezze di una soluzione simile, il cui perno, si ricordi, è costituito da un board che agisce con logiche non-profit per gestire un’entità for-profit. Pur nella scarsità di informazioni disponibili, infatti, un dato sembra piuttosto chiaro: qualunque fossero le motivazioni dei consiglieri, il loro tentativo non ha raggiunto l’obiettivo sperato. Ciò non vale solo con riguardo a questa vicenda puntuale, ma anche con riguardo al futuro: la nuova composizione del board lascia presagire — pur senza certezze — una normalizzazione della struttura di OpenAI. Come è stato affermato, icasticamente, «A.I. Belongs to the Capitalists Now» (K. Roose, A.I. Belongs to the Capitalists Now, in New York Times, 22 novembre 2023, reperibile all’indirizzo https://www.nytimes.com/2023/11/22/technology/openai-board-capitalists.html).

Un altro aspetto che vale la pena notare è quello del ruolo dei lavoratori: è stato un peculiare e inusuale allineamento tra investitore principale (Microsoft) e lavoratori che ha causato le dimissioni del board. A tal proposito, è utile ricordare come la maggioranza del board fosse costitutivamente priva di interessi finanziari in OpenAI, a differenza dei lavoratori stessi, oggetto di politiche retributive aziendali che fanno ampio uso di strumenti partecipativi; con un’inversione rispetto alla norma che potrebbe aver giocato un ruolo importante.

Così, è stato osservato come i lavoratori(-investitori) potrebbero essere stati indotti a supportare Altman anche confidando nella straordinaria capacità di quest’ultimo di accrescere il valore delle loro partecipazioni, dato che il valore di mercato stimato di OpenAI è già decuplicato in un anno; di fronte all’alternativa, ben meno auspicabile, di un ridimensionamento del valore delle partecipazioni nel caso in cui fosse stato interrotto lo sviluppo di sistemi troppo avanzati per scelta del board. In un settore in cui il principale asset strategico è dato dal know-how tecnologico tale scelta dei lavoratori si è dimostrata decisiva, e il minacciato trasferimento di massa da OpenAI a Microsoft, che avrebbe sostanzialmente decretato la morte della prima, ha costretto il board a rimeditare le proprie scelte.

Evitato tale esito, OpenAI sembra essere sopravvissuta indenne alla vicenda, con ricavi che hanno continuato a crescere esponenzialmente — del 20% tra ottobre e dicembre 2023, secondo gli ultimi dati (non ufficiali) disponibili — e una valutazione che supererà a breve il tetto simbolico dei cento miliardi di dollari. Ciò, ovviamente, vale per il versante puramente economico, mentre sembra ancora impossibile verificare se e quanto l’equilibrio tra le due anime di cui si è discusso, for-profit e non-profit, ma in realtà anche AI doomerism e AI accelerationism, si sia trasformato in ragione delle trasformazioni che hanno interessato la composizione del board.

Per il momento, nonostante diffusi pessimismi, che vedono nella vicenda novembrina la dimostrazione della velleitarietà delle innovazioni strutturali di OpenAI, sembra difficile trarre una conclusione davvero definitiva. Molto, del resto, dipenderà da fattori extragiuridici e per il vero anche extraeconomici, e in particolare dal se, come e quando OpenAI — o un concorrente — riuscirà effettivamente a creare una intelligenza artificiale generale, cioè un’entità non umana capace di eguagliare — e finanche superare — gli esseri umani in una moltitudine indefinita di attività.

Prendendo in prestito le parole di Tullio Ascarelli riguardo alla produzione di massa, un tale evento assumerebbe i caratteri di nuovo «fatto fondamentale della civiltà moderna» (Norma giuridica e realtà sociale, oggi in Problemi giuridici, Giuffrè, Milano, 1967, 101), che imporrebbe rianalisi, ripensamenti, riforme delle sovrastrutture giuridiche di questa, ivi compreso l’ambito della corporate governance; con questioni fondamentali la cui importanza, con tutta probabilità, eclisserebbe quella della struttura di OpenAI.

Riferimenti bibliografici

Per approfondimenti cfr., oltre al sito ufficiale di OpenAI (https://openai.com), D. Coldewey, OpenAI shifts from nonprofit to ‘capped-profit’ to attract capital, 11 marzo 2019 (https://techcrunch.com/2019/03/11/openai-shifts-from-nonprofit-to-capped-profit-to-attract-capital);

B. Evans, The ‘AI doomers’ have lost this battle, in Financial Times, 25 novembre 2023 (https://www.ft.com/content/a2c29506-4a38-47a3-8775-beb5e488c169);

M. Heeter, A. Efrati, S. Palazzolo, OpenAI’s Annualized Revenue Tops $1.6 Billion as Customers Shrug Off CEO Drama, in The Information, 30 dicembre 2023 (https://www.theinformation.com/articles/openais-annualized-revenue-tops-1-6-billion-as-customers-shrug-off-ceo-drama);

A. Konrad, K. Cai, 95% Of OpenAI Employees Threatened To Resign. Visa Holders Face A Higher Risk, in Forbes, 20 novembre 2023 (https://www.forbes.com/sites/alexkonrad/2023/11/20/90-of-openai-employees-threatened-to-resign-visa-holders-face-a-higher-risk/);

Purpose, OpenAI in the Context of Steward-Ownership. Blog Post 1 on the “OpenAI Saga”, 20 dicembre 2023 (https://medium.com/@purpose_network/openai-in-the-context-of-steward-ownership-blog-post-1-on-the-openai-saga-dd07fea9eecd);

R. Tallarita, AI Is Testing the Limits of Corporate Governance, in Harvard Business Review, 5 dicembre 2023 (https://hbr.org/2023/12/ai-is-testing-the-limits-of-corporate-governance);

N. Wasserman, OpenAI’s Failed Experiment in Governance, in Harvard Business Review, 30 novembre 2023 (https://hbr.org/2023/11/openais-failed-experiment-in-governance);

The Sam Altman drama points to a deeper split in the tech world, in The Economist, 19 novembre 2023 (https://www.economist.com/business/2023/11/19/the-sam-altman-drama-points-to-a-deeper-split-in-the-tech-world);

The Employee Letter to OpenAI’s Board, in New York Times, 20 novembre 2023 (https://www.nytimes.com/interactive/2023/11/20/technology/letter-to-the-open-ai-board.html).

Sommario