La vera storia del licenziamento di Altman da ChatGPT (che ricorda il Conte di Montecristo)

La vera storia del licenziamento di Altman da ChatGPT (che ricorda il Conte di Montecristo) La vera storia del licenziamento di Altman da ChatGPT (che ricorda il Conte di Montecristo)

Questo articolo è uscito sulla newsletter di scienza, innovazione e tecnologia, One More Thing, di Massimo Sideri. Per iscriversi cliccare qui.

Cosa è accaduto sul serio in ChatGPT?

Giuseppe Italiano, professore alla Luiss, ha definito sagacemente Sam Altman, il fondatore di OpenAi (cacciato da pochi giorni dal suo board proprio come accadde tanti anni fa a Steve Jobs con la Apple), “il primo licenziato dall’intelligenza artificiale”.

Aggiungo io: forse stiamo leggendo il nuovo romanzo dell’AI, una sorta di Conte di Montecristo. Edmond Dantés, nel nostro caso Sam Altman, sembra lo sconfitto. Ma forse tornerà più ricco e potente che mai. Aiutato dalla Microsoft.

Andiamo per gradi: come nel romanzo di Alexandre Dumas all’inizio è difficile capire chi si posizioni da una parte o dall’altra. Ci muoviamo tra falsi nemici e finti amici. Ma anche imprevedibili alleati. Esiste una linea Maginot che tutti noi scopriamo solo quando siamo messi alle strette dalla vita: l’etica. Un principio teorico fino a quando non siamo chiamati alla sua applicazione. E infatti vedremo che l’etica c’entra. Tutti si stanno domandando quale sarà il futuro di OpenAI, la società che controlla il prodotto di maggior successo della storia (100 milioni di utenti in poche settimane dal suo lancio lo scorso novembre, proprio un anno fa, ora arrivati a 180 milioni). Se lo domanda anche l’Mit Technology Review in questo articolo. Segue il World Economic Forum qui.

Sul tema ho anche scritto un corsivo sul mito di Prometeo e su quanto l’innovazione abbia spesso bruciato le dita (e non solo se pensiamo a Giordano Bruno) degli innovatori. Lo trovate qui.

Tutti vogliono capirci qualcosa. Ma per farlo dobbiamo capire quali siano i coprotagonisti del romanzo. Il traditore? Se non è il direttore scientifico Ilya Sutskever allora non vincerà il Nobel per la furbizia: attualmente sembra l’uomo che voleva tenere il piede in due scarpe. E’ stato lui ad annunciare ufficialmente che Altam era stato licenziato dal board di Open Ai (peraltro con una violenza che difficilmente si trova in questi comunicati ufficiali dove anche chi viene pescato a rubare generalmente, per salvare le apparenze, viene ringraziato per il suo operato. Passerà alla storia dei comunicati l’accusa di non essere stato “completamente candido nelle comunicazioni con il consiglio di amministrazione”.)

Passano poche ore e 500 dipendenti di OpenAi annunciano la secessione dell’Aventino: senza Altman andranno via. Tra le 500 firme compare quella di Sutskever. Bizzarro perlomeno. La guerra delle assunzioni. Altro co-protagonista da tenere d’occhio: al posto di Altman il board ha chiamato subito un uomo non qualunque. Appena Microsoft (si noti il principale investitore di OpenAi) ha annunciato di aver assunto direttamente Altman, OpenAi ha annunciato di aver assunto al suo posto Emmett Shear, un nome che non dirà nulla. C’è un motivo: è il cofondatore di Twitch, quell’ibrido tra un social e una piattaforma in streaming che usano i nostri figli per comunicare e che per noi Naid (Nativi Analogici Invecchiati Digitali) è irrimediabilmente incomprensibile.

Il suo arrivo è il prossimo enigma: è stato chiamato per far crescere ancora più rapidamente la base utenti (di cui chiaramente è uno specialista visto il successo tra i ragazzi di Twitch che è stato poi venduto ad Amazon) oppure per, come ha dichiarato, rallentare lo sviluppo dei prodotti per il timore che l’AI possa sfuggire di mano ai loro stessi creatori? In cosa Altman non è stato “candido” visto che aveva annunciato pubblicamente che si stava già pensando a ChatGPT 5, cioè una versione ancora più potente dell’intelligenza artificiale generativa con cui abbiamo sperimentato il dialogo con le macchine? Non che ci mancasse un dialogo con esse già prima. Ma spiego la differenza qui in una puntata precedente della newsletter su: Ecco come faremo le ricerche con ChatGPT e Google (dimenticando Italo Calvino).

Per capire bene l’oggetto del contendere dobbiamo rivedere un film stellare: Interstellar di Christopher Nolan. Nel film il personaggio principale interpretato da Matthew McConaughey parte per le sue anomalie gravitazionali einsteiniane con altri sapiens ma anche un ex robot militare. “Pronti a far parte della mia colonia di schiavi umani?” scherza il robot. McConaughey a questo punto ridefinisce il suo grado di sincerità e di ironia. “Facciamo 70%, 30%”. Curioso anche che per gli esseri umani è difficile se non impossibile settare dei parametri percentuali, tant’è che normalmente abbiamo solo tre opzioni: dire la verità, mentire, o dire mezze verità, cioè mentire a metà nascondendo delle informazioni centrali. In sostanza abbiamo solo l’opzione 100%, 0% o 50% di sincerità.

Visto che il film è stato scritto con la consulenza di un fisico premio Nobel, Kip Thorne, vale la pena sottolineare che quelle che possono sembrare delle facili citazioni nascondono in realtà il tentativo di girare un film di fantascienza che rispettasse finalmente la scienza (era questo il primo obiettivo di Thorne raccolto in parte da Nolan che ne scrisse la sceneggiatura ma che non ne fu il primo regista: la produzione, inizialmente, prevedeva dietro la cinepresa Steven Spielberg).

Anche in questa scenetta con il robot si rispetta la regola generale: l’etica per l’informatica è un filtro. Cosa fare e cosa non fare. I bot non lanciano epiteti nazisti non perché capiscano quale sia il pericolo ma semplicemente perché gli viene vietato. L’etica per gli algoritmi è un dato agnostico. Un parametro. Ma passare dalla teoria alla pratica è complesso. Come spiega in maniera chiara il filosofo Luciano Floridi nel libro Etica dell’intelligenza artificiale (pubblicato in Italia da Raffaello Cortina nella collana Scienza e Idee fondata da Giulio Giorello) “benché fa(re) soltanto del bene (beneficenza) e non fare del male (maleficenza) possano sembrare logicamente equivalenti, non lo sono e rappresentano principi distinti”.

È la differenza, copyright sempre di Floridi, tra preoccuparsi del Dottor Frankenstein o preoccuparsi del suo mostro mentre il Dottor Frankenstein ne sta magari producendo altri dieci. Cosa c’entra tutto questo con Altman? Sembra alludere a questo l’accusa di non essere candido. O, perlomeno, sembra questa la preoccupazione massima del board. Qualcuno potrà accusarci di non essere stati etici? Il problema (confronta sempre Floridi) è che nell’ansia di non essere accusate le istituzioni e le aziende stanno producendo una massa ipertrofica di norme, un po’ come in Italia facciamo continue leggi per far rispettare delle altre leggi, con il risultato di creare uno spesso strato di burocrazia che ingolfa e incancrenisce il tutto. Anche perché questa bulimia si sta concentrando sui principi benefici, più facili da vendere. In definitiva anche un omicida può uscire un giorno e fare del bene. Comportarsi bene non nega il fatto di poter fare del male. Anche in natura il principio torna: l’eccesso di cellule non è mai un bene, come anche l’eccesso di difese. Capita con le malattie autoimmuni dove il sistema immunitario reagisce mandando il suo esercito di globuli bianchi, anche quando la malattia è un fantasma autoprodotto.

Sembra filosofia. E’ filosofia. E proprio per questo è difficile da applicare agli algoritmi.

Il rischio Enron. Forse non tutti ricorderanno il crac Enron, l’unico ad aver fatto impallidire il caso Parmalat. La Enron era nota per essere una società sempre citata nel rispetto delle norme etiche. Aveva policies su tutto. Un esempio di trasparenza. Fino a quando non emerse che si trattava del più grande scandalo finanziario della corporate America nascosto proprio sotto il carapace delle norme.L’etica dell’Ai sembra andare in questa direzione: centinaia di principi che si cannibalizzano, facendo dimenticare che il Dottor Frankenstein sta lavorando in qualche altro laboratorio. Non voglio essere pessimista. Ma serve un po’ di ordine.

Lo scenario Conte di Montecristo. Dunque Altman è stato mandato via dal board presumibilmente per poter dire: noi non c’entriamo. All’inizio il mandante sembrava potesse essere Microsoft, ossessionata come tutte le big tech soprattutto dai principi di beneficenza dell’etica dell’Ai (”sviluppiamo un’intelligenza artificiale per il bene dell’umanità!”. Questo non vuole dire che non si possa usare per altri scopi. Come la rottura dell’atomo: premesso che iniziò come scoperta scientifica per poi indirizzarsi, causa guerra mondiale, velocemente verso lo scopo bellico, anche se fosse stata sviluppata prima solo per produrre energia nucleare nessuno avrebbe potuto garantire che non sarebbe stata usata per le bombe atomiche. Qui per chi non la avesse letta la puntata sul film Oppenheimer sempre di Nolan e gli errori su Enrico Fermi).

Il nodo è diventato gordiano nel momento in cui Microsoft ha annunciato di aver assunto direttamente Altman. Lo ha fatto solo per non farlo andare dalla concorrenza? Oppure per accelerare lo sviluppo dell’Ai al proprio interno facendo concorrenza a OpenAi che per paura vuole rallentare lo sviluppo di ChatGPT 5? In questa direzione sembrano portare le prime dichiarazioni. Quella di Shear che ha detto di voler rallentare il lancio dei prodotti a vantaggio di maggiori ricerche interne. E anche quella della Microsoft che ha fatto sapere che l’assunzione di Altman non significa minore attenzione per OpenAi. Insomma, Altman-Conte di Montecristo potrebbe tornare presto più ricco e potente di sempre. E se ricordate la trama del libro Edmond Dantés per vendicarsi utilizzò proprio la tecnologia delle comunicazioni per impoverire in Borsa il proprio avversario. Il telegrafo. Oggi userebbe ChatGPT.

Iscriviti alle newsletter di L'Economia

Whatever it Takes di Federico Fubini
Le sfide per l’economia e i mercati in un mondo instabile

Europe Matters di Francesca Basso e Viviana Mazza
L’Europa, gli Stati Uniti e l’Italia che contano, con le innovazioni e le decisioni importanti, ma anche le piccole storie di rilievo

One More Thing di Massimo Sideri
Dal mondo della scienza e dell’innovazione tecnologica le notizie che ci cambiano la vita (più di quanto crediamo)

E non dimenticare le newsletter
L'Economia Opinioni e L'Economia Ore 18

Corriere della Sera è anche su Whatsapp. E' sufficiente cliccare qui per iscriversi al canale ed essere sempre aggiornati.