Pu� essere ChatGPT in “buona fede”?
Perché Italia, Francia e Germania frenano sull’Ai Act? Stiamo rifacendo l’errore di Clinton sul web nel 1996
Oggi si riuniranno il Parlamento, il Consiglio e la Commissione Ue per uno degli ultimi incontri relativi alla regolamentazione dell’intelligenza artificiale. Le posizioni dei governi (tra cui l’Italia) e il caso di due avvocati che hanno usato CahtGPT nel processo

La risposta � che ChatGPT non crede. Non crede non perch� sia agnostica (come hanno concluso erroneamente nei confronti degli algoritmi i giudici della Corte Suprema Usa nel caso Twitter contro Taamneh, come scrivevo qui), ma perch� non sa.
Non sa perch� non crea delle frasi, ma semplicemente la concatenazione pi� probabile di termini. Come ha spiegato con un esempio brillante il costituzionalista e professore della Bocconi Oreste Pollicino se nel cibo fatto di informazioni con cui questi sistemi vengono addestrati ci fossero tanti documenti dove la parola Terra � molto spesso affiancata all’aggettivo piatta, ChatGPT potrebbe semplicemente dire (in buona fede) che la “Terra � piatta” senza trovare l’affermazione in contraddizione con l’accesso a documenti scientifici e incontrovertibili dove si evince che la Terra � una palla schiacciata ai poli. (Per chi non avesse avuto la possibilit� di seguire l’incontro sull’intelligenza artificiale che ho tenuto ieri al Corriere con Pollicino, Francesca Rossi, Ai Ethics Global Leader di Ibm da New York e il linguista e professore di Pavia Giuseppe Antonelli che ha analizzato l’italiano di ChatGPT, ecco il link alla registrazione che fa parte del ciclo di incontri di divulgazione scientifica della Fondazione Corriere).
Concluso che ChatGPT non pu� essere n� in buona n� in cattiva fede, non si pu� dire la stessa cosa per gli esseri umani e in particolare, visto che parliamo di processi, per gli avvocati. Steven Schwartz e Peter LoDuca di New York sono stati sanzionati lo scorso giugno da un giudice americano per un caso che mostra in maniera lampante, come ha spiegato Francesca Rossi, i danni dell’uso non corretto di queste tecnologie: Schwartz e LoDuca difatti si sono presentati nel processo dove erano chiamati ad intervenire con ben sei precedenti a favore del proprio cliente (il sistema americano si basa sulla capacit� di dimostrare che il caso in questione � simile a un caso in cui nel passato c’� stata gi� una decisione, per cui le sentenze stesse sono fonte del diritto). Con un piccolo caveat... i due avvocati avevano dato da studiare il caso a ChatGPT, cio� all’intelligenza generativa, che cos� aveva “generato” - nel vero senso del termine - sei casi che non erano mai esistiti.
Se il giudice non se ne fosse accorto ChatGPT avrebbe fatto la sentenza e sarebbe diventata essa stessa fonte del diritto. Un terremoto: come se l’Ai potesse intervenire sul codice civile o penale e aggiungere un articolo che non � mai stato pensato dal legislatore.
I due avvocati si sono dichiarati non colpevoli perch�, appunto, in buona fede: non avevano capito come funzionasse ChatGPT e pensavano che i sei casi fossero veri (in un sistema in cui le stesse sentenze sono fonte di diritto � impossibile conoscere tutte le sentenze della storia americana. Di qualunque Stato. Qualunque citt�, villaggio, contrada, anno). Se avessero studiato il diritto romano bene avrebbero dovuto sapere che ignorantia legis non excusat. Altrimenti basterebbe dire di non sapere che con il semaforo rosso bisogna fermarsi per non rispettare i codice della strada e mettere in pericolo gli altri.
L’esempio mostra quanto, sebbene non sia intelligente, e nemmeno agnostico (nella sentenza del caso Twitter la sentenza ha dichiarato sempre la scorsa estate che l’algoritmo non ha colpe visto che tratta l’Isis e il terrorismo come qualunque altra informazione: appunto!!!) ChatGPT possa infiltrarsi potenzialmente addirittura nelle sentenze creando la legge del futuro. In questo caso il tentativo � emerso. Ma possiamo essere certi che non sia accaduto in altre sentenze? O che non accadr� mai per conseguenza, magari, di due delle qualit� distintive dell’uomo, la pigrizia e la disattenzione?
Tutto ci� per ricordare che oggi si riuniranno il Parlamento, il Consiglio e la Commissione Ue per definire come procedere sull’Ai Act, l’insieme di norme che andranno a regolamentare l’utilizzo dell’intelligenza artificiale in Europa e a difesa dei cittadini europei. Non � un caso che molti scienziati, intellettuali e pensatori abbiano raccolto delle firme per una lettera aperto indirizzata a Giorgia Meloni, Emmanuel Macron e Olaf Scholz (cio� i leader dei tre Paesi che stanno se non remando contro frenando) per chiedere che non si depotenzi l’Ai Act passando da una regolamentazione da parte delle istituzioni a una forma di auto-regolamentazione delle aziende.
Perch� sarebbe ingenuo: tra business ed etica la scelta sar� quella del business, come ha dimostrato anche, sebbene in maniera non del tutto chiara, il caso di Sam Altman, il fondatore proprio di OpenAi, la societ� di ChatGPT (ne avevo scritto qui). Questo s� che non sarebbe in buona fede.
Ps, peraltro faremmo lo stesso errore fatto nel 1996 con la famosa Sezione 230 voluta da Bill Clinton e Al Gore per non far morire il bambino web in culla: la rete venne affrancata a priori e ad infinitum dalla responsabilit� editoriale. E il risultato � che ancora oggi combattiamo con le piattaforme che non possono essere considerate responsabili nemmeno se usano i propri algoritmi per sponsorizzare i video dell’Isis, come nel caso della scorsa estate.
Ps2, sembra che tra i motivi che stanno spingendo i tre Paesi a frenare su una regolamentazione stringente ci sia il fatto che molti sistemi di pubblica sicurezza basati sull’Ai non potrebbero essere usati dai governi. Meditiamo.
Corriere della Sera � anche su Whatsapp. � sufficiente cliccare qui per iscriversi al canale ed essere sempre aggiornati.
6 dicembre 2023 (modifica il 6 dicembre 2023 | 00:13)
© RIPRODUZIONE RISERVATA