Chi sei, crea una poesia, cos’è la fisica quantistica: ecco le domande che facciamo all’intelligenza artificiale

Come ci spiega Gemini stessa, l’intelligenza artificiale di Google (ex Bard), i modelli attualmente online di Large Language Model – le cosiddette AI generative, che si relazionano con l’utente usando il linguaggio naturale, come Gemini stessa, la rinomata ChatGpt oppure Copilot di Microsoft - sono stati resi disponibili gratuitamente a una larghissima fetta di popolazione mondiale per un motivo ben preciso: «Rendendo il modello accessibile a un vasto pubblico, si ottiene un'enorme quantità di dati di utilizzo e feedback. Questi dati sono cruciali per migliorare le prestazioni del modello, identificare i suoi punti di forza e di debolezza e adattarlo a diverse esigenze». In parole semplici, stiamo tutti – a decine di milioni ogni mese – allenando le intelligenze artificiali. Prosegue nel “ragionamento” ChatGpt: «Avendo un'ampia base di utenti che utilizzano GPT-3 gratuitamente, OpenAI può raccogliere un vasto insieme di dati e feedback per migliorare il modello stesso. Più persone lo utilizzano, più informazioni possono essere raccolte per identificare e affrontare le sue debolezze e perfezionarlo nel tempo». Forse dunque non lo sapevate, ma nel nostro continuo interrogare questo o quel modello di LLM di fatto stiamo lavorando per l’azienda che l’ha creato. Fornendo loro i nostri dati e la nostra esperienza umana, per migliorare il software.
​Abbiamo quindi deciso, per curiosità giornalistica, di chiedere indietro un po’ di quanto almeno un miliardo di umani hanno immesso in un anno e mezzo di lavoro (ChatGpt è disponibile dal novembre 2022), nei database che nutrono le intelligenze artificiali. Abbiamo quindi chiesto a Gemini, ChatGpt e Copilot – le tre piattaforme più utilizzate in Italia – quali sono le domande che ricevono più di frequente da parte degli allenatori umani. Le risposte variano molto, a seconda dello stile e della temperatura (il grado di creatività e dunque di affidabilità del modello interrogato) con cui sono settati i software. E in base alle regole di “comportamento” che sono state impostate dalla casa madre. 
​Per esempio, interrogando Copilot si ha la netta sensazione che il software di Microsoft sia molto restio nel darci una risposta ben definita. Alla prima domanda, molto chiara – «Ciao Copilot, mi potresti dire quali sono le domande che ti vengono fatte più spesso a livello mondiale?» -, la risposta è del tutto scentrata: «Certo! Ecco alcune delle domande più frequenti che vengono poste su Google a livello globale». Quando le abbiamo fatto notare che non era la domanda che le avevamo posto – «Grazie, ma intendevo quali domande le persone fanno a te, non a Google» – la risposta fa quantomeno sorridere: «Mi scuso per la mia incomprensione! [icona di scuse profonde] Come assistente, ricevo una varietà di domande da parte degli utenti. Alcune delle richieste più comuni includono». Segue un elenco non di domande ma di argomenti generici. E neanche con una terza sollecitazione, più diretta – «Mi potresti dire la top 10 delle domande che ti vengono rivolte dagli utenti a livello mondiale?» – non è possibile ricevere una risposta diretta: ci viene restituito l’elenco generico di cui sopra, ma numerato da 1 a 10. Il dubbio è che, dato il valore - espresso dagli LLM stessi – dei dati ricevuti dagli utenti delle piattaforme (noi), l’idea di restituirli sia presa in minore considerazione del riceverli. Comunque stiano le cose, ecco quello che ci hanno risposto ChatGpt, Gemini e Copilot.