Комментарии 0
...комментариев пока нет
Chi sei, crea una poesia, cos’è la fisica quantistica: ecco le domande che facciamo all’intelligenza artificiale
Come ci spiega Gemini stessa, l’intelligenza artificiale di Google (ex Bard), i modelli attualmente online di Large Language Model – le cosiddette AI generative, che si relazionano con l’utente usando il linguaggio naturale, come Gemini stessa, la rinomata ChatGpt oppure Copilot di Microsoft - sono stati resi disponibili gratuitamente a una larghissima fetta di popolazione mondiale per un motivo ben preciso: «Rendendo il modello accessibile a un vasto pubblico, si ottiene un'enorme quantità di dati di utilizzo e feedback. Questi dati sono cruciali per migliorare le prestazioni del modello, identificare i suoi punti di forza e di debolezza e adattarlo a diverse esigenze». In parole semplici, stiamo tutti – a decine di milioni ogni mese – allenando le intelligenze artificiali. Prosegue nel “ragionamento” ChatGpt: «Avendo un'ampia base di utenti che utilizzano GPT-3 gratuitamente, OpenAI può raccogliere un vasto insieme di dati e feedback per migliorare il modello stesso. Più persone lo utilizzano, più informazioni possono essere raccolte per identificare e affrontare le sue debolezze e perfezionarlo nel tempo». Forse dunque non lo sapevate, ma nel nostro continuo interrogare questo o quel modello di LLM di fatto stiamo lavorando per l’azienda che l’ha creato. Fornendo loro i nostri dati e la nostra esperienza umana, per migliorare il software.
Abbiamo quindi deciso, per curiosità giornalistica, di chiedere indietro un po’ di quanto almeno un miliardo di umani hanno immesso in un anno e mezzo di lavoro (ChatGpt è disponibile dal novembre 2022), nei database che nutrono le intelligenze artificiali. Abbiamo quindi chiesto a Gemini, ChatGpt e Copilot – le tre piattaforme più utilizzate in Italia – quali sono le domande che ricevono più di frequente da parte degli allenatori umani. Le risposte variano molto, a seconda dello stile e della temperatura (il grado di creatività e dunque di affidabilità del modello interrogato) con cui sono settati i software. E in base alle regole di “comportamento” che sono state impostate dalla casa madre.
Per esempio, interrogando Copilot si ha la netta sensazione che il software di Microsoft sia molto restio nel darci una risposta ben definita. Alla prima domanda, molto chiara – «Ciao Copilot, mi potresti dire quali sono le domande che ti vengono fatte più spesso a livello mondiale?» -, la risposta è del tutto scentrata: «Certo! Ecco alcune delle domande più frequenti che vengono poste su Google a livello globale». Quando le abbiamo fatto notare che non era la domanda che le avevamo posto – «Grazie, ma intendevo quali domande le persone fanno a te, non a Google» – la risposta fa quantomeno sorridere: «Mi scuso per la mia incomprensione! [icona di scuse profonde] Come assistente, ricevo una varietà di domande da parte degli utenti. Alcune delle richieste più comuni includono». Segue un elenco non di domande ma di argomenti generici. E neanche con una terza sollecitazione, più diretta – «Mi potresti dire la top 10 delle domande che ti vengono rivolte dagli utenti a livello mondiale?» – non è possibile ricevere una risposta diretta: ci viene restituito l’elenco generico di cui sopra, ma numerato da 1 a 10. Il dubbio è che, dato il valore - espresso dagli LLM stessi – dei dati ricevuti dagli utenti delle piattaforme (noi), l’idea di restituirli sia presa in minore considerazione del riceverli. Comunque stiano le cose, ecco quello che ci hanno risposto ChatGpt, Gemini e Copilot.
Abbiamo quindi deciso, per curiosità giornalistica, di chiedere indietro un po’ di quanto almeno un miliardo di umani hanno immesso in un anno e mezzo di lavoro (ChatGpt è disponibile dal novembre 2022), nei database che nutrono le intelligenze artificiali. Abbiamo quindi chiesto a Gemini, ChatGpt e Copilot – le tre piattaforme più utilizzate in Italia – quali sono le domande che ricevono più di frequente da parte degli allenatori umani. Le risposte variano molto, a seconda dello stile e della temperatura (il grado di creatività e dunque di affidabilità del modello interrogato) con cui sono settati i software. E in base alle regole di “comportamento” che sono state impostate dalla casa madre.
Per esempio, interrogando Copilot si ha la netta sensazione che il software di Microsoft sia molto restio nel darci una risposta ben definita. Alla prima domanda, molto chiara – «Ciao Copilot, mi potresti dire quali sono le domande che ti vengono fatte più spesso a livello mondiale?» -, la risposta è del tutto scentrata: «Certo! Ecco alcune delle domande più frequenti che vengono poste su Google a livello globale». Quando le abbiamo fatto notare che non era la domanda che le avevamo posto – «Grazie, ma intendevo quali domande le persone fanno a te, non a Google» – la risposta fa quantomeno sorridere: «Mi scuso per la mia incomprensione! [icona di scuse profonde] Come assistente, ricevo una varietà di domande da parte degli utenti. Alcune delle richieste più comuni includono». Segue un elenco non di domande ma di argomenti generici. E neanche con una terza sollecitazione, più diretta – «Mi potresti dire la top 10 delle domande che ti vengono rivolte dagli utenti a livello mondiale?» – non è possibile ricevere una risposta diretta: ci viene restituito l’elenco generico di cui sopra, ma numerato da 1 a 10. Il dubbio è che, dato il valore - espresso dagli LLM stessi – dei dati ricevuti dagli utenti delle piattaforme (noi), l’idea di restituirli sia presa in minore considerazione del riceverli. Comunque stiano le cose, ecco quello che ci hanno risposto ChatGpt, Gemini e Copilot.