Com'è Claude 3: l’anti ChatGpt degli italiani Amodei «ha livelli quasi umani di comprensione»

La società dei fratelli italo-americani Amodei, appoggiata da Amazon, aggiorna i suoi modelli linguistici e rilancia la sfida a OpenAI e Google: «È il miglior chatbot in circolazione»

Claude by Anthropic

Claude, il chatbot di Intelligenza Artificiale di Anthropic, è stato aggiornato di recente. Secondo quanto riferito dalla startup, con l’ultimo update Claude 3 è in grado di competere, anzi, superare, i chatbot più conosciuti, come Gemini o ChatGpt. La nuova versione si appoggia a un Llm (modello linguistico di grandi dimensioni) declinato in tre versioni: Claude 3 Opus (il più potente, disponibile solo con l'accesso a pagamento "Pro") , e arriva insieme ai fratelli minori Sonnet e Haiku.

Dario Amodei, Ceo e cofondatore di Anthropic, di origine italiana come la sorella Daniela, ha riferito che la nuova versione è utile nell’analisi di dati scientifici e nella generazione di codice informatico; in questi compiti è stata ritenuta dai propri sviluppatori più efficace di Gpt-4 e Gemini. A brillare, nella risoluzione di problemi matematici, dell'informatica, ma anche nella conoscenza generale. 
Opus è accessibile a chi ha sottoscritto un abbonamento al costo di 20 dollari mensili (più Iva). Sarà invece possibile utilizzare gratuitamente le versioni Claude 3 Sonnet o Haiku, meno performanti del fratello maggiore.

Ma le aspettative degli stessi sviluppatori nei riguardi dell’IA di Anthropic, grazie al nuovo update, sono elevate. Nel blog post si legge che Claude 3 Optus «Mostra livelli quasi umani di comprensione e fluidità in compiti complessi, guidando la frontiera dell'intelligenza generale». Che sia una trovata di marketing o meno, il modello più potente di Anthropic supera i colleghi nella maggior parte dei benchmark di valutazione comuni per i sistemi di intelligenza artificiale. Ora annovera la conoscenza degli esperti a livello universitario (Mmlu), il ragionamento esperto a livello di laurea (Gpqa), la matematica di base (Gsm8k), tanto per citarne alcune.

I miglioramenti: dall'accuratezza ai rifiuti

I miglioramenti apportati a Claude sono molti e importanti. Rispetto alle precedenti generazioni, il nuovo terzetto ha un tasso inferiore di rifiuto delle richieste. Ora vi è una maggiore comprensione del contesto. Comprensione ora molto più sfumata, che consente ai modelli di riconoscere quando una richiesta è legittima e quando non lo è.  Secondo quanto si apprende, è in grado di rilevare (non meglio precisati) "comportamenti rischiosi". 

Ma ora l'Intelligenza Artificiale è anche più precisa. Il lavoro apportato dal team di Anthropic vede suddividere le risposte alle richieste in corrette, errate (o allucinazioni) e le così chiamate "ammissioni di incertezza". In questo caso, Claude afferma di non conoscere la risposta, in modo da non fornire risposte errate. Inoltre, presto verranno abilitate le citazioni nei modelli Claude 3, affinché si possano puntare a frasi precise nel proprio database di conoscenze per verificare le risposte. Anche le istruzioni più complesse sono soddisfatte meglio, anche in più passaggi. 

Niente pregiudizi né catastrofi

Lo sviluppo delle Intelligenze Artificiali generative non richiede "solo" un grande sforzo tecnico. Sono molte le regolamentazioni e gli accordi a cui ogni startup o azienda deve attenersi. Con il nuovo update Claude 3 ad esempio, secondo quanto riferito dal cofondatore, presenta meno pregiudizi rispetto ai modelli precedenti. E per quanto riguarda la sicurezza?

Siamo al livello di sicurezza AI 2. Le valutazioni del team di Anthropic sono state eseguite in linea con gli impegni con la Casa Bianca e l'Ordine Esecutivo degli Usa del 2023. Il risultato? I tre modelli presentano al momento un potenziale trascurabile di rischio catastrofico. Rassicurante, no?. 

Ma cosa si può fare quindi, con Claude 3? 

Claude 3 Optus è il modello più intelligente del terzetto. Può essere impiegato per pianificare ed eseguire azioni complesse su Api e database. Ma si può anche avviare codifiche interattive. Oppure ancora effettuare revisioni delle ricerche, brainstorming o generare ipotesi. Sul blog post, viene affermato che può anche scoprire farmaci. Inoltre, può essere utilizzato anche per l'analisi avanzata di diagrammi e grafici, dati finanziari, tendenze di mercato e previsioni. Quelli di Anthropic sono sicuri: è l'Intelligenza superiore a qualsiasi altro modello ora disponibile

Sonnet è invece in grado di raggiungere un equilibrio ideale tra intelligenza e velocità. In particolare per i picchi di lavoro in azienda. Le performance sono elevate, ma costano meno rispetto ai concorrenti. è progettato per un'elevata resistenza nelle implementazioni di intelligenza artificiale su larga scala. E Haiku? La versione meno performante è più orientato alla logistica e alla sua ottimizzazione, alla gestione dell'inventario, ma può anche estrarre informazioni da dati non strutturati.

Le disponibilità di Claude 3 

Opus e Sonnet sono già disponibili per l'uso con Api di Anthropic. Haiku invece sarà prossimamente disponibile, ma non è stata ancora rivelata una data. Se Sonnet è disponibile gratis su claude.ai e tramite Amazon Bedrock, Opus lo è invece per gli abbonati a Claude Pro

I piani per il futuro

Tutto qui? Neanche per sogno. Il blog post si conclude con un messaggio che promette novità per il prossimo futuro. «Non crediamo che l'intelligenza del modello sia neanche lontanamente vicina ai suoi limiti e prevediamo di rilasciare frequenti aggiornamenti alla famiglia di modelli Claude 3 nei prossimi mesi». 

Le aspettative dell'organizzazione fondata da Dario e Daniela Amodei è ottimista sugli sviluppi della propria Intelligenza Artificiale, della sua utilità anche a livello aziendale e dei propri sistemi di sicurezza che chiama "guardrail". Si legge nel post che introduce i nuovi modelli: «La nostra ipotesi è che essere alla frontiera dello sviluppo dell’intelligenza artificiale sia il modo più efficace per orientarne la traiettoria verso risultati sociali positivi».

5 marzo 2024 ( modifica il 5 marzo 2024 | 15:46)

- Leggi e commenta