Non solo il Forum economico mondiale: l’Intelligenza artificiale e le sue applicazioni in sanit� detta l’agenda anche dell’Organizzazione Mondiale della Sanit� (OMS) che torna ad occuparsi dei modelli linguistici di grandi dimensioni (Large language models): come ChatGPT, Bard e Bert , per intendersi. E lo fa pubblicando delle nuove Linee guida sull’etica e la governance dei grandi modelli multimodali (LMM), un tipo di tecnologia di Intelligenza artificiale generativa (AI) in rapida crescita con applicazioni in tutta l’assistenza sanitaria.
Intelligenza artificiale in sanità: l’Oms detta le «regole» per ChatGPT, Bard, Bert (e le altre)
L’Organizzazione mondiale della sanit� pubblica le nuove Linee guida su etica e governance dei modelli linguistici di grandi dimensioni (LLM o LMM) basati sull’AI

Getty Images
La guida, che si basa sulle Linee guida sull’Intelligenza artificiale in sanit� elaborate nel 2021, contiene oltre 40 raccomandazioni da prendere in considerazione da parte di governi, aziende tecnologiche e fornitori di assistenza sanitaria per garantire l’uso appropriato degli LMM per promuovere e proteggere la salute delle popolazioni.
Nel maggio del 2023, la stessa Oms aveva messo in guardia e chiesto cautela nell’uso di strumenti di modelli linguistici di grandi dimensioni (Large language models) generati dall’Intelligenza artificiale (Ai) per proteggere e promuovere il benessere umano, la sicurezza umana e l’autonomia e preservare la salute pubblica.
Necessarie informazioni e politiche �trasparenti�
Gli LMM possono accettare uno o pi� tipi di input di dati, come testo, video e immagini, e generare output diversi non limitati al tipo di dati immessi. Gli LMM sono unici per la loro imitazione della comunicazione umana e per la capacit� di svolgere compiti per i quali non sono stati esplicitamente programmati. Gli LMM sono stati adottati pi� velocemente di qualsiasi applicazione consumer nella storia, con diverse piattaforme – come ChatGPT, Bard e Bert – che sono entrate nella coscienza pubblica nel 2023. �Le tecnologie di Intelligenza artificiale generativa hanno il potenziale per migliorare l’assistenza sanitaria, ma solo se coloro che sviluppano, regolano e utilizzano queste tecnologie identificano e tengono pienamente conto dei rischi associati�, ribadisce Jeremy Farrar, capo scienziato dell’OMS. �Abbiamo bisogno di informazioni e politiche trasparenti per gestire la progettazione, lo sviluppo e l’uso di LMM per ottenere migliori risultati sanitari e superare le persistenti disuguaglianze sanitarie�.
I 5 campi di applicazione in sanit�
Le nuove linee guida dell’OMS delineano c inque ampi settori di applicazioni degli LMM per la salute:
1.Diagnosi e assistenza clinica, come rispondere alle domande scritte dei pazienti; 2.Uso guidato dal paziente, ad esempio per indagare i sintomi e il trattamento; 3.Compiti amministrativi e amministrativi, come la documentazione e il riepilogo delle visite dei pazienti all’interno delle cartelle cliniche elettroniche;
4.Formazione medica e infermieristica, compresa la fornitura ai tirocinanti di incontri simulati con i pazienti;
5.Ricerca scientifica e sviluppo di farmaci, anche per l’identificazione di nuovi composti.
Rischi e benefici potenziali deli LMM
Mentre gli LMM stanno iniziando a essere utilizzati per scopi specifici legati alla salute, ci sono anche rischi documentati di produrre dichiarazioni false, imprecise, parziali o incomplete, che potrebbero danneggiare le persone che utilizzano tali informazioni nel prendere decisioni sulla salute. Inoltre, gli LMM possono essere addestrati su dati di scarsa qualit� o distorti, in base a razza, etnia, ascendenza, sesso, identit� di genere o et�. La guida descrive anche i rischi pi� ampi per i sistemi sanitari, come l’accessibilit� e l’economicit� degli LMM con le migliori prestazioni.
L’LMM pu� anche incoraggiare il �bias di automazione� da parte degli operatori sanitari e dei pazienti, in cui vengono trascurati errori che altrimenti sarebbero stati identificati o le scelte difficili vengono impropriamente delegate a un LMM. Gli LMM, come altre forme di IA, sono anche vulnerabili ai rischi di sicurezza informatica che potrebbero mettere in pericolo le informazioni dei pazienti o l’affidabilit� di questi algoritmi e la fornitura di assistenza sanitaria pi� in generale.
La sicurezza passa attraverso il coinvolgimento di tutti gli attori
Per creare LMM sicuri ed efficaci, l’OMS sottolinea la necessit� di coinvolgere le varie parti interessate: governi, aziende tecnologiche, operatori sanitari, pazienti e societ� civile, in tutte le fasi di sviluppo e diffusione di tali tecnologie, compresa la loro supervisione e regolamentazione. �I governi di tutti i Paesi devono guidare in modo cooperativo gli sforzi per regolamentare efficacemente lo sviluppo e l’uso delle tecnologie di intelligenza artificiale, come gli LMM�, aggiunge Alain Labrique, direttore dell’OMS per la Salute digitale e l’innovazione nella Divisione scientifica.
Le raccomandazioni chiave
Le nuove linee guida dell’OMS includono raccomandazioni per i governi, che hanno la responsabilit� primaria di stabilire gli standard per lo sviluppo e la diffusione degli LMM, e la loro integrazione e l’uso per scopi medici e di salute pubblica.
Ad esempio, i governi dovrebbero:
•Investire o fornire infrastrutture pubbliche o senza scopo di lucro, compresa la potenza di calcolo e i set di dati pubblici, accessibili agli sviluppatori del settore pubblico, privato e senza scopo di lucro, che richiedono agli utenti di aderire a principi e valori etici in cambio dell’accesso.
•Utilizzare leggi, politiche e regolamenti per garantire che gli LMM e le applicazioni utilizzate nell’assistenza sanitaria e nella medicina, indipendentemente dal rischio o dal beneficio associati alla tecnologia di IA, soddisfino gli obblighi etici e gli standard sui diritti umani che incidono, ad esempio, sulla dignit�, l’autonomia o la privacy di una persona.
•Assegnare a un’agenzia di regolamentazione esistente o nuova la valutazione e l’approvazione degli LMM e delle applicazioni destinate all’uso nell’assistenza sanitaria o nella medicina, se le risorse lo consentono.
•Introdurre audit e valutazioni d’impatto obbligatori dopo la pubblicazione, anche per quanto riguarda la protezione dei dati e i diritti umani, da parte di terzi indipendenti quando un LMM � distribuito su larga scala. L’audit e le valutazioni d’impatto dovrebbero essere pubblicati e includere i risultati e gli impatti disaggregati per tipo di utente, ad esempio in base all’et�, alla razza o alla disabilit�.
Le linee guida includono anche raccomandazioni chiave per gli sviluppatori di LMM, che dovrebbero garantire che:
•Gli LMM siano progettati non solo da scienziati e ingegneri. I potenziali utenti e tutti i portatori di interessi diretti e indiretti, compresi i fornitori di servizi medici, i ricercatori scientifici, gli operatori sanitari e i pazienti, dovrebbero essere coinvolti fin dalle prime fasi dello sviluppo dell’IA in una progettazione strutturata, inclusiva e trasparente e dovrebbero avere l’opportunit� di sollevare questioni etiche, esprimere preoccupazioni e fornire contributi per l’applicazione di IA in esame.
•Gli LMM siano progettati per eseguire compiti ben definiti con l’accuratezza e l’affidabilit� necessarie per migliorare la capacit� dei sistemi sanitari e promuovere gli interessi dei pazienti. Gli sviluppatori dovrebbero anche essere in grado di prevedere e comprendere i potenziali risultati secondari.
Corriere della Sera � anche su Whatsapp. � sufficiente cliccare qui per iscriversi al canale ed essere sempre aggiornati.
18 gennaio 2024 (modifica il 18 gennaio 2024 | 15:54)
© RIPRODUZIONE RISERVATA