Intelligenza artificiale in sanità: l’Oms detta le «regole» per ChatGPT, Bard, Bert (e le altre)

di Ruggiero Corcella

L’Organizzazione mondiale della sanit� pubblica le nuove Linee guida su etica e governance dei modelli linguistici di grandi dimensioni (LLM o LMM) basati sull’AI

Intelligenza artificiale in sanità: l’Oms detta le «regole» per ChatGPT, Bard, Bert (e le altre)

Getty Images

Non solo il Forum economico mondiale: l’Intelligenza artificiale e le sue applicazioni in sanit� detta l’agenda anche dell’Organizzazione Mondiale della Sanit� (OMS) che torna ad occuparsi dei modelli linguistici di grandi dimensioni (Large language models): come ChatGPT, Bard e Bert , per intendersi. E lo fa pubblicando delle nuove Linee guida sull’etica e la governance dei grandi modelli multimodali (LMM), un tipo di tecnologia di Intelligenza artificiale generativa (AI) in rapida crescita con applicazioni in tutta l’assistenza sanitaria.

La guida, che si basa sulle Linee guida sull’Intelligenza artificiale in sanit� elaborate nel 2021, contiene oltre 40 raccomandazioni da prendere in considerazione da parte di governi, aziende tecnologiche e fornitori di assistenza sanitaria per garantire l’uso appropriato degli LMM per promuovere e proteggere la salute delle popolazioni.

Nel maggio del 2023, la stessa Oms aveva messo in guardia e chiesto cautela nell’uso di strumenti di modelli linguistici di grandi dimensioni (Large language models) generati dall’Intelligenza artificiale (Ai) per proteggere e promuovere il benessere umano, la sicurezza umana e l’autonomia e preservare la salute pubblica.

Necessarie informazioni e politiche �trasparenti�

Gli LMM possono accettare uno o pi� tipi di input di dati, come testo, video e immagini, e generare output diversi non limitati al tipo di dati immessi. Gli LMM sono unici per la loro imitazione della comunicazione umana e per la capacit� di svolgere compiti per i quali non sono stati esplicitamente programmati. Gli LMM sono stati adottati pi� velocemente di qualsiasi applicazione consumer nella storia, con diverse piattaforme – come ChatGPT, Bard e Bert – che sono entrate nella coscienza pubblica nel 2023. �Le tecnologie di Intelligenza artificiale generativa hanno il potenziale per migliorare l’assistenza sanitaria, ma solo se coloro che sviluppano, regolano e utilizzano queste tecnologie identificano e tengono pienamente conto dei rischi associati�, ribadisce Jeremy Farrar, capo scienziato dell’OMS. �Abbiamo bisogno di informazioni e politiche trasparenti per gestire la progettazione, lo sviluppo e l’uso di LMM per ottenere migliori risultati sanitari e superare le persistenti disuguaglianze sanitarie�.

I 5 campi di applicazione in sanit�

Le nuove linee guida dell’OMS delineano c inque ampi settori di applicazioni degli LMM per la salute:
1.Diagnosi e assistenza clinica, come rispondere alle domande scritte dei pazienti; 2.Uso guidato dal paziente, ad esempio per indagare i sintomi e il trattamento; 3.Compiti amministrativi e amministrativi, come la documentazione e il riepilogo delle visite dei pazienti all’interno delle cartelle cliniche elettroniche;
4.Formazione medica e infermieristica, compresa la fornitura ai tirocinanti di incontri simulati con i pazienti;
5.Ricerca scientifica e sviluppo di farmaci, anche per l’identificazione di nuovi composti.

Rischi e benefici potenziali deli LMM

Mentre gli LMM stanno iniziando a essere utilizzati per scopi specifici legati alla salute, ci sono anche rischi documentati di produrre dichiarazioni false, imprecise, parziali o incomplete, che potrebbero danneggiare le persone che utilizzano tali informazioni nel prendere decisioni sulla salute. Inoltre, gli LMM possono essere addestrati su dati di scarsa qualit� o distorti, in base a razza, etnia, ascendenza, sesso, identit� di genere o et�. La guida descrive anche i rischi pi� ampi per i sistemi sanitari, come l’accessibilit� e l’economicit� degli LMM con le migliori prestazioni.

L’LMM pu� anche incoraggiare il �bias di automazione� da parte degli operatori sanitari e dei pazienti, in cui vengono trascurati errori che altrimenti sarebbero stati identificati o le scelte difficili vengono impropriamente delegate a un LMM. Gli LMM, come altre forme di IA, sono anche vulnerabili ai rischi di sicurezza informatica che potrebbero mettere in pericolo le informazioni dei pazienti o l’affidabilit� di questi algoritmi e la fornitura di assistenza sanitaria pi� in generale.

La sicurezza passa attraverso il coinvolgimento di tutti gli attori

Per creare LMM sicuri ed efficaci, l’OMS sottolinea la necessit� di coinvolgere le varie parti interessate: governi, aziende tecnologiche, operatori sanitari, pazienti e societ� civile, in tutte le fasi di sviluppo e diffusione di tali tecnologie, compresa la loro supervisione e regolamentazione. �I governi di tutti i Paesi devono guidare in modo cooperativo gli sforzi per regolamentare efficacemente lo sviluppo e l’uso delle tecnologie di intelligenza artificiale, come gli LMM�, aggiunge Alain Labrique, direttore dell’OMS per la Salute digitale e l’innovazione nella Divisione scientifica.

Le raccomandazioni chiave

Le nuove linee guida dell’OMS includono raccomandazioni per i governi, che hanno la responsabilit� primaria di stabilire gli standard per lo sviluppo e la diffusione degli LMM, e la loro integrazione e l’uso per scopi medici e di salute pubblica.

Ad esempio, i governi dovrebbero:
•Investire o fornire infrastrutture pubbliche o senza scopo di lucro, compresa la potenza di calcolo e i set di dati pubblici, accessibili agli sviluppatori del settore pubblico, privato e senza scopo di lucro, che richiedono agli utenti di aderire a principi e valori etici in cambio dell’accesso.
•Utilizzare leggi, politiche e regolamenti per garantire che gli LMM e le applicazioni utilizzate nell’assistenza sanitaria e nella medicina, indipendentemente dal rischio o dal beneficio associati alla tecnologia di IA, soddisfino gli obblighi etici e gli standard sui diritti umani che incidono, ad esempio, sulla dignit�, l’autonomia o la privacy di una persona.
•Assegnare a un’agenzia di regolamentazione esistente o nuova la valutazione e l’approvazione degli LMM e delle applicazioni destinate all’uso nell’assistenza sanitaria o nella medicina, se le risorse lo consentono.
•Introdurre audit e valutazioni d’impatto obbligatori dopo la pubblicazione, anche per quanto riguarda la protezione dei dati e i diritti umani, da parte di terzi indipendenti quando un LMM � distribuito su larga scala. L’audit e le valutazioni d’impatto dovrebbero essere pubblicati e includere i risultati e gli impatti disaggregati per tipo di utente, ad esempio in base all’et�, alla razza o alla disabilit�.

Le linee guida includono anche raccomandazioni chiave per gli sviluppatori di LMM, che dovrebbero garantire che:
•Gli LMM siano progettati non solo da scienziati e ingegneri. I potenziali utenti e tutti i portatori di interessi diretti e indiretti, compresi i fornitori di servizi medici, i ricercatori scientifici, gli operatori sanitari e i pazienti, dovrebbero essere coinvolti fin dalle prime fasi dello sviluppo dell’IA in una progettazione strutturata, inclusiva e trasparente e dovrebbero avere l’opportunit� di sollevare questioni etiche, esprimere preoccupazioni e fornire contributi per l’applicazione di IA in esame.
•Gli LMM siano progettati per eseguire compiti ben definiti con l’accuratezza e l’affidabilit� necessarie per migliorare la capacit� dei sistemi sanitari e promuovere gli interessi dei pazienti. Gli sviluppatori dovrebbero anche essere in grado di prevedere e comprendere i potenziali risultati secondari.


Corriere della Sera � anche su Whatsapp. � sufficiente cliccare qui per iscriversi al canale ed essere sempre aggiornati.

18 gennaio 2024 (modifica il 18 gennaio 2024 | 15:54)

- Leggi e commenta