Serve un tasto «Off» contro i rischi dell'Intelligenza Artificiale per «spegnere tutto»? L’idea degli scienziati

Una nuova ricerca propone alcune soluzioni che possano regolare l'utilizzo degli strumenti di Intelligenza Artificiale. Ecco come

I progressi dell’Intelligenza Artificiale sono sotto gli occhi di tutti, ogni giorno. Di recente OpenAI ha estratto l’ultimo coniglio dal cilindro, chiamato Sora. La nuova piattaforma di Sam Altman, al momento in fase di test, permette di creare video di realismo impressionante, partendo da un prompt. Le potenzialità senza limiti dell’IA hanno sempre preoccupato chiunque, tra motivazioni lecite e timori causati da improbabili fantascientifici film anni '80. 

Ma ad esserne affascinati e allo stesso tempo preoccupati non solo politici, ma anche ricercatori o utenti comuni, oltre agli stessi sviluppatori ed esperti di Intelligenza Artificiale. Ora alcuni scienziati  hanno proposto un sistema tanto semplice eppure ben note, poiché impiegato già in diversi ambiti, come ad esempio nel lancio non autorizzato di armi nucleari. Un «semplice» tasto «Off», o perlomeno, qualcosa di tecnologicamente sofisticato ma che si possa paragonare a un interruttore che spenga tutto: un kill switch. Questo sistema di sicurezza permette di disattivare in modo istantaneo un dispositivo o un'applicazione in caso di emergenza o utilizzo improprio, per la prevenzione di danni o abusi.

La ricerca (qui disponibile e riportata inizialmente da The Register) è stata condotta da numerosi autorevoli istituzioni e diversi ricercatori della stessa OpenAI. Nell’articolo, l’Università di Cambridge ha infatti proposto l’inserimento di un kill switch e di blocchi remoti all’interno dell’hardware che alimenta l'IA. Una soluzione che potrebbe essere il modo migliore per impedirne un uso improprio. Questo non si deve intendere come un’arma di difesa nel caso di scenari fantascientifici alla Terminator in cui l’IA vuole porre fine all’umanità, ma ha ragioni più politiche.

Gli attori che operano dietro ad un'IA

L’Intelligenza Artificiale è in grado di operare attraverso un organismo in cui vari attori entrano in gioco. C’è la parte software degli sviluppatori e ovviamente la parte hardware, composta tra gli altri elementi da chip e Gpu. I produttori hardware sono pochi, tra cui Nvidia, Amd e Intel; per addestrare i modelli più sofisticati sono necessari miliardi di parametri, che necessitano dunque di una struttura fisica di rilevante entità. Difficile che si possano facilmente nascondere gli spazi in cui migliaia di Gpu e alimentatori possano lavorare assieme in lunghi periodi di tempo, che possano essere settimane o mesi, se non anni. Frattanto che il potere di creare i modelli è in mano a poche aziende, i politici hanno più possibilità di limitarne la vendita a poche persone o Paesi.

Vien da sé che regolare l’infrastruttura di Intelligenza Artificiale potrebbe essere dunque più agevole. Fattori quali i vincoli della catena di approvvigionamento sulla produzione dei chip possono consentire alle autorità di decidere chi possa accedervi e imporre sanzioni in caso di uso improprio. Questo è un altro spunto che emerge dal documento  degli scienziati, che per altro prevede anche suggerimenti per il miglioramento della vendita di strumenti e hardware, già in fase di dispiegamento in alcuni Paesi. 

Le mosse Usa

Parlando di restrizioni alla vendita, ad esempio le scelte dell’Amministrazione Biden hanno portato all’identificazione delle aziende in grado di sviluppare i grandi modelli di IA e alle infrastrutture in grado di addestrarli, che abbiano un duplice utilizzo, in applicazioni civili e militari. 
Anche il Dipartimento del Commercio degli Stati Uniti ha proposto un regolamento che imporrebbe ai servizi cloud statunitensi di attuare politiche più rigorose, al fine di impedire a persone o Paesi di aggirare le restrizioni dell’esportazione. In particolare, dall’ente è stato proposto a rafforzare le limitazioni sull’hardware venduto alla Cina. Sforzi rilevanti, ma non perfetti

La ricerca di Cambridge propone un registro globale per le vendite di Chip per l’IA che possa monitorare nel corso del ciclo di vita, anche dopo essere stati esportati. Ogni chip disporrebbe quindi di un unico identificatore, in modo da poter combattere il contrabbando. Così facendo inoltre si potrebbe verificare il legittimo (o meno) funzionamento e scoprire se vengano violati i regolamenti. 
Il sistema proposto è dunque un’opzione tale per cui i regolatori da remoto potrebbero disabilitare (o permettere l’auto-disabilitazione) o diminuire a distanza le prestazioni delle piattaforme.

Stop all'uso improprio?

Eventuali usi impropri potrebbero - seguendo i suggerimenti della ricerca- affrontare una risposta più immediata. Anche gli aggiornamenti alla politica dei casi d’uso potrebbero essere fornito in remoto attraverso l’update del firmware. Laddove la licenza non fosse rinnovata o legittima, il regolatore potrebbe attivare un cattivo funzionamento oppure una riduzione delle prestazioni. 

Ma c'è un rovescio della medaglia: un kill switch non correttamente configurato potrebbe divenire un bersaglio da parte di criminali informatici. Tale misura insomma risulterebbe più semplice qualora nazioni rivali usufruissero del chip o della Gpu fornita per sviluppare altre forme di modalità d’attacco, che siano di tipo nucleare o batteriologico. Il kill switch disposto sul chip sarebbe di gran lunga più semplice da usufruire per poter disinnescare una minaccia imminente, anziché agire sul lato software. Una soluzione tanto semplice quanto utile per tornare a fare affari con gli attori/rivali esclusi, ma che consente allo stesso tempo di mantenere un livello di sicurezza leggermente più elevato.

18 febbraio 2024

- Leggi e commenta