Intelligenza artificiale: arriva la stretta dell’Ue, così ChatGpt è fuorilegge
ROMA. L’Europa avrà una legge per mitigare l’impatto dell’Intelligenza artificiale. Si chiama Ai Act ed è la prima al mondo che mette paletti all’uso di questa tecnologia. Obiettivo: difendere privacy e diritti fondamentali. Tutto ruota sul concetto di rischio. E il legislatore europeo ha deciso di dividerlo per gradi: zero, limitato, elevato e inaccettabile. Per trovare la quadra ci sono volute 35 ore di negoziati. Il trilogo più lungo della storia dell’Ue. Ma alla fine il confronto tra Parlamento e governi ha portato a un accordo. «Storico», come lo ha definito il Commissario Thierry Breton. Arrivato al termine di una estenuante maratona a Bruxelles, raccontata in tempo reale sui social, tra foto di capannelli di discussione e cestini stracolmi di bicchieri di caffè e carte di barrette energetiche. L’accordo doveva essere trovato prima della pausa natalizia. E delle elezioni europee. Così è stato.
L’Ai Act è il nuovo punto di riferimento per le legislazioni che proveranno a sfruttare i benefici dell’Intelligenza artificiale, ma proteggendosi dai suoi rischi. Come l’impatto che avrà sul mondo del lavoro, la minaccia di sostituire gli umani, la disinformazione, la sorveglianza di massa, la sicurezza nazionale. Manca ancora qualche passaggio legislativo per arrivare alla sua definitiva entrata in vigore. Ma l’accordo politico c’è. E in qualche modo si porta dietro l’ultimo anno di discussioni sull’intelligenza artificiale. L’approccio basato sul rischio di questa tecnologia è una conseguenza di quel dibattito.
L’Ia pone sfide interessanti e minacce inedite. Si è deciso di vietare le applicazioni che rappresentano un rischio inaccettabile per la sicurezza delle persone. Come la polizia predittiva (l’uso di strumenti che profilano le persone per prevedere la possibilità di comportamenti criminali) o il social scoring (in italiano ‘credito sociale’, l’assegnazione di un punteggio alle persone in relazione al loro comportamento). Così come è stato vietato l’uso dell’Ia per il riconoscimento delle emozioni nei luoghi di lavoro e l’identificazione biometrica in tempo reale in spazi pubblici da parte delle forze dell’ordine. Tutte misure finalizzate a tutelare la privacy e la dignità delle persone e evitare la sorveglianza di massa. La polizia predittiva e il riconoscimento biometrico sono stati tra gli aspetti più dibattuti. Con Italia, Ungheria e Francia a guidare la fronda di chi voleva ammorbidire le restrizioni. Parigi, in particolare, in vista delle Olimpiadi del 2024 ha avviato diversi progetti di Ia in chiave anti terroristica.
«Alcuni governi, compreso quello italiano, avrebbero voluto più mano libera nel mettere sotto controllo i cittadini. Ma hanno trovato un muro invalicabile da parte nostra», ha commentato Brando Benifei, eurodeputato Pd e negoziatore per l’Eurocamera. L’approccio è basato sul rischio: interno, come l’uso dell’Ia da parte dei governi, ma anche esterno, come quello che arriva dalle aziende del settore. L’Europa chiederà alle società un’attenta valutazione.I produttori di modelli linguistici di grandi dimensioni (ChatGpt e consorelle) dovranno attenersi ai nuovi requisiti di trasparenza e condividere con il regolatore europeo i dati sull’addestramento delle loro Ai, cosa che ora non fanno. Chatbot e software che creano testi e immagini manipolate (nome tecnico, deepfake) dovranno indicare la natura artefatta dei loro prodotti. Tutte le aziende che useranno Ai dovranno fornire all’autorità europea la prova di avere calcolato e valutato ogni rischio possibile. Chi non si attiene alle regole rischia multe pari al 7% del fatturato aziendale.
Nessun timore di un’Ia futura in grado di rimpiazzare l’umanità, piuttosto attenzione a quella che già c’è e che già è in grado - se applicata senza criterio - di sorvegliare le persone, violarne la vita privata, modificarne la comprensione del mondo e dei fatti. In sintesi, mettere a rischio cittadini e democrazie. Tuttavia, per consentire che l’innovazione vada avanti sono previste zone franche per dare la possibilità alle aziende di sperimentare nuove soluzioni basate sull’Ia, con esenzioni alle norme (nome tecnico, sandbox). Sono previsti incentivi per le start-up e eccezioni per le Pmi per consentire loro di adeguarsi alle normative. Così come sono previste eccezioni per la ricerca accademica e i progetti di intelligenza artificiale open source (con codice aperto, quindi sempre consultabili). Dettagli di una legge che rappresenta un traguardo significativo, ma che è solo l’inizio di un percorso.