L’AI Act ora è legge: il Parlamento europeo approva il primo regolamento al mondo sull'intelligenza artificiale
Con 523 voti a favore, si è concluso il lungo iter legislativo per provare a regolamentare (per la prima volta) le applicazioni di intelligenza artificiale. La legge entrerà ufficialmente in vigore tra due anni

Di un regolamento per dare delle forti e vincolanti linee guida allo sviluppo dell'intelligenza artificiale se ne parla in Europa sin dal 2021. Il lungo iter legislativo per l'AI Act si conclude oggi, 13 marzo, con il voto in plenaria del Parlamento europeo: 523 voti a favore, 46 contrari e 49 astenuti. «Accolgo con favore lo straordinario sostegno del Parlamento
europeo al nostro AI Act, le prime regole complete e vincolanti al mondo per un'AI affidabile. L'Europa è ora un regolatore globale degli standard nel campo dell'intelligenza artificiale. Stiamo regolamentando il meno possibile, ma quanto necessario!», ha commentato su X il commissario Ue al mercato interno Thierry Breton.
La legge c'è, ma per la sua piena applicazione dovremo aspettare ancora due anni. Anche se - viene specificato - alcune importanti norme, soprattutto quelle legate a ciò che sarà assolutamente proibito in Unione europea, entreranno in vigore già tra sei mesi. Mentre gli obblighi e le regole per i governi saranno attive entro 12 mesi. L'Ue si conferma ancora un volta l'ente istituzionale più attivo nella ricerca di regole e buone norme sullo sviluppo della tecnologia. Un percorso iniziato nel 2018, con il Gdpr, e proseguito con Digital Markets Act, Digital Services Act, Data Act e infine l'AI Act. La legge, questa, più complessa da redigere dopo il boom esponenziale delle applicazioni di intelligenza artificiale nell'ultimo anno - dal debutto di ChatGpt in poi - che hanno portato alla necessità da una parte di accelerare l'iter legislativo e dall'altra di profonde modifiche al testo per includere novità in continuo divenire. Le regole dedicate ai sistemi di intelligenza artificiale generativa entreranno infatti in vigore molto prima di altre, già l'anno prossimo.
Prima le regole, poi gli investimenti
Questo testo «rappresenta un chiaro percorso per lo sviluppo sicuro e umanocentrico dell'intelligenza artificiale», ha detto Brando Benifei, eurodeputato relatore dell'AI Act durante la conferenza stampa dedicata. Ci tiene poi a precisare che l'implementazione di questa legge sarà «graduale» e si partirà dai divieti. E poi aggiunge: «Il nostro lavoro non è chiuso, dobbiamo lavorare ad altre legislazioni nel prossimo mandato» e in particolare a quelle che portino l'Europa a investire nell'intelligenza artificiale «per la ricerca, per la capacità computazionale e per lo sviluppo di super computer». Un passaggio ulteriore, fondamentale per rendere il nostro continente più competitivo sul fronte tecnologico più importante dei prossimi anni. Cita poi gli investimenti che il governo Meloni ha annunciato sull'intelligenza artificiale e - dal fronte democratico - precisa: «Il governo italiano dovrebbe lavorare prima di tutto a implementare le regole e poi a trovare le risorse».
Cosa prevede l'AI Act
L'accordo sull'AI Act, a Bruxelles, è stato raggiunto lo scorso 9 dicembre dopo un lungo negoziato che ha riguardato soprattutto l'utilizzo di sistemi di identificazione biometrica in spazi pubblici. La cosiddetta «sorveglianza di massa» in Unione europea sarà una delle applicazioni proibite, a meno che non ci sia una autorizzazione giudiziaria e per elenchi di reati rigorosamente definiti. Tradotto: la si può tra utilizzare per cercare una persona condannata o ricercata per crimini gravissimi, come il rapimento o il terrorismo.
In generale il sistema messo in piedi dall'Unione europea si basa su quattro livelli di rischio. Più un'applicazione presenta rischi, più sarà limitata e controllata. Fino a quelle completamente vietate: oltre alla sorveglianza di massa, non si potranno usare in Europa i sistemi di social-scoring che possono essere utilizzati dai governi per analizzare il comportamento dei cittadini, i sistemi predittivi che potrebbe sfruttare la polizia, e i sistemi di riconoscimento emozionale in ambiente lavorativo e scolastico. L'intelligenza artificiale generativa, come ChatGpt o Gemini di Google, rientra nella categoria di applicazioni a rischio alto: le società che le sviluppano dovranno dare informazioni dettagliate su come vengono allenati i loro modelli di linguaggio - per rispettare le leggi europee sul copyright - e dovranno segnalare in modo evidente che le immagini, i video e gli audio sono stati creati dall'intelligenza artificiale. Soprattutto quando ritraggono persone realmente esistenti. A rischio limitato sono stati giudicati quei sistemi che non comportano pericoli considerevoli e che dovranno dunque assicurare un set limitato di requisiti, in primis la trasparenza ovvero spiegare in modo evidente come viene usata l'intelligenza artificiale. Mentre le applicazioni a rischio minimo non prevedono nessun obbligo legale. Sono previste sanzioni importanti per le violazioni, che arrivano fino a 35 milioni di euro o al 7 per cento dei ricavi globali della società responsabile.