
AI Act, ecco perché le nuove regole preoccupano consumatori e aziende tech
L’Europa ha fatto la sua puntata sul futuro, approvando il 9 dicembre il primo regolamento al mondo sull’intelligenza artificiale, l’AI Act. Ha trovato una soluzione di compromesso tra diverse istanze, tale da attirarsi già i primi plausi e le prime critiche. Le associazioni consumatori europee sono tutto sommato scontente, a quanto scrive la loro associazione Beuc (che ne raccoglie 45 in 31 Paesi): il regolamento non tutelerebbe abbastanza gli utenti dai pericoli dell’IA (intelligenza artificiale). Soddisfatta invece al momento l’industria della cultura e del copyright, minacciata dall’IA che riesce a generare testi, film e canzoni: “un bel risultato, hanno accolto le nostre istanze”, è il primo commento che arriva a Repubblica da Enzo Mazza, presidente delle Fimi (Federazione industria musicale italiana).
Il testo dell’IA Act non è definitivo; Consiglio, Parlamento e Commissione UE hanno raggiunto una intesa di massima e ora si lavora ai dettagli. Dove – si sa – spesso si annidano i problemi, ecco perché al momento traspare prudenza tra i giuristi, che aspettano di leggere il testo finale per giudicare le tutele previste ai diritti fondamentali. Così ci riferisce Guido Scorza, del Garante Privacy, e il l’avvocato di settore Rocco Panetta. Già è noto però che il Consiglio – che rappresenta i governi – ha ottenuto che fosse permesso l’uso della biometria con l’IA per motivi di sicurezza. Si pensa in particolare al riconoscimento facciale in tempo reale o su video registrati. Contro il rischio di sorveglianza massima, il Parlamento europeo aveva applicato un bando a questi utilizzi, nel testo, che però ora saranno possibili; ma solo per reati gravi. "Bene che sui diritti fondamentali non ci siano state troppe cessioni", dice Panetta. “Ben vedo la presenza di una valutazione d’impatto sui diritti fondamentali, che andrà a rinforzare quello che già facciamo nel settore della protezione dei dati personali”, aggiunge.
Un’altra parte in causa è l’industria dell’innovazione europea, che ha già dichiarato da sentirsi minacciata da regole troppo gravose. Timori ora confermati, perché l’Europa ha scelto di applicare regole stringenti anche all’IA generativa, l’ultima innovazione (tipo ChatGpt). Lo conferma ora a Repubblica Eleonora Faina, di Anitec – Assinform, associazione che rappresenta le aziende tecnologiche italiane: si teme che le nostre startup innovative siano penalizzate da obblighi eccessivi da rispettare, richiesti dall’Europa.

L’impatto sui consumatori
Bilancio deludente anche per i consumatori, a sentire il Beuc. “L'aspetto positivo è che l'AI Act dell'UE vieta il social scoring, troppo avvilente e discriminatorio per i consumatori. La legge sull'intelligenza artificiale conferisce inoltre ai consumatori alcuni diritti, come la possibilità di presentare un reclamo a un'autorità pubblica contro un sistema di intelligenza artificiale o di chiedere un risarcimento collettivo se un sistema di intelligenza artificiale causa un danno di massa”, si legge in una nota pubblicata dopo l’approvazione del testo. “Tuttavia, la legge presenta diverse lacune e difetti dal punto di vista dei consumatori”.
Ad esempio “i sistemi di IA in grado di identificare e analizzare i sentimenti dei consumatori (sistemi di riconoscimento delle emozioni) saranno ancora consentiti, il che è molto preoccupante visto quanto sono invasivi e imprecisi”. “La legge sull'IA si concentra inoltre pesantemente sui sistemi di IA ad alto rischio, lasciando sostanzialmente privi di regolamentazione troppi sistemi come i giocattoli dotati di IA o gli assistenti virtuali”. Altra critica, “i modelli alla base di sistemi come Chat-GPT, che possono essere integrati in un'ampia gamma di servizi, non saranno sufficientemente regolamentati. Ad esempio, non è previsto l'obbligo di sottoporre tali modelli alla verifica di una terza parte indipendente, né saranno soggetti a requisiti di trasparenza sufficienti a garantire un controllo pubblico”.
Ecco Gemini, l’IA più potente di Google: comprende la fisica e la matematica

Ursula Pachl, vicedirettore generale dell'Organizzazione europea dei consumatori (BEUC), ha dichiarato: "La legge sull'AI contiene punti positivi e negativi, ma nel complesso le misure per proteggere i consumatori sono insufficienti. I consumatori sono giustamente preoccupati per il potere e la portata dell'intelligenza artificiale e per il modo in cui può portare a manipolazioni e discriminazioni, ma la legge sull'intelligenza artificiale non affronta sufficientemente queste preoccupazioni”.
"Ci sono tuttavia alcune disposizioni importanti che permetteranno ai consumatori di agire se sono stati trattati ingiustamente o se sono stati danneggiati. Ad esempio, potranno adire un tribunale come gruppo se un sistema di intelligenza artificiale ha causato un danno di massa”, continua. Insomma, "nel complesso, l'AI Act avrebbe dovuto fare di più per proteggere i consumatori”.
L’impatto sulle aziende
Se per i consumatori l’IA Act avrebbe potuto fare di più, le aziende innovative ritengono che chieda loro troppo, come detto. “L’Europa ha scelto di regolare la tecnologia alla base dell’IA generativa e non solo i suoi usi”, dice Faina; si conferma così il timore di Digital Europe, l’associazione europea delle aziende tecnologiche che chiedeva invece regole più leggere, vicine all’autoregolamentazione delle aziende tecnologiche per innovazioni di frontiera come appunto l’IA generativa. “La preoccupazione condivisa da noi con tutte le associazioni di categoria e Digital Europe è che questo regolamento preveda costi di adeguamento enormi a carico delle imprese, gravando proprio su quelle pmi e startup che vorrebbe sostenere”, dice Faina.

I fornitori di sistemi di intelligenza artificiale generici come ChatGpt devono fornire tutte le informazioni necessarie per rispettare gli obblighi della legge sull'IA alle aziende a valle che creano un'applicazione considerata dal regolamento ad “alto rischio” nei confronti dei diritti fondamentali; perché ad esempio riguarda la Sanità, il lavoro, la giustizia.
Ai fornitori di componenti integrati in un sistema di IA ad alto rischio da parte di una pmi o di una startup viene anche impedito di imporre unilateralmente condizioni contrattuali inique; questa è una tutela dei consumatori. “È necessario affiancare a questo regolamento programmi e risorse per acquisire competenze nell’IA e sostenere gli investimenti delle imprese. Altrimenti saremo leader nelle regole ma ritardatari nell’innovazione”; dice Faina.
Le sanzioni in caso di violazioni
Le sanzioni amministrative per chi viola le regole sono fissate in una somma minima o in una percentuale del fatturato globale annuo dell'azienda, se quest'ultima è più alta. Per le violazioni più gravi delle applicazioni vietate, le multe possono raggiungere il 6,5% o 35 milioni di euro, il 3% o 15 milioni di euro per le violazioni degli obblighi dei fornitori di sistemi e modelli e l'1,5% o mezzo milione di euro per la mancata fornitura di informazioni accurate.
La legge sull'IA si applicherà due anni dopo la sua entrata in vigore, con una riduzione a sei mesi per i divieti assoluti (tipo sul social scoring). I requisiti per i sistemi di IA ad alto rischio, i modelli di IA potenti, gli organismi di valutazione della conformità e il capitolo sulla governance inizieranno ad essere applicati un anno prima. Il regolamento prevede molti atti delegati che dovranno essere gli Stati a fare “e che allungheranno i tempi di attuazione”, prevede Faina. La presidenza spagnola prevede zone di atterraggio per l'applicazione della legge nel regolamento sull'IA.
La presidenza spagnola del Consiglio dell'UE ha chiesto agli Stati membri flessibilità nel delicato settore dell'applicazione della legge. Ora sta quindi anche ai singoli Stati giocare al meglio la partita per l’attuazione delle regole, insieme a quella degli investimenti. Il Governo ha cominciato a lavorare a una nuova Strategia sull’IA e sta per stanziare circa un miliardo di euro per lo sviluppo nazionale di questa tecnologia.