Biden e il video manipolato sui social che lo accusa di pedofilia. Meta interviene: «etichetta» contro i deepfake
Il video ritrae il presidente Usa con la nipote accompagnato dalla scritta «pedofilo schifoso». Il comitato di sorveglianza di Meta: «Regole incoerenti, serve un segnale su tutti i contenuti alterati, non solo quelli generati dall'Intelligenza artificiale»

Dopo il caso recente di Taylor Swift, è Joe Biden a finire in un video manipolato (ma stavolta non generato dall'intelligenza artificiale) diventato poi virale su Facebook. Il video fake dipingeva il presidente degli Stati Uniti Joe Biden come un pedofilo con una semplice scritta, e non con i sofisticati artifici dell'AI. Le riprese infatti sono reali: il filmato ritrae il presidente che applica l'adesivo «I voted» sulla maglietta della nipotina 18enne durante le elezioni per il mid-term dell'ottobre 2022, per darle poi un bacio sulla guancia. La manipolazione è attestata nella misura in cui è accompagnato dalla didascalia «sick pedophile» (pedofilo schifoso, in italiano). Il contenuto è stato poi analizzato dal comitato di sorveglianza di Meta dopo il reclamo di un utente avvenuto lo scorso ottobre, imponendo alla società di correre ai ripari con una comunicazione ufficiale per mezzo di Nick Clegg, presidente Affari globali.
Non solo intelligenza artificiale
Dopo un'attenta disamina, il comitato - indipendente dal resto della società di Zuckerberg - ha decretato che non viola le regole dell'azienda, definendole incoerenti in quanto eccessivamente focalizzate sui contenuti generati con l'intelligenza artificiale (invece, del caso dei deep fake che ritraggono Taylor Swift in atteggiamenti sessuali espliciti su X vi abbiamo parlato qui e qui).
La critica aperta del comitato
Di conseguenza, nella piena applicazione delle regole vigenti, il comitato non ha potuto fare altro che stabilire che Meta aveva lasciato legittimamente online il video che, per l'appunto, vieta i video alterati in modo fuorviante solo se sono stati prodotti dall'intelligenza artificiale o se fanno sembrare che le persone dicano parole che non hanno mai effettivamente pronunciato. Eppure, nonostante il tema sia enorme, questa è la prima decisione del comitato che critica apertamente le regole imposte dalla società di Menlo Park. Per chi non avesse colto il punto fondamentale, la preoccupazione riguardo a contenuti come il video che riguarda Biden, è più elevata del solito in vista delle elezioni di novembre 2024. Infatti, non è un mistero che i contenuti che popolano il web possano influenzare il voto. Ma diventa deleterio se a farlo sono deep fake e simili a danno dei candidati.
Etichette anche per video manipolati
Il comitato ha affondato ulteriormente il dito nella piaga accusando la policy di Meta di mancare «di giustificazioni persuasive, è incoerente e confonde gli utenti e non specifica chiaramente i danni che sta cercando di prevenire». Ha suggerito a Meta di aggiornarla per coprire sia i contenuti audio che video, oltre ad applicare etichette che li identifichino come manipolati indipendentemente dal fatto che sia stata utilizzata l'intelligenza artificiale.
Il messaggio di Nick Clegg
Meta, la società che controlla Facebook, Instagram e Threds, è intervenuta con una dichiarazione ufficiale. «Stiamo lavorando con i partner del settore su standard tecnici comuni per identificare i contenuti di intelligenza artificiale, inclusi video e audio. Nei prossimi mesi etichetteremo le immagini che gli utenti pubblicheranno su Facebook, Instagram e Threads». Ad annunciarlo in un post ufficiale è Nick Clegg, presidente Affari globali di Meta. «Man mano che la differenza tra i contenuti umani e i contenuti creati dall'IA diventa sempre più sottile, le persone vogliono sapere qual è il confine - aggiunge -. È importante aiutare le persone a capire quando il contenuto fotorealistico che stanno vedendo è stato creato con l'IA». «Abbiamo applicato etichette alle immagini fotorealistiche create con Meta AI fin dal primo momento, in modo che le persone sappiano che sono realizzate con l'IA», ha aggiunto Clegg, sottolineando come sia importante «poterlo fare anche con i contenuti creati con gli strumenti di altre aziende». «Stiamo lavorando con i partner di settore per allinearci su standard tecnici comuni in grado di segnalare quando un contenuto è stato realizzato utilizzando l'IA. La capacità di rilevare questi segnali ci consentirà di applicare etichette alle immagini generate dall'IA che gli utenti pubblicano su Facebook, Instagram e Threads. Stiamo sviluppando questa funzionalità, e nei prossimi mesi inizieremo ad applicare le etichette in tutte le lingue supportate da ciascuna app. Questo approccio sarà adottato per tutto il prossimo anno, durante il quale si terranno importanti elezioni in tutto il mondo. In questo periodo, ci aspettiamo di imparare molto di più su come le persone creano e condividono i contenuti di IA, di quale tipo di trasparenza hanno bisogno e su come queste tecnologie si stanno evolvendo. Quello che apprendiamo guiderà le best practice di settore e il nostro approccio futuro», ha concluso Clegg.