De passage à Marseille pour échanger avec les lecteurs du journal La Provence au sujet la régulation des réseaux sociaux, Emmanuel Macron a évoqué un cas d’école en matière de désinformation. «Dimanche, un de mes collègues africains m’envoie un message : ’Cher président qu’est-ce qu’il se passe chez vous ? Je suis très inquiet’ », raconte-t-il. Un homologue africain lui a transmis une vidéo publiée mercredi dernier sur Facebook, dans laquelle une journaliste, un micro «Live 24» à la main, annonce la «chute de Macron» en raison d’un «coup d’État en France par un colonel», un hélicoptère militaire survolant la Tour Eiffel en arrière-plan. La vidéo, entièrement générée par intelligence artificielle (IA), a eu le temps d’amasser plus de 200 000 likes, 9000 commentaires et 17 000 partages, et de cumuler alors plus de 13 millions de vues.
Pour faire retirer ce contenu du réseau social, les équipes d’Emmanuel Macron ont effectué un signalement auprès de la plateforme Pharos (Plateforme d’Harmonisation, d’Analyse, de Recoupement et d’Orientation des Signalements). Créé par le ministère de l’Intérieur en 2009, ce dispositif permet aux internautes de signaler aux autorités des contenus illicites en ligne. Pharos va ensuite contacter les plateformes pour demander le retrait des vidéos ou textes illégaux.
Passer la publicitéSurprise : Meta, la maison mère de Facebook, a communiqué à Pharos son refus de retirer la vidéo trompeuse, au motif qu’elle «ne contrevient pas à nos règles d’utilisation». Interrogée par le Figaro, Meta affirme avoir apposé des étiquettes sur les contenus signalés pour aider les utilisateurs à identifier celles qui ont été créées à l’aide de l’IA. Selon nos constatations, la vidéo sur le faux coup d’État indiquait que ce contenu «peut avoir été créé ou retouché numériquement pour sembler réel». Mais le groupe américain ne s’est pas plus épanché sur les raisons de son refus de modération de la vidéo.
Mais plus tard ce mercredi après-midi, cette vidéo était soudainement introuvable. La modération de Meta avait-elle fini par sévir? Contacté par le Figaro, le groupe américain indique ne pas être à l’origine de cette suppression : c’est l’auteur du contenu qui a effacé de lui-même la vidéo polémique. Mais des copies de cette dernière circulent encore, notamment sur Instagram.
Ce dernier, dont le numéro WhatsApp renvoie au Burkina Faso, vend des formations pour apprendre à créer ce type de fausses vidéos. «J’ai eu 330.000 abonnés juste en créant des vidéos avec l’IA», clame-t-il sur Facebook. Sa page publie des vidéos IA d’attaques de lions contre des motards, de vols de baleines au-dessus d’Abidjan, des «pluies de requins», ou de faux reportages télé sur la guerre en Ukraine, le Bénin... ou bien la France.
Contacté par Libération, l’auteur, Rachid B., explique avoir supprimé la vidéo incriminée «pour ne pas avoir de problèmes juridiques ou des trucs comme ça».
Non-respect du Digital Service Act
Facebook s’était engagé en 2020, peu avant les élections présidentielles américaines, à supprimer les «deepfakes». Ou plus précisément, toute vidéo prêtant à une personne des mots qu’elle n’a jamais prononcé ou qui rajoute des éléments à une scène de façon trompeuse. Mais sont exclus les contenus humoristiques ou satiriques, ce qui laisse une grande marge d’interprétation.
Passer la publicitéEn revanche, Meta est soumis au Digital Service Act (DSA), le règlement européen sur les services numériques, qui a intégré en février dernier un code de bonnes pratiques contre la désinformation que Meta a signé. Le maintien de la vidéo en question semble donc contrevenir au DSA, alors que ce dernier comprend la lutte contre les contenus illicites et les «fake news», et exige le retrait rapide du contenu en question une fois qu’un signalement est effectué.
Des enquêtes ouvertes par Bruxelles
Ce n’est pas la première fois que Meta est épinglé pour son manque de réactivité quant à la suppression de faux contenus, au même titre que d’autres plateformes du numérique, régulièrement accusées par la Commission européenne de ne pas respecter leurs obligations. Depuis l’entrée en vigueur du DSA, 5 enquêtes formelles ont été ouvertes par Bruxelles, visant notamment Meta, Tiktok, AliExpress, ou encore X. Cette dernière, ouverte en 2023, vise à déterminer si le réseau social d’Elon Musk rempli ses obligations de modération des contenus relevant de la désinformation.
Pour expliquer ce maintien de faux contenus sur les plateformes, malgré les signalements d’utilisateurs, il faut d’abord regarder du côté des algorithmes des réseaux sociaux. Ces derniers privilégient les contenus attirant les clics et les vues au détriment de la véracité, conduisant ainsi à une économie de la désinformation. Pour le patron de X Elon Musk, qui a fait du respect de la liberté d’expression son cheval de bataille, toute tentative de modération est également perçue comme une potentielle censure.
Aussi en cause : une réduction progressive des équipes de modération humaine, remplacées par des IA. Il y a près d’un an, Meta avait par ailleurs supprimé aux États-Unis son programme de financement de médias «fact checkeurs», chargés de débusquer les fausses informations circulant sur Facebook et Instagram, au nom de la liberté d’expression. Il a été remplacé par un modèle connu sous le nom de «Community Note» (notes de la communauté), popularisé par X, où les utilisateurs eux-mêmes décryptent les mensonges.
«Ces gens-là se moquent de nous»
Emmanuel Macron a ironisé sur le fait que même un président est impuissant face aux plateformes, laissant proliférer les «fake news» sans aucune modération. «J’ai tendance à penser que j’ai plus de moyens de pression que qui que ce soit. En tout cas, c’est peut-être plus simple pour leur dire que c’est grave si c’est moi qui appelle. Ça ne marche pas», expliquait le président, avant d’ajouter : «Vous voyez qu’on n’est pas équipés comme il faut. (…) Ces gens-là se moquent de nous, ils se foutent de la sérénité des débats publics, ils se moquent de la souveraineté des démocraties et donc ils nous mettent en danger».
Passer la publicitéLe président a exprimé sa volonté d’une politique, à l’échelle française et européenne, pour contraindre les plateformes à retirer les «fake news». «Quand on a des contenus manifestement faux qui mettent en danger la sécurité publique par des fausses informations qui déstabilisent, il faut pouvoir les faire retirer», a insisté Emmanuel Macron, qui défendait il y a quelques semaines une «labellisation» des médias pour lutter contre la désinformation.