En début d’année, il y avait des inquiétudes généralisées concernant l’utilisation de l’IA générative pour interférer dans les élections mondiales par la propagation de propagandes et de désinformations. En fin d’année, Meta affirme que ces craintes ne se sont pas concrétisées, du moins sur ses plateformes. En effet, la société a partagé que la technologie avait eu un impact limité sur Facebook, Instagram et Threads. Les résultats de l’entreprise sont basés sur le contenu des principales élections aux États-Unis, au Bangladesh, en Indonésie, en Inde, au Pakistan, au Parlement européen, en France, au Royaume-Uni, en Afrique du Sud, au Mexique et au Brésil.
“Il y a eu des cas confirmés ou suspectés d’utilisation de l’IA de cette manière, mais les volumes sont restés faibles et nos politiques et processus existants ont suffi à réduire le risque autour du contenu généré par l’IA”, a écrit l’entreprise dans un article de blog. “Pendant la période électorale dans les grandes élections citées ci-dessus, les notes sur le contenu de l’IA lié aux élections, à la politique et aux sujets sociaux ont représenté moins de 1% de toutes les informations vérifiées erronées.”
Meta souligne que l’utilisation de l’IA n’a pas entravé sa capacité à démanteler ces campagnes d’influence secrètes, car elle se concentre sur le comportement de ces comptes, indépendamment du contenu qu’ils publient, qu’il ait été créé ou non avec l’IA.
La société a noté que son générateur d’images Imagine AI a refusé 590 000 demandes de création d’images du président élu Trump, du vice-président élu Vance, de la vice-présidente Harris, du gouverneur Walz et du président Biden dans le mois précédant le jour de l’élection, afin d’empêcher les gens de créer des deepfakes liés à l’élection. La société a également constaté que les réseaux coordonnés de comptes qui cherchaient à propager de la propagande ou de la désinformation “n’ont réalisé que des gains de productivité et de génération de contenu en utilisant l’IA de façon progressive”.
Le géant de la technologie a également révélé qu’il avait démantelé environ 20 nouvelles opérations d’influence secrètes à travers le monde pour prévenir les ingérences étrangères. Meta affirme que la majorité des réseaux qu’il a perturbés n’avaient pas d’audiences authentiques et que certains d’entre eux utilisaient des likes et des abonnés faux pour paraître plus populaires qu’ils ne l’étaient réellement. Meta a ensuite pointé du doigt d’autres plateformes, notant que de fausses vidéos sur l’élection américaine liées à des opérations d’influence basées en Russie étaient souvent postées sur X et Telegram.
“Alors que nous faisons le bilan de ce que nous avons appris au cours de cette année remarquable, nous garderons nos politiques sous revue et annoncerons tout changement dans les mois à venir”, a écrit Meta.