La désinformation se propage à un rythme alarmant, en grande partie grâce aux outils d’IA librement accessibles. Dans une enquête récente, 85% des personnes ont déclaré craindre la désinformation en ligne, et le Forum économique mondial a classé la désinformation provenant de l’IA comme un risque mondial majeur. Quelques exemples notoires de campagnes de désinformation cette année comprennent un réseau de bots sur X ciblant les élections fédérales américaines, et un deepfake vocal du président Joe Biden décourageant certains résidents de voter. À l’étranger, des candidats dans des pays d’Asie du Sud ont inondé le web de fausses vidéos, images et articles de presse. Un deepfake du maire de Londres, Sadiq Khan, a même incité à la violence lors d’une marche pro-palestinienne.
Alors, que peut-on faire ? L’IA peut aider à combattre la désinformation autant qu’elle peut la créer, affirme Pamela San Martín, co-présidente du Conseil de surveillance de Meta. Établi en 2020, le Conseil est une organisation semi-autonome qui examine les plaintes concernant les politiques de modération de Meta et émet des recommandations sur ses politiques de contenu. San Martín reconnaît que l’IA n’est pas parfaite. Par exemple, le produit d’IA de Meta a par erreur signalé des publications du musée d’Auschwitz comme offensantes, et a mal classé des sites d’information indépendants comme du spam. Mais elle est convaincue qu’elle s’améliorera avec le temps.
“La plupart des contenus des médias sociaux sont modérés par l’automatisation, et l’automatisation utilise l’IA soit pour signaler certains contenus afin qu’ils soient examinés par des humains, soit pour signaler certains contenus afin qu’ils soient ‘actionnés’ – mettre un écran d’avertissement, le supprimer, le déclasser dans les algorithmes, etc.” a déclaré San Martín la semaine dernière lors d’un panel sur la désinformation IA à TechCrunch Disrupt 2024. “Il est prévu que [les modèles de modération de l’IA] s’améliorent, et s’ils s’améliorent, ils peuvent devenir très utiles pour lutter contre [la désinformation].”
Bien sûr, avec le coût de la désinformation en baisse grâce à l’IA, il est possible que même des modèles de modération améliorés ne puissent pas suivre le rythme. Un autre participant au panel, Imran Ahmed, PDG de l’association à but non lucratif Center for Countering Digital Hate, a également noté que les flux sociaux qui amplifient le contenu désinformatif exacerbent ses méfaits. Des plateformes telles que X encouragent effectivement la désinformation par le biais de programmes de partage de revenus – la BBC rapporte que X verse à ses utilisateurs des milliers de dollars pour des publications performantes qui comprennent des théories du complot et des images générées par l’IA. “Vous avez une machine à conneries perpétuelles”, a déclaré Ahmed. “C’est assez préoccupant. Je ne suis pas sûr que nous devrions créer cela dans des démocraties qui reposent sur un certain degré de vérité.”
San Martín a soutenu que le Conseil de surveillance a apporté certains changements ici, par exemple en encourageant Meta à étiqueter le contenu trompeur généré par l’IA. Le Conseil a également suggéré que Meta facilite l’identification des cas d’images profondes non consensuelles à caractère sexuel, un problème en croissance. Mais Ahmed et la panéliste Brandie Nonnecke, professeure à UC Berkeley qui étudie l’intersection entre les technologies émergentes et les droits de l’homme, ont tous deux rejeté l’idée que le Conseil de surveillance et l’autorégulation en général peuvent à eux seuls endiguer le flot de désinformation.
“Fondamentalement, l’autorégulation n’est pas une régulation, parce que le Conseil de surveillance lui-même ne peut répondre aux cinq questions fondamentales que l’on doit toujours poser à quelqu’un qui a le pouvoir”, a déclaré Ahmed. “Quel pouvoir avez-vous, qui vous a donné ce pouvoir, dans l’intérêt de qui utilisez-vous ce pouvoir, à qui êtes-vous responsable, et comment pouvons-nous vous débarrasser si vous ne faites pas du bon travail. Si la réponse à chacune de ces questions est [Meta], alors vous n’êtes pas une sorte de contrôle ou de frein. Vous n’êtes qu’un peu de spin RP.”