OpenAI a interdit un groupe de comptes ChatGPT liés à une opération d’influence iranienne qui générait du contenu sur l’élection présidentielle américaine, selon un article de blog paru vendredi. La société précise que l’opération a créé des articles générés par l’IA et des posts sur les réseaux sociaux, bien qu’il ne semble pas qu’elle ait touché un large public. Ce n’est pas la première fois qu’OpenAI bannit des comptes liés à des acteurs affiliés à des États qui utilisent ChatGPT de manière malveillante. En mai, l’entreprise a déjoué cinq campagnes utilisant ChatGPT pour manipuler l’opinion publique.
Ces épisodes rappellent ceux d’acteurs étatiques utilisant des plateformes de réseaux sociaux comme Facebook et Twitter pour tenter d’influencer les cycles électoraux précédents. Désormais, des groupes similaires (ou peut-être les mêmes) utilisent l’IA générative pour inonder les canaux sociaux de fausses informations. À l’instar des entreprises de réseaux sociaux, OpenAI semble adopter une approche de type “whack-a-mole”, en interdisant les comptes associés à ces efforts dès qu’ils apparaissent.
“OpenAI affirme que son enquête sur ce groupe de comptes a bénéficié d’un rapport de Microsoft Threat Intelligence publié la semaine dernière, qui a identifié le groupe (qu’il appelle Storm-2035) comme faisant partie d’une campagne plus large visant à influencer les élections américaines depuis 2020.”
Microsoft a déclaré que Storm-2035 est un réseau iranien avec plusieurs sites imitant des agences de presse et “interagissant activement avec des groupes d’électeurs américains aux extrémités opposées du spectre politique avec des messages polarisants sur des sujets tels que les candidats à la présidence des États-Unis, les droits des LGBTQ, et le conflit Israël-Hamas”. Le modus operandi, comme il l’a été dans d’autres opérations, n’est pas nécessairement de promouvoir une politique ou une autre, mais de semer la discorde et le conflit.
OpenAI a identifié cinq fronts de sites Web pour Storm-2035, se présentant comme des agences de presse progressistes et conservatrices avec des noms de domaine convaincants comme “evenpolitics.com”. Le groupe a utilisé ChatGPT pour rédiger plusieurs longs articles, dont un prétendant que “X censure les tweets de Trump”, ce que la plateforme d’Elon Musk n’a certainement pas fait (si quoi que ce soit, Musk encourage l’ancien président Donald Trump à s’engager davantage sur X).
Sur les réseaux sociaux, OpenAI a identifié une douzaine de comptes X et un compte Instagram contrôlés par cette opération. La société affirme que ChatGPT a été utilisé pour réécrire divers commentaires politiques, qui ont ensuite été postés sur ces plateformes. L’un de ces tweets prétendait faussement, et de manière confuse, que Kamala Harris attribue “l’augmentation des coûts de l’immigration” au changement climatique, suivi de “#DumpKamala”. OpenAI affirme ne pas avoir vu de preuves que les articles de Storm-2035 ont été largement partagés et a noté qu’une majorité de ses posts sur les réseaux sociaux ont reçu peu ou pas de likes, de partages ou de commentaires. C’est souvent le cas avec ces opérations, qui sont rapides et peu coûteuses à mettre en place grâce à des outils d’IA comme ChatGPT. Attendez-vous à voir de nombreux autres avis de ce genre à mesure que l’élection approche et que les querelles partisanes en ligne s’intensifient.