Meta, la société mère de Facebook, a annoncé qu’elle commencera à étiqueter les images générées par l’intelligence artificielle (AI) sur ses plateformes pour lutter contre la désinformation. Les étiquettes indiqueront lorsqu’un contenu a été créé à l’aide de l’AI et seront progressivement déployées au cours de l’année prochaine. Meta travaille avec des partenaires de l’industrie pour développer des normes communes pour identifier l’AI générative.
Cependant, la détection des vidéos et des audios générés par l’AI reste un défi, car les techniques de marquage et de tatouage ne sont pas largement adoptées. Meta modifie sa politique pour exiger des utilisateurs qu’ils divulguent s’ils publient une vidéo photoréalistique générée par l’AI ou un audio réaliste. Le non-respect de cela peut entraîner des pénalités en vertu des normes de la communauté de Meta.
“L’entreprise envisage également d’utiliser des grands modèles de langage (LLMs) pour appliquer ses politiques lors de moments de risque accru, comme les élections.”
L’adoption de ces nouvelles régulations et l’investissement dans la détection d’IA font partie des efforts constants de Meta pour la protection des utilisateurs et la prévention de la désinformation. Les menaces potentielles et la manipulation de l’information, en particulier pendant les périodes électorales, augmentent l’importance de ces mesures. Lutte contre la désinformation nécessite de plus en plus l’adoption de technologies sophistiquées, et Meta espère montrer le chemin à suivre.
Ces annonces marquent un tournant dans le monde des médias sociaux, où le contenu généré par l’IA devient de plus en plus courant et réaliste, le rendant quasiment indiscernable du contenu créé par des humains. Cette initiative de Meta souligne la nécessité que les sociétés de technologie prennent des mesures proactives pour assurer la transparence et minimiser la désinformation dans l’ère numérique.