Avec l’avancée fulgurante de l’intelligence artificielle, notamment des gros modèles de langage (LLMs) tels que le GPT d’OpenAI, les éditeurs de Wikipédia ont de plus en plus de périodes de stress à gérer. En plus de leur travail habituel qui consiste à éliminer les modifications malsaines faites par les humains, ils doivent désormais consacrer une part croissante de leur temps à éliminer des fillers générées par des machines. C’est un phénomène que 404 Media a exploré lors d’un entretien avec Ilyas Lebleu, un éditeur de l’encyclopédie participative, qui a contribué à la fondation du projet “WikiProject AI Cleanup”.
Ce groupe de travail s’efforce de développer des pratiques exemplaires pour détecter les contributions générées par des machines. La tâche est d’autant plus ardue que l’IA s’avère inefficace pour l’effectuer. La problématique majeure avec le contenu généré par l’IA est qu’il est presque toujours mal renseigné ou sans source fiable. Les capacités des LLMs à produire instantanément des textes plausibles ont même donné naissance à de fausses entrées entières, dans le but d’introduire des canulars au nez et à la barbe des experts humains de Wikipédia.
“Les capacités des LLMs à produire instantanément des textes plausibles ont même donné naissance à de fausses entrées entières, dans le but d’introduire des canulars au nez et à la barbe des experts humains de Wikipédia.”
Ce n’est pas un défi que les éditeurs de Wikipédia prennent à la légère. En effet, le caractère participatif de Wikipédia le rend très vulnérable à ces tentatives de manipulation par l’IA. C’est pourquoi le groupe de travail “WikiProject AI Cleanup” travaille d’arrache-pied afin de mettre au point des stratégies efficaces pour identifier et éliminer ces intrus artificiels.
Quant à l’espoir d’utiliser l’intelligence artificielle pour aider dans cette tâche, il semblerait pour l’instant qu’il soit vain. La complexité du problème nécessite une fine compréhension du langage naturel et du contexte, une capacité encore hors de portée pour l’IA actuelle. Il reste à voir comment les avancées futures pourront aider à alléger la charge de travail des éditeurs de Wikipédia dans leur lutte contre les manipulations de l’IA.