Wikipedia sévère la réglementation sur l’utilisation de l’IA dans la rédaction des articles

Alors que l’intelligence artificielle (IA) continue de s’immiscer dans les domaines de l’édition et des médias, les plateformes en ligne cherchent à définir des règles claires pour encadrer cette nouvelle donne. Cette semaine, Wikipedia a annoncé une nouvelle politique interdisant explicitement l’utilisation de textes générés par des modèles linguistiques de grande taille (LLMs) par ses éditeurs bénévoles. Si cette mesure ne proscrit pas totalement l’usage de l’IA sur le site, elle pose néanmoins un cadre strict quant à ses applications. La plateforme précise désormais que « l’utilisation de LLMs pour générer ou réécrire le contenu des articles est interdite », ce qui constitue une clarification par rapport à la politique précédente, plus floue, qui évoquait simplement que ces outils « ne devraient pas être utilisés pour créer de nouveaux articles à partir de zéro ».

Ce changement de cap a été adopté à la suite d’un vote auprès de la communauté de Wikipedia, majoritairement favorable à cette nouvelle orientation. Le processus de décision a recueilli 40 voix en faveur contre 2, témoignant d’un consensus modéré, mais clair, sur l’opportunité de limiter l’usage de l’IA. La nouvelle politique laisse cependant une marge de manœuvre aux éditeurs, en leur permettant d’utiliser ces outils pour suggérer des modifications de base ou des corrections, à condition que ces suggestions soient validées par une revue humaine. « Les éditeurs peuvent utiliser les LLM pour proposer des corrections de leur propre rédaction, avec une révision humaine préalable, à condition que l’IA ne génère pas de contenu inédit ou modifié de façon substantielle », indique le nouveau règlement.

« La prudence s’impose, car les LLM peuvent aller au-delà de ce qui est demandé et modifier le sens du texte sans support dans les sources citées. »

Cette décision s’inscrit dans un contexte plus large où la question de l’éthique et de la véracité du contenu généré par l’IA devient un enjeu majeur pour les plateformes collaboratives. La crainte de voir des informations erronées ou manipulées introduites dans l’encyclopédie en ligne est au cœur des préoccupations. La plateforme insiste ainsi sur la nécessité d’un contrôle humain strict, afin d’éviter la diffusion de données incorrectes ou non vérifiées, tout en permettant une certaine utilisation des technologies avancées pour améliorer l’efficience des processus éditoriaux. La clé réside donc dans un équilibre entre innovation et rigueur, pour préserver la crédibilité de l’encyclopédie collaborative.

Partagez cet article
article précédent

L’IA dans les processus d’orientation (Journées Vincent Merle) – Centre Inffo

article suivant

Une première mondiale : l’État de Victoria en Australie grave dans la loi le droit à 2 jours de télétravail par semaine (les opposants dénoncent un gouvernement qui ne comprend pas l’économie)

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles