Wikipedia a récemment annoncé la suspension d’un projet pilote utilisant l’intelligence artificielle pour résumer des articles sur sa plateforme, après une forte contestation par ses éditeurs. Ce projet, lancé plus tôt ce mois-ci, visait à fournir des résumés générés par IA aux utilisateurs ayant installé l’extension de navigateur Wikipedia et ayant choisi de participer à l’expérience. Les résumés apparaissaient en haut de chaque article avec un label jaune indiquant qu’ils étaient “non vérifiés”. Les utilisateurs devaient cliquer pour les développer et les lire.
Les rédacteurs n’ont pas tardé à manifester leur mécontentement, craignant que l’usage de résumés automatisés nuise à la crédibilité de Wikipedia. La critique principale porte sur les erreurs fréquentes que ces résumés peuvent contenir, souvent imputables à ce que l’on appelle des “hallucinations” de l’IA. Ce phénomène se produit lorsque l’intelligence artificielle génère des informations incorrectes ou trompeuses. Des publications d’actualité ayant réalisé des expérimentations similaires, comme Bloomberg, ont dû émettre des corrections, poussées par la propagation d’informations inexactes dans leurs résumés automatisés.
Malgré la suspension du projet, Wikipedia reste intéressé par l’avenir des résumés générés par IA pour améliorer l’accessibilité de l’information.
Alors que Wikipedia a mis en pause son expérience, la plateforme a exprimé son intérêt à poursuivre le développement de résumés générés par IA dans un contexte d’amélioration de l’accès à l’information. Les effets positifs potentiels, notamment en matière d’accessibilité pour les utilisateurs ayant des difficultés qui peuvent inclure des déficiences visuelles ou d’autres besoins spécifiques, demeurent une priorité. Wikipedia est conscient des enjeux liés à la véracité des informations et s’efforce de trouver un équilibre entre innovation technologique et fiabilité des contenus.
Cette situation soulève des questions fondamentales sur l’utilisation de l’IA dans la création de contenu, en particulier dans des espaces où la véracité et la confiance sont primordiales. Les discussions autour de l’IA et de ses limites éthiques continueront probablement à s’intensifier, alors que de plus en plus d’organisations explorent des solutions technologiques innovantes. Pour l’instant, Wikipedia semble privilégier une approche prudente, soucieuse de préserver ses standards éditoriaux tout en explorant de nouvelles avenues pour enrichir l’expérience utilisateur.