Wikipedia suspend son expérimentation de résumés générés par IA suite à des protestations des éditeurs

Generated with DALL·E 3

Wikipedia a récemment annoncé la suspension d’un projet pilote utilisant l’intelligence artificielle pour résumer des articles sur sa plateforme, après une forte contestation par ses éditeurs. Ce projet, lancé plus tôt ce mois-ci, visait à fournir des résumés générés par IA aux utilisateurs ayant installé l’extension de navigateur Wikipedia et ayant choisi de participer à l’expérience. Les résumés apparaissaient en haut de chaque article avec un label jaune indiquant qu’ils étaient “non vérifiés”. Les utilisateurs devaient cliquer pour les développer et les lire.

Les rédacteurs n’ont pas tardé à manifester leur mécontentement, craignant que l’usage de résumés automatisés nuise à la crédibilité de Wikipedia. La critique principale porte sur les erreurs fréquentes que ces résumés peuvent contenir, souvent imputables à ce que l’on appelle des “hallucinations” de l’IA. Ce phénomène se produit lorsque l’intelligence artificielle génère des informations incorrectes ou trompeuses. Des publications d’actualité ayant réalisé des expérimentations similaires, comme Bloomberg, ont dû émettre des corrections, poussées par la propagation d’informations inexactes dans leurs résumés automatisés.

Malgré la suspension du projet, Wikipedia reste intéressé par l’avenir des résumés générés par IA pour améliorer l’accessibilité de l’information.

Alors que Wikipedia a mis en pause son expérience, la plateforme a exprimé son intérêt à poursuivre le développement de résumés générés par IA dans un contexte d’amélioration de l’accès à l’information. Les effets positifs potentiels, notamment en matière d’accessibilité pour les utilisateurs ayant des difficultés qui peuvent inclure des déficiences visuelles ou d’autres besoins spécifiques, demeurent une priorité. Wikipedia est conscient des enjeux liés à la véracité des informations et s’efforce de trouver un équilibre entre innovation technologique et fiabilité des contenus.

Cette situation soulève des questions fondamentales sur l’utilisation de l’IA dans la création de contenu, en particulier dans des espaces où la véracité et la confiance sont primordiales. Les discussions autour de l’IA et de ses limites éthiques continueront probablement à s’intensifier, alors que de plus en plus d’organisations explorent des solutions technologiques innovantes. Pour l’instant, Wikipedia semble privilégier une approche prudente, soucieuse de préserver ses standards éditoriaux tout en explorant de nouvelles avenues pour enrichir l’expérience utilisateur.

Partagez cet article
article précédent

20.000 emplois supprimés au lieu de 9.000 : Nissan s’apprête à annoncer une saignée plus importante que prévue

article suivant

Multiverse Computing lève 215 millions de dollars pour une technologie qui pourrait réduire considérablement les coûts de l’IA

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles