Bonjour à tous et bienvenue dans la newsletter régulière de TechCrunch sur l’IA. Cette semaine en IA, l’IA générative commence à polluer la publication universitaire, un nouveau développement décourageant sur le front de la désinformation. Dans un article sur Retraction Watch, un blog qui suit les récentes rétractations d’études universitaires, les professeurs adjoints de philosophie Tomasz Żuradzk et Leszek Wroński ont écrit au sujet de trois revues publiées par Addleton Academic Publishers qui semblent être composées entièrement d’articles générés par l’IA.
Les revues contiennent des articles qui suivent le même modèle, excessivement chargés de mots à la mode tels que “blockchain”, “métaverse”, “internet des objets” et “apprentissage profond”. Ils énumèrent le même comité de rédaction – dont 10 membres sont décédés – et une adresse sans descriptive à Queens, à New York, qui semble être une maison. Alors, vous pourriez demander, quel est le problème? Parcourir le contenu généré par l’IA et encombré de spam n’est-il pas simplement le coût à payer pour faire des affaires sur Internet de nos jours? Eh bien, oui.
Mais les fausses revues montrent à quel point il est facile de manipuler les systèmes utilisés pour évaluer les chercheurs pour les promotions et l’embauche, et ceci pourrait être un signe avant-coureur pour les travailleurs du savoir dans d’autres industries.
Sur au moins un système d’évaluation largement utilisé, CiteScore, les revues se classent dans le top 10 pour la recherche en philosophie. Comment est-ce possible? Ils se citent mutuellement de manière extensive. (CiteScore tient compte des citations dans ses calculs.) Żuradzk et Wroński ont constaté que, sur 541 citations dans l’une des revues de Addleton, 208 proviennent des autres fausses publications de l’éditeur. “[Ces classements] servent fréquemment aux universités et aux organismes de financement comme indicateurs de la qualité de la recherche,” ont écrit Żuradzk et Wroński. “Ils jouent un rôle crucial dans les décisions concernant les prix universitaires, l’embauche et la promotion, et peuvent donc influencer les stratégies de publication des chercheurs.”
On pourrait soutenir que CiteScore est le problème – il est clairement un indicateur imparfait. Et ce n’est pas une mauvaise argumentation à faire. Mais il n’est pas non plus faux de dire que l’IA générative et son abus perturbent les systèmes dont dépendent les moyens de subsistance des gens de manière inattendue – et potentiellement très dommageable. Il y a un futur dans lequel l’IA générative nous pousse à repenser et à réorganiser des systèmes comme CiteScore pour être plus équitables, holistiques et inclusifs. L’alternative plus sombre – et celle qui se joue actuellement – est un avenir dans lequel l’IA générative continue à semer la pagaille, provoquant des ravages et ruinant des vies professionnelles. J’espère vraiment que nous pourrons rectifier le tir rapidement.