Bonjour à tous, bienvenue à la newsletter régulière de TechCrunch sur l’IA. Cette semaine en IA, une nouvelle étude montre que l’IA générative n’est pas si nuisible — du moins pas dans le sens apocalyptique. Dans un article soumis à la conférence annuelle de l’Association for Computational Linguistics, des chercheurs de l’Université de Bath et de l’Université de Darmstadt soutiennent que des modèles comme ceux de la famille Llama de Meta ne peuvent pas apprendre de manière autonome ou acquérir de nouvelles compétences sans instruction explicite. Les chercheurs ont mené des milliers d’expériences pour tester la capacité de plusieurs modèles à accomplir des tâches qu’ils n’avaient jamais rencontrées auparavant, comme répondre à des questions sur des sujets qui étaient en dehors du champ de leurs données d’entraînement. Ils ont constaté que, alors que les modèles pouvaient suivre superficiellement les instructions, ils ne pouvaient pas maîtriser de nouvelles compétences par eux-mêmes.
“Notre étude montre que la peur qu’un modèle s’en aille et fasse quelque chose de complètement inattendu, d’innovant et potentiellement dangereux n’est pas valide”, a déclaré Harish Tayyar Madabushi, informaticien à l’Université de Bath et co-auteur de l’étude. “Le récit dominant selon lequel ce type d’IA représente une menace pour l’humanité empêche l’adoption généralisée et le développement de ces technologies, et détourne également l’attention des véritables problèmes qui nécessitent notre attention”.
Il y a beaucoup en jeu pour les sociétés qui soutiennent la technologie de l’IA générative, et ce qui est bon pour elles — et leurs bailleurs de fonds — n’est pas nécessairement bon pour le reste d’entre nous.
Il y a des limites à l’étude. Les chercheurs n’ont pas testé les modèles les plus récents et les plus performants de fournisseurs comme OpenAI et Anthropic, et l’établissement de points de référence pour les modèles a tendance à être une science imprécise. Mais cette recherche est loin d’être la première à constater que la technologie d’IA générative d’aujourd’hui ne représente pas une menace pour l’humanité — et qu’assumer le contraire risque de conduire à une politique malheureuse. Dans une tribune publiée dans Scientific American l’année dernière, le spécialiste de l’éthique de l’IA Alex Hanna et la professeure de linguistique Emily Bender ont soutenu que les laboratoires d’IA des entreprises détournent l’attention réglementaire vers des scénarios imaginaires de fin du monde dans le cadre d’une manœuvre bureaucratique. Ils ont fait référence à l’apparition du PDG d’OpenAI, Sam Altman, lors d’une audience du Congrès en mai 2023, au cours de laquelle il a suggéré — sans preuve — que les outils d’IA générative pourraient aller “très mal”.
“Le grand public et les agences réglementaires ne doivent pas tomber dans ce piège”, ont écrit Hanna et Bender. “Au contraire, nous devrions nous tourner vers les chercheurs et les activistes qui pratiquent l’examen par les pairs et qui s’opposent à la surenchère sur l’IA dans une tentative de comprendre ses effets néfastes ici et maintenant”. Leurs points de vue et celui de Madabushi sont essentiels à garder à l’esprit alors que les investisseurs continuent d’investir des milliards dans l’IA générative et que le cycle de la hype atteint son apogée.
L’IA générative ne risque peut-être pas de causer notre extinction. Mais elle nuit déjà d’autres manières — voyez la diffusion de la pornographie deepfake non consentie, les arrestations erronées de reconnaissance faciale et les hordes d’annotateurs de données sous-payés. On peut espérer que les responsables politiques voient cela aussi et partagent ce point de vue — ou finissent par changer d’avis. Dans le cas contraire, l’humanité pourrait bien avoir quelque chose à craindre.