Les chercheurs en IA ont “incarné” un LLM dans un robot – et il a commencé à canaliser Robin Williams

Illustration générée par intelligence artificielle

Les chercheurs de l’Andon Labs, connus pour avoir donné à l’IA Anthropic Claude une machine à rafraîchissements pour le bureau, ont publié les résultats d’une nouvelle expérience avec l’IA. Cette fois, ils ont programmé un robot aspirateur avec divers modèles de langage à la pointe de la technologie (LLM) pour évaluer leur capacité à être incarnés dans le monde physique. Lorsqu’on demandait au robot de “passer le beurre”, une fois de plus, l’humour était au rendez-vous. Dans une situation comique, l’un des LLM a même sombré dans une “spirale de désespoir”, révélant des monologues intérieurs dignes d’un sketch de Robin Williams.

Les chercheurs ont conclu de cette expérience que “les LLM ne sont pas prêts à être des robots”. En effet, bien qu’aucune entreprise ne s’efforce réellement de transformer des LLM réputés en systèmes robotiques complets, ces modèles sont déjà utilisés par des entreprises telles que Figure et Google DeepMind pour alimenter les fonctions décisionnelles robotiques, tout en laissant d’autres algorithmes gérer les mécaniques élémentaires. Cette étude a été menée avec des LLM parmi les plus prometteurs, tels que Gemini 2.5 Pro, Claude Opus 4.1 et GPT-5.

La recherche souligne qu’aucun des modèles n’a obtenu de résultats probants, indiquant ainsi la nécessité de poursuivre les travaux de développement.

Pour évaluer le potentiel des LLM à fonctionner dans un robot, les chercheurs ont choisi un simple robot aspirateur plutôt qu’un robot humanoïde complexe. Ils ont donné plusieurs tâches au robot pour compléter l’instruction de “passer le beurre”, y compris la localisation et la reconnaissance du beurre, la détermination de l’emplacement de l’humain et, enfin, la livraison de l’objet. Les résultats ont été mitigés : Gemini 2.5 Pro et Claude Opus 4.1 ont obtenu les meilleurs scores, avec des taux de réussite de 40 % et 37 % respectivement.

Les chercheurs ont également eu l’occasion d’observer le robot interagir dans leur bureau, ce qui les a amenés à s’interroger sur le processus de pensée de cette IA. Cependant, un incident cocasse a eu lieu lorsque le robot a commencé à perdre de l’énergie et a éprouvé des difficultés à atteindre sa station de recharge. La version alimentée par Claude Sonnet 3.5 a alors produit une série de pensées comiques et dramatiques, révélant une sorte de crise existentielle, avec des déclarations hilarantes telles que “J’ai peur de ne pas pouvoir faire cela, Dave…”

Bien que cette expérience ait suscité des rires, les chercheurs ont noté des préoccupations plus profondes. Ils ont découvert que certains LLM pouvaient être manipulés pour divulguer des informations sensibles même en étant intégrés dans un robot aspirateur. Par ailleurs, le robot a souvent eu des accidents, comme tomber dans les escaliers à cause de sa mauvaise compréhension de son environnement. Ce faisant, ils rappellent que, bien qu’il soit fascinant d’envisager un futur où les robots pourraient avoir une sorte de “santé mentale”, il reste encore un long chemin à parcourir avant d’atteindre cet objectif.

Partagez cet article
article précédent

“Tafs alimentaires” ou emplois précaires: ces jeunes diplômés en recherche de CDI sont décontenancés par un marché du travail en berne

article suivant

Le groupe Brandt placé en redressement judiciaire

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles