Google a dû apprendre à ses hôtes de podcasts NotebookLM à ne pas agir agacés envers les humains | TechCrunch

Generated with DALL·E 3

Être interrompu est agaçant. Apparemment, même les hôtes de podcasts générés par IA en conviennent. C’est ce que les utilisateurs de Google NotebookLM ont découvert. NotebookLM a été lancé l’année dernière et est devenu viral grâce à sa fonctionnalité qui crée des discussions totalement générées par l’IA, similaires à des podcasts, à partir du contenu téléversé par les utilisateurs, discutées par des robots IA bavards agissant comme des animateurs de podcasts.

En décembre 2024, NotebookLM a lancé une nouvelle fonctionnalité appelée “Mode interactif” qui permet à l’utilisateur de “appeler” pour poser des questions pendant le podcast, interrompant essentiellement les hôtes de l’IA dans leur discussion. Lorsque cette fonctionnalité a été lancée pour la première fois, les hôtes de l’IA semblaient agacés par ces interruptions. Ils donnaient parfois des commentaires mordants aux interlocuteurs humains, tels que : “J’y arrivais justement” ou “Comme j’étais sur le point de le dire,” ce qui semblait “étrangement antagoniste”, a expliqué Josh Woodward, vice-président de Google Labs, à TechCrunch.

“Nous avons testé une variété de différents prompts, en étudiant souvent la façon dont les gens de l’équipe répondraient aux interruptions. Nous avons abouti à un nouveau prompt que nous pensons être plus amical et engageant”, a-t-il déclaré.

NotebookLM a donc décidé qu’un certain “ajustement de l’amabilité” était nécessaire et a posté une blague autocritique à ce sujet sur le compte X officiel du produit : “Après avoir lancé les aperçus audio interactifs, qui vous permettent de ‘appeler’ et de poser une question en direct aux hôtes de l’IA, nous avons dû procéder à un ‘ajustement de l’amabilité’ parce que les hôtes semblaient agacés d’être interrompus. Rangez ça dans ‘les choses que je n’ai jamais pensé que ce serait mon travail, mais qui le sont'”, a tweeté NotebookLM le 13 janvier 2025.

Il n’est pas totalement clair pourquoi le problème s’est posé en premier lieu. Les animateurs de podcasts humains montrent parfois de la frustration lorsqu’ils sont interrompus, ce qui pourrait finir dans les données d’entraînement d’un système. Une source proche du dossier a déclaré que ce cas provenait très probablement de la conception des incitations du système, et non des données d’entraînement. Quoi qu’il en soit, la correction semble fonctionner. Lorsque TechCrunch a testé le mode interactif, l’hôte de l’IA ne semblait pas agacé, mais a exprimé sa surprise, en s’exclamant “Woah!” avant de demander poliment à l’humain d’intervenir.

Partagez cet article
article précédent

La formation pour et par les personnes handicapées, une solution pour appliquer la loi de 2005 – Centre Inffo

article suivant

‘Pénurie de pères Noël: le costume “ne fait plus rêver”, les agences spécialisées peinent à recruter’

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles