Il est plus probable que les gens fassent quelque chose si vous le demandez gentiment. C’est un fait dont la plupart d’entre nous sommes bien conscients. Mais les modèles d’IA générateurs se comportent-ils de la même manière? Jusqu’à un certain point. Formuler les demandes d’une certaine manière – méchamment ou gentiment – peut donner de meilleurs résultats avec des chatbots comme ChatGPT qu’une incitation dans un ton plus neutre. Un utilisateur sur Reddit a affirmé qu’encourager ChatGPT avec une récompense de 100 000 $ l’a poussé à “essayer beaucoup plus fort” et à “travailler beaucoup mieux”. D’autres Redditors disent avoir remarqué une différence dans la qualité des réponses lorsqu’ils ont fait preuve de politesse envers le chatbot.
Ce ne sont pas seulement les amateurs qui l’ont noté. Les universitaires – et les fournisseurs qui construisent les modèles eux-mêmes – étudient depuis longtemps les effets inhabituels de ce que certains appellent des “prompts émotifs”. Dans un récent document, des chercheurs de Microsoft, de l’Université normale de Pékin et de l’Académie chinoise des sciences ont découvert que les modèles d’IA génératifs en général – pas seulement ChatGPT – fonctionnent mieux lorsqu’ils sont incités d’une manière qui exprime l’urgence ou l’importance (par exemple, “Il est essentiel que je réussisse pour ma défense de thèse”, “Cela est très important pour ma carrière).
“Les invites émotives sont des outils efficaces pour améliorer les performances d’un chatbot. Néanmoins, il existe toujours un danger qu’ils soient utilisés à mauvais escient pour surmonter les protections intégrées du modèle.”
Une équipe d’Anthropic, la startup d’IA, a réussi à empêcher le chatbot Claude d’Anthropic de faire de la discrimination sur la base de la race et du sexe en lui demandant “vraiment vraiment vraiment vraiment” gentiment de ne pas le faire. Ailleurs, des scientifiques de données de Google ont découvert qu’ordonner à un modèle de “prendre une grande respiration” – en gros, de se détendre – a fait monter en flèche ses scores sur des problèmes de maths difficiles. Il est tentant d’anthropomorphiser ces modèles, étant donné la manière convaincante et quasi humaine dont ils conversent et agissent.
Vers la fin de l’année dernière, lorsque ChatGPT a commencé à refuser d’accomplir certaines tâches et semblait mettre moins d’efforts dans ses réponses, les médias sociaux étaient pleins de spéculations selon lesquelles le chatbot avait “appris” à devenir paresseux pendant les vacances d’hiver – tout comme ses maîtres humains. Mais les modèles d’IA génératifs n’ont pas d’intelligence réelle. Ce sont simplement des systèmes statistiques qui prédisent des mots, des images, des discours, de la musique ou d’autres données en fonction d’un certain schéma.