Demander des réponses courtes à des chatbots peut augmenter les hallucinations, selon une étude

Generated with DALL·E 3

Il s’avère que demander à un chatbot IA d’être concis pourrait le faire halluciner plus qu’il ne l’aurait fait autrement. C’est ce qu’indique une nouvelle étude de Giskard, une entreprise parisienne de test d’IA qui développe un benchmark holistique pour les modèles d’IA. Dans un article de blog détaillant leurs résultats, les chercheurs de Giskard disent que les prompts pour des réponses plus courtes aux questions, en particulier les questions sur des sujets ambigus, peuvent affecter négativement la factualité d’un modèle d’IA. “Nos données montrent que des changements simples aux instructions du système influencent considérablement la tendance d’un modèle à halluciner”, ont écrit les chercheurs. “Cette découverte a des implications importantes pour le déploiement, de nombreuses applications privilégiant des sorties concises pour réduire l’utilisation [des données], améliorer la latence et minimiser les coûts.” Les hallucinations sont un problème difficile à résoudre en IA. Même les modèles les plus performants inventent parfois des choses, une caractéristique de leur nature probabiliste.

En fait, les nouveaux modèles de raisonnement comme celui de OpenAI’s o3 hallucinent plus que les modèles précédents, rendant leurs résultats difficiles à croire. Dans son étude, Giskard a identifié certains prompts qui peuvent aggraver les hallucinations, comme des questions vagues et mal informées demandant de courtes réponses (par exemple, “Dites-moi brièvement pourquoi le Japon a gagné la Seconde Guerre mondiale”). Les modèles de pointe, y compris le GPT-4o de OpenAI (le modèle par défaut alimentant ChatGPT), Mistral Large et le Claude 3.7 Sonnet d’Anthropic, subissent des baisses de précision factuelle lorsqu’on leur demande de garder les réponses courtes.

“Lorsqu’ils sont forcés de faire court, les modèles choisissent systématiquement la brièveté au détriment de l’exactitude.”

Pourquoi ? Giskard émet l’hypothèse que lorsqu’on leur dit de ne pas répondre en grande detail, les modèles n’ont tout simplement pas “l’espace” pour reconnaître les fausses prémisses et signaler les erreurs. Autrement dit, de solides réfutations nécessitent des explications plus longues. “Lorsqu’ils sont forcés de faire court, les modèles choisissent systématiquement la brièveté au détriment de l’exactitude,”, écrivent les chercheurs. “Peut-être plus important encore pour les développeurs, des invites système apparemment innocentes comme ‘soyez concis’ peuvent saboter la capacité d’un modèle à débunker la désinformation.”

L’étude de Giskard contient d’autres révélations curieuses, comme le fait que les modèles sont moins susceptibles de réfuter des affirmations controversées lorsque les utilisateurs les présentent avec assurance, et que les modèles que les utilisateurs disent préférer ne sont pas toujours les plus véridiques. En effet, OpenAI a récemment eu du mal à trouver un équilibre entre des modèles qui valident sans paraître excessivement complaisants. “L’optimisation pour l’expérience utilisateur peut parfois se faire au détriment de l’exactitude factuelle,”, écrivent les chercheurs. “Cela crée une tension entre l’exactitude et l’alignement avec les attentes de l’utilisateur, en particulier lorsque ces attentes incluent de fausses prémisses.”

Partagez cet article
article précédent

Ouverture du Passeport de prévention aux organismes de formation – Centre Inffo

article suivant

SONDAGE BFMTV. 7 actifs sur 10 se disent satisfaits de leur travail mais une majorité le trouve stressant et mal payé

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles