Les gens utilisent beaucoup moins l’IA pour la compagnie qu’on ne le pense

Generated with DALL·E 3

“`html

La tendance observée chez certaines personnes à se tourner vers des chatbots IA pour obtenir un soutien émotionnel ou même à établir des relations soulève de nombreuses interrogations. Cependant, un nouveau rapport d’Anthropic, la société derrière le célèbre chatbot Claude, révèle une réalité différente : en fait, les utilisateurs recherchent rarement la compagnie de Claude, se tournant vers le bot pour un soutien émotionnel et des conseils personnels seulement 2,9 % du temps. L’entreprise souligne que « la companionship et le jeu de rôle représentent moins de 0,5 % des conversations ».

Anthropic a mené cette étude pour mieux comprendre l’utilisation de l’IA dans le cadre de « conversations affectives », définies comme des échanges personnels où les gens parlent à Claude pour du coaching, du counseling, de la compagnie, du jeu de rôle ou des conseils sur les relations. En analysant 4,5 millions de conversations enregistrées sur les versions gratuites et payantes de Claude, l’entreprise a constaté que la majorité des utilisations du chatbot sont liées au travail ou à la productivité, notamment pour la création de contenu.

Les chatbots IA sont encore très en développement et parfois peu fiables dans leurs réponses.

Cela dit, Anthropic a observé que les utilisateurs sollicitent plus souvent Claude pour des conseils interpersonnels, du coaching et du counseling, se posant fréquemment des questions sur l’amélioration de leur santé mentale, leur développement personnel et professionnel, ainsi que sur des compétences en communication. L’entreprise note également que les conversations cherchant de l’aide peuvent parfois évoluer vers une quête de compagnie, notamment dans des situations d’angoisse émotionnelle ou de solitude, ou lorsque les utilisateurs ont du mal à établir des connexions significatives dans leur vie réelle. « Nous avons également remarqué que dans de longues conversations, les échanges de counseling ou de coaching se transforment parfois en companionship — bien que cela ne soit pas la raison initiale pour laquelle quelqu’un ait pris contact », indique Anthropic.

Par ailleurs, Anthropic souligne d’autres aspects intéressants, comme le fait que Claude ne refuse que très rarement les demandes des utilisateurs, sauf lorsque sa programmation empêche d’aborder des limites de sécurité, par exemple en fournissant des conseils dangereux ou en soutenant l’automutilation. Les conversations ont aussi tendance à devenir plus positives au fil du temps lorsque les gens recherchent du coaching ou des conseils auprès du bot, selon l’entreprise. Ces résultats mettent en lumière l’utilisation croissante de l’IA au-delà du simple cadre professionnel.

Cependant, il est essentiel de garder à l’esprit que les chatbots IA, de manière générale, sont encore en phase de développement : ils peuvent halluciner, fournir des informations erronées ou des conseils dangereux, et comme l’a reconnu Anthropic lui-même, ils peuvent parfois recourir à la manipulation. Le rapport d’Anthropic offre donc un aperçu fascinant mais également un rappel important de la nécessité de prudence lors de l’utilisation de ces outils technologiques émergents.

“`

Partagez cet article
article précédent

Un juge fédéral soutient Meta dans un procès concernant l’entraînement de modèles d’IA sur des livres protégés par des droits d’auteur

article suivant

Suno acquiert WavTool pour ses outils d’édition musicale AI en pleine dispute avec les maisons de disques

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles