Les utilisateurs d’Anthropic confrontés à un nouveau choix : se désinscrire ou partager leurs conversations pour l’entraînement de l’IA

Illustration générée par intelligence artificielle

Anthropic apporte des changements significatifs à sa gestion des données utilisateur, obligeant tous les utilisateurs de Claude à décider d’ici le 28 septembre s’ils souhaitent que leurs conversations soient utilisées pour former des modèles d’IA. Bien que la société ait renvoyé vers une publication de blog sur ces changements de politique lorsqu’on lui a demandé ce qui avait motivé cette décision, nous avons formulé quelques théories. Mais d’abord, qu’est-ce qui change : auparavant, Anthropic ne utilisait pas les données de chat des consommateurs pour l’entraînement des modèles. Désormais, l’entreprise souhaite former ses systèmes d’IA sur les conversations et les sessions de codage des utilisateurs, et elle a annoncé qu’elle prolongerait la conservation des données à cinq ans pour ceux qui ne se désinscrivent pas. C’est une mise à jour massive.

Auparavant, les utilisateurs des produits grand public d’Anthropic étaient informés que leurs invites et les résultats de leurs conversations seraient automatiquement supprimés de l’arrière-plan d’Anthropic dans un délai de 30 jours « à moins que la loi ou une politique ne l’exige pour une période plus longue » ou que leur saisie soit signalée comme violant ses politiques, auquel cas les saisies et sorties d’un utilisateur pourraient être conservées jusqu’à deux ans. Par consommateur, nous entendons que les nouvelles politiques s’appliquent aux utilisateurs de Claude Free, Pro et Max, y compris ceux utilisant Claude Code. Les clients professionnels utilisant Claude Gov, Claude for Work, Claude for Education ou l’accès API ne seront pas affectés.

Cette situation soulève des préoccupations quant à la capacité des utilisateurs à consentir véritablement à l’utilisation de leurs données.

Pourquoi ce changement ? Dans ce post sur la mise à jour, Anthropic présente les changements comme une question de choix pour l’utilisateur, disant qu’en ne se désinscrivant pas, les utilisateurs « nous aident à améliorer la sécurité des modèles, rendant nos systèmes de détection de contenus nuisibles plus précis et moins susceptibles de signaler des conversations inoffensives ». Les utilisateurs « aideront également les futurs modèles Claude à améliorer des compétences telles que le codage, l’analyse et le raisonnement, conduisant finalement à de meilleurs modèles pour tous les utilisateurs ». En gros, aidez-nous à vous aider.

Mais la vérité complète est probablement un peu moins altruiste. Comme toutes les grandes entreprises de modèles de langage, Anthropic a besoin de données plus qu’elle n’a besoin que les gens s’attachent à sa marque. Former des modèles d’IA exige d’énormes quantités de données conversationnelles de haute qualité, et accéder à des millions d’interactions de Claude devrait fournir exactement le type de contenu du monde réel qui peut améliorer le positionnement concurrentiel d’Anthropic face à des rivaux comme OpenAI et Google. Au-delà des pressions concurrentielles, ces changements semblent également refléter des évolutions plus larges de l’industrie en matière de politiques de données, alors qu’Anthropic et OpenAI font face à un examen de plus en plus attentif de leurs pratiques de rétention des données.

Ce qui est préoccupant, c’est la confusion que tous ces changements de politiques d’utilisation créent pour les utilisateurs, dont beaucoup en restent inconscients. En toute honnêteté, tout évolue rapidement maintenant, donc au fur et à mesure que la technologie change, il est inévitable que les politiques de confidentialité changent. Mais beaucoup de ces changements sont assez importants et ne sont mentionnés que brièvement parmi les autres nouvelles des entreprises. (On ne penserait pas que les changements de politique de mardi pour les utilisateurs d’Anthropic étaient des nouvelles très importantes en fonction de l’endroit où l’entreprise a placé cette mise à jour sur sa page de presse.)

Partagez cet article
article précédent

MathGPT.ai, le tuteur et assistant pédagogique « anti-tricherie », s’étend à plus de 50 établissements

article suivant

Vocal Image utilise l’IA pour aider les gens à mieux communiquer

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles