Peu après l’annonce par Google de son nouveau protocole Universel de Commerce pour des agents d’achat alimentés par l’intelligence artificielle, un organisme de surveillance économique consacré aux consommateurs a lancé une mise en garde qui a rapidement viralement circulé sur X (anciennement Twitter). Dans un message publié dimanche, Lindsay Owens, directrice exécutive du think tank Groundwork Collaborative, a dénoncé ce qu’elle considère comme un danger potentiel pour les consommateurs, évoquant une pratique pouvant aboutir à « la surfacturation » des utilisateurs. La publication, ayant déjà été vue près de 400 000 fois, souligne ses inquiétudes face à la feuille de route de Google et à certains détails de ses documents techniques, notamment la capacité des agents à faire de la vente supplémentaire personnalisée.
Selon Owens, cette fonctionnalité pourrait permettre aux commerçants de pousser leurs clients vers des produits plus coûteux via des agents d’achat pilotés par l’IA, ce qu’elle qualifie de « surfacturation ciblée ». Elle s’inquiète également du fait que Google pourrait ajuster les prix en fonction de données personnelles, comme pour les offres de bienvenue ou les programmes de fidélité, pratique évoquée lors de l’annonce officielle du protocole par Sundar Pichai lors du congrès de la National Retail Federation. Après que TechCrunch a interrogé Google sur ces accusations, la société a rapidement publié une réponse sur X, nient formellement ces allégations.
Google affirme que ses agents commerciaux ne peuvent pas manipuler les prix et insiste sur le fait que les fonctionnalités de vente supplémentaire n’ont pas pour but de faire payer plus cher, mais d’offrir des options premium aux consommateurs.
Dans une communication séparée avec TechCrunch, un porte-parole de Google a précisé que le « Business Agent » de Google ne possède pas la capacité de modifier les prix en fonction des données personnelles des utilisateurs, et que la gestion des consentements se limite à la consolidation des actions plutôt qu’à la dissimulation d’informations. Même si les préoccupations d’Owens concernant ce protocole précis sont, selon Google, infondées, sa réflexion soulève des questions importantes. Elle met en avant le risque que les agents d’achat construits par les grandes entreprises technologiques puissent, à l’avenir, permettre aux marchands de personnaliser les prix en se basant sur l’analyse de conversations et de comportements d’achat, plutôt que d’appliquer un tarif uniforme à tous. Elle désigne ce phénomène comme la « tarification de surveillance ».
Bien que Google affirme que ses agents ne disposent pas actuellement de telles fonctionnalités, la société reste une entreprise principalement axée sur la publicité, dont le modèle repose sur la collecte et l’exploitation des données des consommateurs. La décision récente d’un tribunal fédéral obligeant Google à changer ses pratiques dans le domaine de la recherche illustre les risques d’abus potentiels associés à ces technologies. Tandis que certains se réjouissent de la perspective d’avoir une équipe d’agents IA pour gérer des tâches fastidieuses comme la reprogrammation de rendez-vous ou la recherche de nouvelles tentures, la vigilance demeure de mise face aux dérives possibles. La crainte principale est que ces outils, conçus par des acteurs aux intérêts conflictuels, puissent à terme ouvrir la porte à des pratiques de tarification discriminatoire et surveillance accrue.
La tarification personnelle via l’IA représente un risque potentiel autant que de nouvelles opportunités pour les entreprises et les startups innovantes dans un marché encore à ses balbutiements.
Face à ces préoccupations, certains startupers innovent déjà dans ce secteur. Des entreprises comme Dupe, qui utilise le langage naturel pour aider à dénicher des meubles abordables, et Beni, spécialisé dans la mode d’occasion grâce à des images et du texte, montrent que la voie de l’indépendance technologique reste ouverte. La prudence reste donc de mise : jusqu’à ce que les garde-fous soient mieux mis en place, il vaut mieux rester vigilant face aux possibles abus de l’intelligence artificielle dans le domaine du shopping personnalisé.
