‘Google ajoute des résumés alimentés par IA pour la multisearch dans Lens | TechCrunch’

Generated with DALL·E 3

En plus d’une nouvelle fonctionnalité de recherche activée par geste pour les appareils Android, Google a également introduit aujourd’hui une nouveauté alimentée par l’IA pour ses capacités de recherche visuelle dans Google Lens. Désormais, les utilisateurs pourront transférer une photo ou une capture d’écran dans Lens, puis poser une question sur ce qu’ils voient pour obtenir des réponses via l’IA générative. Cette fonctionnalité est une mise à jour des capacités de multisearch dans Lens, qui permettent aux utilisateurs web de rechercher à la fois avec du texte et des images en même temps. Auparavant, ce type de recherche conduisait les utilisateurs à d’autres correspondances visuelles, mais avec le lancement d’aujourd’hui, vous recevrez également des résultats alimentés par l’IA offrant des aperçus.

Par exemple, Google suggère que la fonctionnalité pourrait servir à en savoir plus sur une plante en prenant une photo, puis en posant la question “Quand dois-je l’arroser?”. Au lieu de simplement montrer d’autres images de la plante à l’utilisateur, cela identifie la plante et dit à l’utilisateur à quelle fréquence elle doit être arrosée, par exemple, “toutes les deux semaines”. Cette fonctionnalité repose sur des informations extraites du web, notamment des sites web, des sites de produits et des vidéos. La fonctionnalité fonctionne aussi avec les nouvelles phrases gestuelles de Google, baptisées Circle to Search.

Cela signifie que vous pouvez déclencher ces requêtes d’IA génératives avec un geste, puis poser une question sur l’élément que vous avez encerclé, griffonné ou indiqué que vous êtes intéressé à en savoir plus. Cependant, Google a précisé que si la fonction multisearch de Lens offre des aperçus génératifs par IA, ce n’est pas le même produit que l’expérimentation GenAI search SGE (Search Generative Experience) de Google, qui reste sur une base d’opt-in.

Les résumés de l’IA pour multisearch dans Lens sont lancés pour tous aux États-Unis en anglais, à partir d’aujourd’hui. Contrairement à certaines des autres expériences d’IA de Google, il n’est pas limité à Google Labs. Pour utiliser cette fonctionnalité, il suffit de cliquer sur l’icône de l’appareil photo Lens dans l’application de recherche Google pour iOS ou Android, ou dans la zone de recherche sur votre téléphone Android. Semblable à Circle to Search, l’addition vise à maintenir la pertinence de Google Search à l’ère de l’IA.

Alors que le web d’aujourd’hui est encombré de déchets optimisés pour le SEO, Circle to Search et cette capacité adjacente alimentée par l’IA dans Lens visent à améliorer les résultats de recherche en exploitant un réseau de connaissances, y compris de nombreuses pages web dans l’index de Google. Toutefois, le fait de s’appuyer sur l’IA signifie que les réponses peuvent ne pas toujours être précises ou pertinentes. Les pages web ne sont pas une encyclopédie, donc les réponses sont aussi précises que la source sous-jacente et la capacité de l’IA à répondre à une question sans “halluciner” (inventer de fausses réponses lorsque de vraies réponses ne sont pas disponibles).

Google note que ses produits GenAI, comme sa Google Search Generative Experience par exemple, citeront leurs sources, pour permettre aux utilisateurs de vérifier ses réponses. Et bien que SGE restera dans les Labs, Google a déclaré qu’il commencera à introduire des avancées de l’IA générative plus largement, lorsqu’elles sont pertinentes, comme il le fait maintenant avec les résultats de multisearch. Les aperçus de l’IA pour multisearch dans Lens arrivent aujourd’hui, tandis que le Circle basé sur des gestes arrive le 31 janvier.

Partagez cet article
article précédent

Fonction publique : les attendus de la future réforme

article suivant

La timide percée du coaching dans la territoriale

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles