Google introduit une nouvelle fonctionnalité de recherche visuelle alimentée par l’IA
En plus d’une nouvelle fonctionnalité de recherche basée sur les gestes pour les appareils Android, Google a également introduit aujourd’hui une extension alimentée par l’IA de ses capacités de recherche visuelle dans Google Lens. À partir d’aujourd’hui, les utilisateurs pourront pointer leur appareil photo ou télécharger une photo ou une capture d’écran sur Lens, puis poser une question sur ce qu’ils voient pour obtenir des réponses via l’IA générative.
Une nouvelle fonctionnalité pour la recherche multisearch dans Lens
La fonctionnalité est une mise à jour des capacités de recherche multisearch dans Lens, qui permet aux utilisateurs de rechercher à la fois du texte et des images en même temps. Auparavant, ce type de recherche renvoyait les utilisateurs vers d’autres correspondances visuelles, mais avec le lancement d’aujourd’hui, vous recevrez également des résultats alimentés par l’IA qui offrent des informations supplémentaires.
Créditos de las imágenes : Google
Par exemple, Google suggère que la fonctionnalité pourrait être utilisée pour en savoir plus sur une plante en prenant une photo de la plante, puis en demandant « Quand dois-je arroser cela ? ». Au lieu de simplement montrer à l’utilisateur d’autres images de la plante, elle identifie la plante et informe l’utilisateur de la fréquence à laquelle elle doit être arrosée, par exemple « toutes les deux semaines ». Cette fonctionnalité repose sur des informations tirées du web, y compris des informations trouvées sur des sites web, des sites de produits et dans des vidéos.
La fonctionnalité fonctionne également avec les nouveaux gestes de recherche de Google, appelés Circle to Search. Cela signifie que vous pouvez lancer ces requêtes génératives d’IA avec un geste, puis poser une question sur l’élément que vous avez entouré, griffonné ou indiqué d’une autre manière pour en savoir plus.
Cependant, Google a précisé que bien que la fonctionnalité de recherche multisearch de Lens offre des informations génératives d’IA, ce n’est pas le même produit que l’expérience de recherche GenAI de Google, qui reste accessible uniquement sur invitation.
Créditos de las imágenes : Google
Les aperçus alimentés par l’IA pour la recherche multisearch dans Lens sont lancés pour tous les utilisateurs aux États-Unis en anglais, à partir d’aujourd’hui. Contrairement à certaines autres expériences d’IA de Google, elle n’est pas limitée aux Laboratoires Google. Pour utiliser la fonctionnalité, il vous suffit de toucher l’icône de l’appareil photo de Lens dans l’application de recherche Google pour iOS ou Android, ou dans la zone de recherche de votre téléphone Android.
Tout comme Circle to Search, cette extension vise à maintenir la pertinence de la recherche Google à l’ère de l’IA. Alors que le web d’aujourd’hui est encombré de déchets optimisés pour le référencement, Circle to Search et cette fonctionnalité adjacente alimentée par l’IA dans Lens visent à améliorer les résultats de recherche en s’appuyant sur un réseau de connaissances – y compris de nombreuses pages web dans l’index de Google – mais en fournissant les résultats sous une forme différente.
Cependant, s’appuyer sur l’IA signifie que les réponses ne sont pas toujours précises ou pertinentes. Les pages web ne sont pas une encyclopédie, donc les réponses ne sont aussi précises que le matériel source sous-jacent et la capacité de l’IA à répondre à une question sans « halluciner » (inventer de fausses réponses lorsque des réponses réelles ne sont pas disponibles).
Google note que ses produits GenAI – comme son expérience de recherche Google Search Generative, par exemple – citeront leurs sources, afin de permettre aux utilisateurs de vérifier les réponses. Et bien que SGE restera dans les Laboratoires, Google a déclaré qu’il commencera à introduire plus largement des avancées en IA générative, lorsque cela sera pertinent, comme il le fait maintenant avec les résultats de la recherche multisearch.
Les aperçus alimentés par l’IA pour la recherche multisearch dans Lens sont disponibles dès aujourd’hui, tandis que le geste Circle to Search sera disponible le 31 janvier.