Google ajoute des aperçus alimentés par l’IA pour la recherche multiple dans Lens

Google ajoute des aperçus alimentés par l’IA pour la recherche multiple dans Lens

En plus d’une nouvelle fonction de recherche gestuelle pour les appareils Android, Google a également présenté aujourd’hui un complément à ses capacités de recherche visuelle alimenté par l’IA dans Google Lens. À partir d’aujourd’hui, les utilisateurs pourront pointer leur appareil photo ou télécharger une photo ou une capture d’écran dans Lens, puis poser une question sur ce qu’ils voient pour obtenir des réponses par le biais de l’IA générative.

Cette fonctionnalité est une mise à jour des fonctions de recherche multiple de Lens, qui permettent aux internautes d’effectuer des recherches à la fois sur du texte et des images. Auparavant, ces types de recherche renvoyaient les utilisateurs vers d’autres correspondances visuelles, mais avec le lancement d’aujourd’hui, vous recevrez des résultats alimentés par l’IA qui offrent également des informations.

Crédits image : Google

À titre d’exemple, Google suggère d’utiliser cette fonction pour en savoir plus sur une plante en prenant une photo de celle-ci, puis en demandant « Quand dois-je l’arroser ? Au lieu de montrer à l’utilisateur d’autres images de la plante, la fonction identifie la plante et indique à l’utilisateur à quelle fréquence elle doit être arrosée, par exemple « toutes les deux semaines ». Cette fonction s’appuie sur des informations tirées du web, notamment des informations trouvées sur des sites web, des sites de produits et dans des vidéos.

Cette fonction fonctionne également avec les nouveaux gestes de recherche de Google, baptisés Circle to Search (cercle de recherche). Cela signifie que vous pouvez lancer ces requêtes d’IA générative par un geste, puis poser une question sur l’élément que vous avez entouré, sur lequel vous avez griffonné ou sur lequel vous avez indiqué que vous souhaitiez en savoir plus.

Toutefois, Google a précisé que si la fonction de recherche multiple Lens offre des informations d’IA générative, il ne s’agit pas du même produit que la recherche expérimentale GenAI de Google, SGE (Search Generative Experience), qui reste uniquement facultative.

Crédits image : Google

Les aperçus alimentés par l’IA pour la recherche multiple dans Lens sont lancés pour tout le monde aux États-Unis en anglais, à partir d’aujourd’hui. Contrairement à d’autres expériences de Google en matière d’IA, cette fonctionnalité n’est pas limitée à Google Labs. Pour utiliser cette fonctionnalité, il vous suffit de cliquer sur l’icône de l’appareil photo Lens dans l’application de recherche Google pour iOS ou Android, ou dans le champ de recherche de votre téléphone Android.

À l’instar de Circle to Search, cet ajout vise à maintenir la pertinence de Google Search à l’ère de l’IA. Alors que le web d’aujourd’hui est encombré de déchets optimisés pour le référencement, Circle to Search et cette capacité adjacente alimentée par l’IA dans Lens visent à améliorer les résultats de recherche en puisant dans un réseau de connaissances – y compris de nombreuses pages web dans l’index de Google – mais en livrant les résultats dans un format différent.

Néanmoins, le fait de s’appuyer sur l’IA signifie que les réponses ne sont pas toujours exactes ou pertinentes. Les pages web ne sont pas des encyclopédies, et les réponses ne sont donc pas plus précises que le matériel source sous-jacent et la capacité de l’IA à répondre à une question sans « halluciner » (trouver de fausses réponses lorsque les réponses réelles ne sont pas disponibles).

Google précise que ses produits GenAI – comme Google Search Generative Experience, par exemple – citeront leurs sources, afin de permettre aux utilisateurs de vérifier les faits. Et même si SGE restera dans Labs, Google a déclaré qu’il commencerait à introduire les avancées de l’IA générative plus largement, lorsque cela sera pertinent, comme il le fait actuellement avec les résultats de recherche multiples.

Les aperçus d’IA pour les recherches multiples dans Lens arrivent aujourd’hui, tandis que le Circle to Search basé sur les gestes arrivera le 31 janvier.

IA