« Google étend la recherche visuelle et audio, permet à l’IA de gérer la mise en page »

Il y a presque deux décennies, le chef de la division entreprise alors naissante de Google qualifiait le service de recherche de l’entreprise de « interface en ligne de commande ultime vers le monde ». De nos jours, Google s’intéresse également à d’autres modes d’entrée. Jeudi, Google a annoncé des changements à son service de recherche qui mettent l’accent sur l’entrée visuelle via Google Lens, soit en complément des mots-clés textuels soit en tant qu’alternative, et l’entrée audio. Et il utilise l’apprentissage automatique pour réorganiser la présentation de certains résultats de recherche. La transition vers une entrée de recherche multi-modale est en cours depuis un certain temps. Google Lens, introduit en 2017 en tant qu’application pour les téléphones Pixel 2 et Pixel XL, a été séparé de l’application Google Camera fin 2022. Le logiciel de reconnaissance d’image, qui trouve ses origines dans Google Goggles en 2010, a été intégré dans la fonction de recherche d’image inversée de Google Images en 2022. L’année dernière, Lens a trouvé sa place dans Google Bard, un modèle de chatbot IA qui a depuis été renommé Gemini. Actuellement, le logiciel de reconnaissance d’image peut être accédé depuis l’icône de l’appareil photo dans la boîte de recherche de l’application Google. Plus tôt cette année, Google a lié Lens à l’IA générative utilisée dans ses Aperçus IA – résultats de recherche potentiellement erronés basés sur l’IA propulsés en haut des pages de résultats de recherche – afin que les utilisateurs puissent pointer leur téléphone mobile sur des objets et avoir Google Search analyser l’image résultante comme une requête de recherche.

Share the Post: