Quand Google Lens a été introduit en 2017, la fonction de recherche a réalisé un exploit qui, il n’y a pas si longtemps, aurait semblé relever de la science-fiction : pointez la caméra de votre téléphone sur un objet et Google Lens peut l’identifier, montrer un certain contexte, voire même vous permettre de l’acheter. C’était une nouvelle façon de rechercher, qui n’impliquait pas de taper maladroitement des descriptions des choses que vous voyiez devant vous. Lens a également démontré comment Google prévoyait d’utiliser ses outils de machine learning et d’IA pour s’assurer que son moteur de recherche apparaît sur toutes les surfaces possibles. Alors que Google utilise de plus en plus ses modèles d’IA générative fondamentaux pour générer des résumés d’informations en réponse aux recherches textuelles, la recherche visuelle de Google Lens a également évolué. Et maintenant, la société déclare que Lens, qui alimente environ 20 milliards de recherches par mois, va prendre en charge encore plus de façons de rechercher, y compris les recherches vidéo et multimodales. Une autre amélioration apportée à Lens signifie encore plus de contexte pour le shopping qui apparaîtra dans les résultats. Le shopping est, sans surprise, l’une des principales utilisations de Lens ; Amazon et Pinterest ont également des outils de recherche visuelle conçus pour inciter à acheter plus. Recherchez les baskets de votre ami dans l’ancienne version de Google Lens, et vous auriez pu voir un carrousel d’articles similaires. Dans la version mise à jour de Lens, Google dit qu’elle affichera plus de liens directs pour l’achat, les avis des clients, les avis des éditeurs et les outils de shopping comparatif. La recherche Lens est désormais multimodale, un terme à la mode en matière d’IA ces jours-ci, ce qui signifie que les gens peuvent désormais rechercher avec une combinaison de vidéos, d’images et de commandes vocales. Au lieu de pointer la caméra de leur smartphone sur un objet, de taper sur le point de mise au point sur l’écran et d’attendre que l’application Lens affiche les résultats, les utilisateurs peuvent désormais pointer la lentille et utiliser des commandes vocales en même temps, par exemple, « Quel type de nuages sont ceux-là ? » ou « De quelle marque sont ces baskets et où puis-je les acheter ? ». Lens commencera également à fonctionner sur une capture vidéo en temps réel, poussant l’outil un cran plus loin en identifiant les objets dans des images fixes. Si vous avez une platine vinyle cassée ou si vous voyez une lumière clignotante sur un appareil défaillant à la maison, vous pourrez prendre rapidement une vidéo à travers Lens et, grâce à une vue d’ensemble générative de l’IA, obtenir des conseils sur la façon de réparer l’article.
« Outil de prédiction de protéines IA AlphaFold3 est maintenant plus ouvert »
‘Nous apprécions votre présence sur notre plateforme, nature.com. Nous avons remarqué que la version de votre navigateur pourrait poser des