Lors de l’événement Meta Connect plus tôt aujourd’hui, Mark Zuckerberg a présenté toute une gamme de nouvelles fonctionnalités sur les lunettes intelligentes phares de l’entreprise, les Meta Ray-Ban. Qualifiant les lunettes de « forme parfaite pour l’IA », les nouvelles améliorations de qualité de vie se concentrent autour de l’IA multimodale des lunettes pour une interaction plus naturelle (similaire à ce que nous avons vu avec Gemini de Google et ChatGPT 4o). De plus : Tout ce qui a été annoncé lors du Meta Connect 2024 : Quest 3 abordable, lunettes AR, et plus encore. Mais au-delà des améliorations apportées à la communication, l’IA multimodale des lunettes permet certaines nouvelles interactions intéressantes, leur donnant la capacité de « voir » ce que vous voyez et « entendre » ce que vous entendez avec moins de contexte nécessaire du côté de l’utilisateur. L’une des fonctionnalités les plus utiles est la capacité des lunettes à « se rappeler » des choses pour vous, en prenant note de numéros spécifiques ou d’indicateurs visuels à archiver pour plus tard. Voici un aperçu de tout ce qui arrivera bientôt. Tout comme d’autres technologies de traduction en direct que nous avons vues émerger cette année, les Meta Ray-Ban obtiendront une fonction de traduction en direct conçue pour fonctionner en temps réel (ou du moins près de cela) avec l’espagnol, le français et l’italien. Lors de l’événement, Zuckerberg a démontré une conversation avec un locuteur espagnol, et les lunettes ont traduit ce que chaque interlocuteur disait et entendait de l’espagnol en anglais en quelques secondes entre les lignes.
« Outil de prédiction de protéines IA AlphaFold3 est maintenant plus ouvert »
‘Nous apprécions votre présence sur notre plateforme, nature.com. Nous avons remarqué que la version de votre navigateur pourrait poser des