Les lunettes Ray-Ban de Meta sont dotées d’une intelligence artificielle qui peut voir ce que vous voyez.

J’ai essayé ces lunettes à intelligence artificielle Ray-Ban, et elles sont plutôt incroyables. Voici comment fonctionne la fonctionnalité expérimentale.
Les lunettes Ray-Ban de Meta peuvent désormais faire de l’IA en accédant aux données de la caméra. « Hé, Meta. Regarde ça et dis-moi lequel de ces thés est sans caféine ». J’ai prononcé ces mots tout en portant une paire de Ray-Ban de Meta au siège social du géant de la technologie à New York. Je fixais une table avec quatre sachets de thé, leurs étiquettes de caféine noircies avec un marqueur. Un petit clic dans mes oreilles a été suivi de la voix de l’IA de Meta me disant que le thé à la camomille était probablement sans caféine. Elle lisait les étiquettes et prenait des décisions grâce à l’IA générative. Je testais une fonctionnalité qui est en cours de déploiement sur les lunettes Ray-Ban de deuxième génération de Meta à partir d’aujourd’hui, une fonctionnalité que le PDG de Meta, Mark Zuckerberg, avait déjà promise en septembre lors de l’annonce des nouvelles lunettes. Les fonctionnalités d’IA, qui peuvent accéder aux caméras intégrées aux lunettes de Meta pour examiner des images et les interpréter avec l’IA générative, étaient censées être lancées en 2024. Meta les a introduites plus rapidement que ce que j’attendais, bien que le mode d’accès anticipé soit encore largement en version bêta. En plus d’ajouter la recherche alimentée par Bing dans les Ray-Ban dans le cadre d’une nouvelle mise à jour, ce qui améliore les capacités déjà disponibles des lunettes activées par la voix, les lunettes de Meta acquièrent rapidement de nouvelles capacités.

Share the Post: