Les lunettes Ray-Ban de Meta ont été dotées d’une IA capable de voir ce que vous voyez.

J’ai essayé ces lunettes à intelligence artificielle Ray-Ban, et elles sont plutôt incroyables. Voici comment fonctionne la fonctionnalité expérimentale.

Les lunettes Ray-Ban de Meta peuvent maintenant faire de l’intelligence artificielle en accédant aux données de la caméra. « Hé, Meta. Regarde ça et dis-moi quelles sont les tisanes sans caféine parmi celles-ci. » J’ai prononcé ces mots alors que je portais une paire de Ray-Ban de Meta au siège social du géant de la technologie à New York. Je fixais une table avec quatre sachets de thé, leurs étiquettes de caféine cachées avec un marqueur. Un petit son de clic dans mes oreilles fut suivi de la voix de l’IA de Meta me disant que le thé à la camomille était probablement sans caféine. Elle lisait les étiquettes et faisait des jugements en utilisant l’IA générative.

Je testais une fonctionnalité qui est déployée sur les lunettes Ray-Ban de deuxième génération de Meta à partir d’aujourd’hui, une fonctionnalité que le PDG de Meta, Mark Zuckerberg, avait déjà promise en septembre lors de l’annonce des nouvelles lunettes. Les fonctionnalités d’IA, qui peuvent accéder aux caméras des lunettes de Meta pour examiner des images et les interpréter avec une IA générative, devaient être lancées en 2024. Meta les a introduites plus rapidement que je ne l’espérais, bien que le mode d’accès anticipé soit toujours en version bêta. En plus d’ajouter la recherche basée sur Bing dans les Ray-Ban dans le cadre d’une nouvelle mise à jour, ce qui renforce les capacités déjà disponibles activées par la voix des lunettes, les lunettes de Meta acquièrent de nouvelles capacités rapidement.

Share the Post: