Les lunettes de Ray-Ban de Meta ont été dotées d’une IA qui peut voir ce que vous voyez.

J’ai essayé ces lunettes AI Ray-Ban et elles sont assez incroyables. Voici comment fonctionne la fonctionnalité expérimentale.
Les lunettes Ray-Ban de Meta peuvent maintenant faire de l’IA en accédant aux données de la caméra. « Hé, Meta. Regarde ça et dis-moi quel de ces thés est sans caféine. » J’ai prononcé ces mots alors que je portais une paire de Ray-Ban de Meta au siège social du géant de la technologie à New York. Je fixais une table avec quatre paquets de thé, leurs étiquettes de caféine brouillées avec un marqueur. Un petit clic dans mes oreilles a été suivi de la voix de l’IA de Meta me disant que le thé à la camomille était probablement sans caféine. Il lisait les étiquettes et faisait des jugements en utilisant l’IA générative. Je testais une fonctionnalité qui est déployée sur les lunettes Ray-Ban de deuxième génération de Meta à partir d’aujourd’hui – une fonctionnalité que le PDG de Meta, Mark Zuckerberg, avait déjà promise en septembre lors de l’annonce des nouvelles lunettes. Les fonctionnalités d’IA, qui peuvent accéder aux caméras des lunettes de Meta pour regarder des images et les interpréter avec l’IA générative, étaient censées être lancées en 2024. Meta les a introduites plus rapidement que je ne le pensais, bien que le mode d’accès anticipé soit encore très beta. En ajoutant la recherche alimentée par Bing dans les Ray-Ban dans le cadre d’une nouvelle mise à jour, ce qui renforce les capacités déjà disponibles des lunettes activées par la voix, les lunettes de Meta acquièrent de nouvelles capacités rapidement.

Share the Post: