Les lunettes de Meta ajoutent une IA qui peut voir ce que vous voyez.

J’ai essayé ces lunettes Ray-Ban AI, et elles sont assez folles. Voici comment fonctionne la fonction expérimentale.
Les lunettes Ray-Ban de Meta peuvent maintenant faire de l’IA, en accédant aux données de la caméra. « Hey, Meta. Regarde ça et dis-moi laquelle de ces tisanes est sans caféine. » J’ai prononcé ces mots alors que je portais une paire de lunettes Ray-Ban Meta au siège social de la grande entreprise de technologie à New York, tout en fixant une table avec quatre sachets de thé avec leurs étiquettes de caféine noircies avec un marqueur magique. Un petit bruit de clic dans mes oreilles a été suivi par la voix de l’IA de Meta me disant que le thé à la camomille était probablement sans caféine. Il lisait les étiquettes et prenait des décisions en utilisant de l’IA générative. J’ai fait une démonstration d’une fonctionnalité qui sera disponible pour les lunettes Ray-Ban de deuxième génération à partir d’aujourd’hui, une fonctionnalité que le PDG de Meta, Mark Zuckerberg, avait déjà promis en septembre lorsque les nouvelles lunettes ont été annoncées. Les fonctionnalités IA, qui peuvent accéder aux caméras des lunettes Meta pour regarder des images et les interpréter avec de l’IA générative, devaient être lancées en 2024. Meta a décidé de lancer ces fonctionnalités beaucoup plus rapidement que je ne l’aurais attendu, bien que le mode d’accès anticipé soit encore très beta. En plus d’ajouter une recherche Bing alimentée par les lunettes Ray-Ban dans le cadre d’une nouvelle mise à jour, ce qui augmente la puissance des fonctionnalités vocales déjà disponibles des lunettes, les lunettes Meta commencent à gagner un certain nombre de nouvelles capacités rapidement.

Share the Post: