J’ai essayé ces lunettes Ray-Ban AI, et elles sont assez folles. Voici comment fonctionne la fonction expérimentale.
Les lunettes Ray-Ban de Meta peuvent maintenant faire de l’IA, en accédant aux données de la caméra. « Hey, Meta. Regarde ça et dis-moi laquelle de ces tisanes est sans caféine. » J’ai prononcé ces mots alors que je portais une paire de Ray-Bans de Meta au siège social de la grande entreprise technologique à New York. Je fixais une table avec quatre sachets de thé, leurs étiquettes de caféine noircies avec un marqueur. Un petit bruit de clic dans mes oreilles a été suivi de la voix de l’IA de Meta me disant que le thé à la camomille était probablement sans caféine. Il lisait les étiquettes et prenait des décisions en utilisant de l’IA générative. J’ai testé une fonctionnalité qui est mise en œuvre sur les lunettes de la deuxième génération de Meta à partir d’aujourd’hui – une fonction que le PDG de Meta, Mark Zuckerberg, avait déjà promis en septembre lorsque les nouvelles lunettes ont été annoncées. Les fonctionnalités d’IA, qui peuvent accéder aux caméras des lunettes de Meta pour examiner des images et les interpréter avec de l’IA générative, étaient censées être lancées en 2024. Meta les a introduites plus rapidement que je ne l’aurais attendu, bien que le mode d’accès anticipé soit encore très beta. En plus d’ajouter une recherche Bing alimentée dans les Ray-Bans dans le cadre d’une nouvelle mise à jour, qui augmente la puissance des capacités vocales déjà disponibles des lunettes, les lunettes de Meta gagnent de nouvelles capacités rapidement.