Les lunettes Ray-Ban de Meta ajoutent une IA qui peut voir ce que vous voyez.

J’ai essayé ces lunettes Ray-Ban AI, et elles sont assez folles. Voici comment fonctionne la fonctionnalité expérimentale.
Les lunettes Ray-Ban de Meta peuvent maintenant faire de l’IA, en accédant aux données de la caméra. « Hé, Meta. Regarde ça et dis-moi laquelle de ces tisanes est sans caféine. » J’ai prononcé ces mots en portant une paire de lunettes Meta Ray-Bans au siège social de la grande entreprise technologique à New York. Je fixais une table sur laquelle se trouvaient quatre sachets de thé, leurs étiquettes de caféine noircies au marqueur. Un petit bruit de clic dans mes oreilles a été suivi par la voix de l’IA de Meta qui m’a dit que le thé à la camomille était probablement sans caféine. Elle lisait les étiquettes et prenait des jugements en utilisant de l’IA générative. J’étais en train de tester une fonctionnalité qui sera disponible pour les lunettes de la deuxième génération de Meta à partir d’aujourd’hui – une fonctionnalité que Mark Zuckerberg, le PDG de Meta, avait déjà promis en septembre lorsque les nouvelles lunettes ont été annoncées. Les fonctionnalités IA, qui peuvent accéder aux caméras des lunettes Meta pour regarder des images et les interpréter avec de l’IA générative, étaient censées être lancées en 2024. Meta les a introduites plus rapidement que je ne l’aurais attendu, bien que le mode d’accès anticipé soit encore très beta. En plus d’ajouter une recherche Bing aux Ray-Bans dans le cadre d’une nouvelle mise à jour, qui augmente la puissance des capacités vocales déjà disponibles des lunettes, les lunettes Meta gagnent de nouvelles capacités rapidement.

Share the Post: