Les lunettes de Meta ajoutent de l’IA qui peut voir ce que vous voyez.

J’ai essayé ces lunettes Ray-Ban AI et elles sont assez folles. Voici comment fonctionne la fonction expérimentale.
Les lunettes Ray-Ban de Meta peuvent désormais faire de l’IA, en accédant aux données de la caméra. « Hé, Meta. Regarde ça et dis-moi lequel de ces thés est sans caféine. » J’ai prononcé ces mots en portant une paire de lunettes Meta Ray-Bans au siège social du géant de la technologie à New York. Je fixais une table avec quatre sachets de thé, leurs étiquettes de caféine noircies avec un marqueur. Un petit bruit de clic dans mes oreilles a été suivi de la voix de l’IA de Meta me disant que le thé à la camomille était probablement sans caféine. Elle lisait les étiquettes et prenait des décisions en utilisant de l’IA générative. J’étais en train de tester une fonctionnalité qui est mise en œuvre sur les lunettes de seconde génération de Meta à partir d’aujourd’hui – une fonctionnalité que le PDG de Meta, Mark Zuckerberg, avait déjà promis en septembre lorsque les nouvelles lunettes ont été annoncées. Les fonctionnalités IA, qui peuvent accéder aux caméras des lunettes Meta pour regarder des images et les interpréter avec de l’IA générative, devaient être lancées en 2024. Meta les a introduites plus rapidement que je ne l’aurais attendu, bien que le mode d’accès anticipé soit encore très beta. En plus d’ajouter une recherche alimentée par Bing dans les Ray-Bans dans le cadre d’une nouvelle mise à jour, ce qui augmente la puissance des fonctionnalités déjà disponibles des lunettes activées par la voix, les lunettes Meta gagnent de nouvelles capacités rapidement.

Share the Post: