J’ai porté des lunettes de soleil Meta Ray-Ban à Montréal pour tester leurs compétences en traduction automatique. Cela ne s’est pas bien passé.

Imaginez que vous venez d’arriver dans un autre pays, vous ne parlez pas la langue, et vous tombez sur une zone de construction. L’air est épais de poussière. Vous êtes fatigué. Vous sentez encore mauvais comme l’avion. Vous essayez d’ignorer les marteaux-piqueurs pour déchiffrer ce que disent les panneaux : devez-vous traverser la rue, ou marcher jusqu’à un autre pâté de maisons, ou faire demi-tour ? J’ai été exactement dans une telle situation cette semaine, mais j’étais préparé. J’avais volé à Montréal pour passer deux jours à tester la nouvelle fonction de traduction IA sur les lunettes intelligentes Ray-Ban de Meta. En moins de 10 minutes de ma première promenade, je suis tombé sur une série de panneaux orange déroutants. La fonction de traduction IA est censée offrir aux porteurs un moyen rapide et mains libres de comprendre du texte écrit dans des langues étrangères, donc je n’aurais pas pu inventer un meilleur test pratique sur son fonctionnement en temps réel. Alors qu’une excavatrice grondait, j’ai regardé un panneau et j’ai commencé à demander à mes lunettes de me dire ce qu’il disait. Avant que je ne puisse terminer, un ouvrier de la construction québécois affolé a commencé à me crier dessus en pointant vers le nord, et j’ai traversé la rue rapidement. Juste au début de mon aventure en IA, je suis tombé sur la plus grande limitation de ce logiciel de traduction : actuellement, il ne vous dit pas ce que les gens disent. Il peut seulement analyser le mot écrit.

Share the Post: