La meilleure démonstration de Gemini de Google était truquée.

Le nouveau modèle Gemini AI de Google reçoit un accueil mixte après sa grande présentation d’hier, mais les utilisateurs peuvent avoir moins confiance dans la technologie de la société ou dans son intégrité après avoir découvert que la démonstration la plus impressionnante de Gemini était en grande partie truquée. Une vidéo intitulée «Hands-on with Gemini: Interacting with multimodal AI» a atteint un million de vues au cours de la dernière journée, et il n’est pas difficile de comprendre pourquoi. La démonstration impressionnante «met en évidence quelques-unes de nos interactions préférées avec Gemini», montrant comment le modèle multimodal (c’est-à-dire qu’il comprend et mélange la langue et la compréhension visuelle) peut être souple et réactif à une variété d’entrées. Tout d’abord, il raconte une évolution de l’esquisse d’un canard d’une gribouille à un dessin terminé, qu’il dit être une couleur irréaliste, puis exprime sa surprise («What the quack!») Lorsqu’il voit un canard bleu en plastique. Il répond ensuite à diverses requêtes vocales concernant ce jouet, puis la démonstration passe à d’autres mouvements de démonstration, comme le suivi d’une balle dans un jeu de transfert de tasse, la reconnaissance de gestes de marionnettes d’ombre, la réorganisation d’esquisses de planètes, etc. C’est tout très réactif, même si la vidéo met en garde contre le fait que «le temps de latence a été réduit et les sorties de Gemini ont été raccourcies». Ils passent donc à côté d’une hésitation ici et d’une réponse trop longue là-bas, d’accord. Dans l’ensemble, c’était une démonstration assez étonnante de la force dans le domaine de la compréhension multimodale. Ma propre scepticisme quant à la possibilité pour Google de livrer un concurrent a pris un coup lorsque j’ai regardé le hands-on.

Share the Post: