Le meilleur démonstration de Gemini de Google était truqué

Le nouveau modèle Gemini AI de Google a reçu un accueil mitigé après sa grande présentation d’hier, mais les utilisateurs pourraient avoir moins confiance dans la technologie de la société ou dans son intégrité après avoir découvert que la démonstration la plus impressionnante de Gemini n’était qu’une imitation. Une vidéo intitulée «Hands-on with Gemini: Interacting with multimodal AI» a atteint un million de vues en moins d’une journée, ce qui n’est pas difficile à comprendre. La démonstration impressionnante «met en évidence quelques-unes de nos interactions préférées avec Gemini», montrant comment le modèle multimodal (c’est-à-dire qu’il comprend et mélange la langue et la compréhension visuelle) peut être flexible et réactif face à une variété d’entrées. Tout d’abord, il raconte l’évolution d’un canard en squiggle à un dessin terminé, qu’il dit de couleur peu réaliste, puis exprime sa surprise («What the quack!») en voyant un canard bleu en peluche. Il répond ensuite à diverses requêtes vocales concernant ce jouet, puis la démonstration passe à d’autres mouvements de démonstration, comme suivre une balle dans un jeu de transfert de tasses, reconnaître des gestes de marionnettes d’ombre, réorganiser des croquis de planètes, etc. Tout est très réactif, mais la vidéo prévient que «les temps de latence ont été réduits et les sorties Gemini ont été abrégées». Donc, ils sautent une hésitation ici et une réponse trop longue là-bas, compris. En général, c’était une démonstration de force assez étonnante dans le domaine de la compréhension multimodale. Ma propre scepticisme quant à la possibilité pour Google de livrer un concurrent a pris un coup quand je l’ai vu en action.

Share the Post: