Le nouveau modèle Gemini AI de Google a un accueil mitigé après sa grande présentation hier, mais les utilisateurs peuvent avoir moins confiance en la technologie de la société ou en son intégrité après avoir découvert que la démonstration la plus impressionnante de Gemini était en grande partie fausse. Une vidéo intitulée «Hands-on with Gemini: Interacting with multimodal AI» a atteint un million de vues au cours de la dernière journée, et il n’est pas difficile de comprendre pourquoi. La démonstration impressionnante «met en évidence certains de nos interactions préférées avec Gemini», montrant comment le modèle multimodal (c’est-à-dire qu’il comprend et mélange la langue et la compréhension visuelle) peut être flexible et réactif face à une variété d’entrées. Pour commencer, il raconte une évolution de l’esquisse d’un canard d’un squiggle à un dessin terminé, ce qu’il dit être une couleur irréaliste, puis exprime sa surprise («What the quack!») en voyant un canard bleu en peluche. Il répond ensuite à diverses requêtes vocales concernant ce jouet, puis la démonstration passe à d’autres mouvements de démonstration, comme le suivi d’une balle dans un jeu de transfert de tasse, la reconnaissance des gestes de marionnettes d’ombres, la réorganisation des esquisses de planètes, etc. Tout est très réactif, mais la vidéo prévient que «la latence a été réduite et les sorties de Gemini ont été abrégées». Donc, ils passent par une hésitation ici et une réponse trop longue là, compris. En général, c’était une démonstration de force assez étonnante dans le domaine de la compréhension multimodale. Ma propre scepticisme quant à la possibilité pour Google de livrer un concurrent a pris un coup lorsque j’ai regardé le hands-on.
Équilibrer la Numérisation et la Sobriété Numérique dans la Formation Professionnelle : Solutions Actuelles et Besoins Émergents
La formation professionnelle tout au long de la vie (FTLV) connaît une transformation significative dans le contexte actuel de numérisation