Le géant de la technologie Meta a inauguré une nouvelle ère dans le monde des modèles de langage ouverts avec sa famille Llama, élargissant constamment les horizons de ce que ces modèles alimentés par l’IA peuvent réaliser. Jusqu’à récemment, l’interaction d’un utilisateur avec ces modèles Llama reposait uniquement sur des entrées de texte, mais Meta a maintenant incorporé une nouvelle fonctionnalité excitante. L’immense pouvoir des indices visuels a été apporté à la table avec l’introduction des modèles multimodaux.
La nouvelle version de Meta permet à Llama 3 d’intégrer de manière transparente à la fois des images et des invites de texte, améliorant ainsi considérablement ses fonctionnalités. Ces modèles mis à jour peuvent désormais traiter et comprendre le contenu des images, des graphiques et des diagrammes. De plus, ils peuvent générer des mots-clés pertinents basés sur ce qu’ils voient, permettant une extraction d’informations complexes à partir de différents types de documents tels que les diapositives PowerPoint.
Pour démontrer sa polyvalence, Meta a rendu le modèle ouvertement disponible, et il peut être exécuté à la fois localement et sur des plateformes cloud. Cela signifie que non seulement les utilisateurs peuvent demander à Llama 3 ce qui est contenu dans une image, mais ils peuvent également poser des questions plus complexes ou faire des demandes nuancées liées à ce contenu.
Étant donné ces avancées impressionnantes, il est tout naturel que de grandes attentes aient été associées aux modèles multimodaux. Cependant, les premiers tests de la fonction indiquent qu’il existe une marge d’amélioration. Comme on le voit dans le film populaire « Le Magicien d’Oz », l’intelligence est une caractéristique très recherchée, et dans ce cas, un élément supplémentaire qui pourrait potentiellement augmenter l’efficacité du modèle Llama 3.
Les capacités de Llama 3 semblent prometteuses, mais elles bénéficieraient grandement d’améliorations supplémentaires. Cette nouvelle étape dans la technologie de l’IA ouvre de nombreuses opportunités d’apprentissage et de croissance, et Meta est prêt à tirer le meilleur parti de cette avancée dans les mises à jour à venir.