Databricks vient de lancer un modèle de langue grand format en open source pour rivaliser avec Llama 2, Mixtral et GPT-3.5.

Databricks a annoncé le lancement de DBRX, un modèle de langage large (LLM) polyvalent qu’il croit va « démocratiser » la formation et le réglage des LLM personnalisés pour les utilisateurs d’entreprise. Cette initiative vise à réduire la dépendance des entreprises à l’égard de ce que Databricks a décrit comme un « petit nombre de modèles fermés » et à promouvoir l’adoption de l’intelligence artificielle en open source. Selon l’entreprise, le modèle affiche des performances supérieures à la moyenne sur plusieurs critères, dont la compréhension du langage, la programmation, les mathématiques et la logique. De la même manière, le DBRX surpasse des modèles comme Llama 2 70B et Mixtral-8x7B sur des critères de l’industrie, et même le GPT-3.5 dans certains domaines. Le DBRX a été spécifiquement optimisé pour l’efficacité, selon Databricks, et a été conçu avec une architecture de mélange d’experts (MoE) et construit sur le projet open source MegaBlocks.

Share the Post: