Principaux enseignements :
– Zephyr 3B, modèle linguistique de grande taille (LLM) stable de 3 milliards de paramètres, est 60 % plus petit que les modèles de 7 milliards de paramètres, ce qui permet une sortie précise et réactive sur une gamme d’appareils sans nécessiter de matériel haut de gamme.
– Téléchargez ici les poids du modèle.
– Consultez un notebook d’exemple pour savoir comment optimiser la vitesse de ce modèle.
– Ce modèle est mis à disposition sous une licence non commerciale qui autorise son utilisation à des fins non commerciales.