« Des chiffons à la richesse : Un guide pratique pour rendre votre chatbot IA local plus intelligent »

« Pratique Si vous suivez l’adoption des entreprises de l’IA, vous avez sans doute entendu le terme « RAG » mentionné. Abréviation de « retrieval augmented generation », cette technologie a été saluée par tout le monde, de Jensen Huang de Nvidia à Pat Gelsinger, le sauveur en chef d’Intel, comme étant ce qui rendra les modèles d’IA suffisamment utiles pour justifier l’investissement dans des GPU et des accélérateurs relativement coûteux. L’idée derrière RAG est simple: au lieu de se reposer sur un modèle pré-entraîné avec une quantité limitée d’informations publiques, vous pouvez tirer parti de la capacité d’un LLM à interpréter et transformer les informations contenues dans une base de données externe en utilisant le langage humain. Critiquement, cette base de données peut être mise à jour indépendamment du modèle, vous permettant ainsi d’améliorer ou de rafraîchir votre application basée sur un LLM sans avoir besoin de le ré-entraîner ou de le peaufiner à chaque fois que de nouvelles informations sont ajoutées ou que de vieilles données sont supprimées. Mais avant de vous montrer comment RAG peut être utilisé pour rendre les LLM pré-entraînés tels que Llama3 ou Mistral plus utiles et performants, parlons un peu plus de leur fonctionnement. »

Share the Post: