« Des chiffons à la richesse : Un guide pratique pour rendre votre chatbot IA local plus intelligent »

« Si vous avez suivi l’adoption par les entreprises de l’IA, vous avez sans doute entendu le terme « RAG » être mentionné. Abréviation de « retrieval augmented generation », cette technologie a été saluée par des personnalités telles que Jensen Huang de Nvidia ou Pat Gelsinger d’Intel comme étant ce qui rendra les modèles d’IA suffisamment utiles pour justifier l’investissement dans des GPU et accélérateurs relativement coûteux. L’idée derrière RAG est simple : au lieu de s’appuyer sur un modèle pré-entraîné sur une quantité finie d’informations publiques, vous pouvez tirer parti de la capacité d’un LLM à analyser le langage humain pour interpréter et transformer les informations contenues dans une base de données externe. De manière critique, cette base de données peut être mise à jour indépendamment du modèle, vous permettant d’améliorer ou de rafraîchir votre application basée sur LLM sans avoir à ré-entraîner ou à affiner le modèle chaque fois qu’une nouvelle information est ajoutée ou qu’une ancienne est supprimée. Mais avant de montrer comment RAG peut être utilisé pour rendre des LLM pré-entraînés comme Llama3 ou Mistral plus utiles et performants, parlons un peu plus de leur fonctionnement. »

Share the Post: