« Des chiffons aux richesses : Un guide pratique pour rendre votre chatbot AI local plus intelligent »

« Hands on Si vous avez suivi l’adoption par les entreprises de l’IA, vous avez sans doute entendu le terme « RAG » circuler. Abréviation de « retrieval augmented generation », cette technologie a été saluée par tout le monde, de Jensen Huang de Nvidia à Pat Gelsinger d’Intel, comme étant ce qui va rendre les modèles d’IA suffisamment utiles pour justifier l’investissement dans des GPU et accélérateurs relativement coûteux. L’idée derrière le RAG est simple : au lieu de compter sur un modèle pré-entraîné sur une quantité finie d’informations publiques, vous pouvez exploiter la capacité d’un LLM à interpréter et transformer les informations contenues dans une base de données externe en langage humain. De manière critique, cette base de données peut être mise à jour indépendamment du modèle, vous permettant d’améliorer ou de rafraîchir votre application basée sur un LLM sans avoir besoin de ré-entraîner ou d’affiner le modèle à chaque fois qu’une nouvelle information est ajoutée ou qu’une ancienne donnée est supprimée. Mais avant de montrer comment le RAG peut être utilisé pour rendre les LLM pré-entraînés tels que Llama3 ou Mistral plus utiles et performants, parlons un peu plus de leur fonctionnement. »

Share the Post: