Voici la traduction en français du texte :
« Si vous suivez l’adoption par les entreprises de l’IA, vous avez sans doute entendu le terme « RAG » être mentionné. Abréviation de « retreival augmented generation » (génération augmentée par recherche), cette technologie a été saluée par tous, du PDG de Nvidia, Jensen Huang, au sauveur en chef d’Intel, Pat Gelsinger, comme étant l’élément qui rendra les modèles d’IA suffisamment utiles pour justifier l’investissement dans des GPU et accélérateurs relativement chers. Le concept derrière RAG est simple : au lieu de s’appuyer sur un modèle pré-entraîné sur une quantité finie d’informations publiques, vous pouvez exploiter la capacité d’un LLM à analyser le langage humain pour interpréter et transformer les informations contenues dans une base de données externe. De manière cruciale, cette base de données peut être mise à jour de façon indépendante du modèle, vous permettant d’améliorer ou de rafraîchir votre application basée sur un LLM sans avoir besoin de ré-entraîner ou de peaufiner le modèle chaque fois que de nouvelles informations sont ajoutées ou que d’anciennes données sont supprimées. Mais avant de vous montrer comment RAG peut être utilisé pour rendre les LLM pré-entraînés tels que Llama3 ou Mistral plus utiles et performants, parlons un peu plus de leur fonctionnement. »