‘Surchargeant les assistants de codage AI avec les modèles Gemini’ Contexte Long

‘Le potentiel des fenêtres de contexte long dans la génération et la compréhension du code est une voie innovante à explorer. La compréhension détaillée des relations et dépendances complexes est souvent négligée par les modèles d’IA standard dans les grands dépôts de code. Cependant, l’exploitation de la puissance du code étendu avec de grandes fenêtres de contexte pourrait conduire à un bond significatif en termes de précision et d’utilité à la fois dans la génération et le décodage du code.

Notre collaboration avec Sourcegraph, les créateurs de l’ingénieux assistant de codage Cody AI également compatible avec les LLMs tels que le Gemini 1,5 Pro et Flash, a ouvert la voie à l’investigation des applications pratiques des fenêtres de contexte long dans les situations de codage. L’habileté de Sourcegraph à combiner la recherche de code et l’intelligence dans le code généré par l’IA et son application réussie de Cody auprès de grandes entreprises comme Palo Alto Networks et Leidos, les ont identifiés comme le partenaire parfait pour cette recherche.

Sourcegraph s’est fixé comme objectif de contraster l’efficacité de Cody avec une fenêtre de contexte de 1M tokens (en utilisant Gemini 1.5 Flash de Google) par rapport à sa version commerciale. Cette comparaison directe a fourni l’occasion de souligner les avantages obtenus à partir d’un contexte plus large. L’attention a été centrée sur la réponse aux questions techniques, une tâche essentielle pour les développeurs qui traitent de grands dépôts de code. Pour cette investigation, ils ont déployé un ensemble de données de questions complexes nécessitant une compréhension substantielle du code.’

Share the Post: