‘Oubliez les Chatbots. Les agents d’IA sont l’avenir.’

Cette semaine, une startup appelée Cognition AI a provoqué un petit remous en publiant une démo montrant un programme d’intelligence artificielle appelé Devin effectuant un travail habituellement réalisé par des ingénieurs en logiciel bien payés. Des chatbots comme ChatGPT et Gemini peuvent générer du code, mais Devin est allé plus loin, en planifiant comment résoudre un problème, en écrivant le code, puis en le testant et en le mettant en œuvre. Les créateurs de Devin le présentent comme un « développeur logiciel IA ». Lorsqu’on lui a demandé de tester la performance du modèle de langage open source Llama 2 de Meta lorsqu’il était accédé par différentes entreprises l’hébergeant, Devin a généré un plan étape par étape pour le projet, généré le code nécessaire pour accéder aux APIs et exécuter des tests de benchmarking, et créé un site web résumant les résultats. Il est toujours difficile de juger des démonstrations programmées, mais Cognition a montré que Devin pouvait gérer un large éventail de tâches impressionnantes. Il a impressionné les investisseurs et les ingénieurs sur X, recevant de nombreuses recommandations, et a même inspiré quelques mèmes, certains prédisant que Devin sera bientôt responsable d’une vague de licenciements dans l’industrie technologique. Devin est simplement le dernier exemple abouti d’une tendance que je suis depuis un certain temps – l’émergence d’agents IA qui, au lieu de simplement fournir des réponses ou des conseils sur un problème présenté par un humain, peuvent agir pour le résoudre. Il y a quelques mois, j’ai testé Auto-GPT, un programme open source qui tente d’accomplir des tâches utiles en prenant des actions sur l’ordinateur d’une personne et sur le web. Récemment, j’ai testé un autre programme appelé vimGPT pour voir comment les compétences visuelles des nouveaux modèles IA peuvent aider ces agents à naviguer sur le web de manière plus efficiente. J’ai été impressionné par mes expériences avec ces agents. Cependant, pour l’instant, tout comme les modèles de langage qui les alimentent, ils commettent pas mal d’erreurs. Et lorsqu’un logiciel prend des actions, et non seulement génère du texte, une erreur peut signifier un échec total – et potentiellement des conséquences coûteuses ou dangereuses. Restriction de la gamme des tâches qu’un agent peut accomplir, disons à un ensemble spécifique de tâches d’ingénierie logicielle, semble être une façon astucieuse de réduire le taux d’erreur, mais il y a encore de nombreuses manières potentielles d’échouer.

Share the Post: