« Les ‘agents’ d’IA pourraient effectuer un véritable travail dans le monde réel. Cela pourrait ne pas être une bonne chose. »

ChatGPT et ses grands concurrents modèles de langage (LLM) qui produisent du texte à la demande sont très cool. Tout comme les autres fruits de la révolution de l’IA générative : les générateurs d’art, les générateurs de musique, de meilleurs sous-titres automatiques et traductions. Ils peuvent accomplir beaucoup de choses (y compris prétendre qu’ils sont conscients, bien que nous ne devrions pas les croire), mais il y a un respect important dans lequel les modèles d’IA diffèrent des humains : ce sont des processus qui ne fonctionnent que lorsqu’un humain les déclenche et uniquement pour accomplir un résultat spécifique. Ensuite, ils s’arrêtent. Maintenant, imaginez que vous preniez l’un de ces programmes — un chatbot vraiment bon, disons, mais quand même juste un chatbot — et lui donniez la capacité d’écrire des notes pour lui-même, de stocker une liste de tâches à faire et l’état des éléments sur la liste, et de déléguer des tâches à d’autres copies de lui-même ou à d’autres personnes. Et au lieu de fonctionner seulement lorsque qu’un humain le déclenche, vous le faites travailler de manière continue sur ces tâches — exactement comme un véritable assistant humain. À ce stade, sans aucun nouveau bond technologique quelconque — juste quelques outils de base ajoutés à un modèle de langage standard — vous auriez ce qu’on appelle un « agent d’IA », ou une IA qui agit avec une agence indépendante pour poursuivre ses objectifs dans le monde. Les agents d’IA ont été appelés le « futur de l’intelligence artificielle » qui va « réinventer notre façon de vivre et de travailler », « la prochaine frontière de l’IA ». OpenAI serait en train de travailler sur le développement de tels agents, tout comme de nombreuses autres startups bien financées.

Share the Post: