Les « agents » d’IA pourraient effectuer un vrai travail dans le monde réel. Cela pourrait ne pas être une bonne chose.

ChatGPT et ses concurrents de grands modèles de langage (LLM) qui produisent du texte à la demande sont très cool. Il en va de même pour les autres fruits de la révolution de l’IA générative : les générateurs d’art, les générateurs de musique, de meilleurs sous-titres automatiques et de traduction. Ils peuvent faire beaucoup de choses (y compris prétendre qu’ils sont conscients, sans que nous devions les croire), mais il y a un respect important dans lequel les modèles d’IA sont différents des personnes : ce sont des processus qui ne sont exécutés que lorsqu’un humain les déclenche et uniquement pour accomplir un résultat spécifique. Et ensuite, ils s’arrêtent. Maintenant, imaginez que vous preniez l’un de ces programmes – disons un très bon chatbot, mais néanmoins juste un chatbot – et que vous lui donniez la capacité d’écrire des notes pour lui-même, de stocker une liste de tâches à faire ainsi que l’état des éléments de la liste de tâches, et de déléguer des tâches à d’autres copies de lui-même ou à d’autres personnes. Et au lieu de fonctionner uniquement lorsque c’est déclenché par un humain, vous le feriez travailler de manière continue sur ces tâches – tout comme un véritable assistant humain. À ce moment-là, sans aucun nouveau bond technologique, simplement en ajoutant quelques outils de base à un modèle de langage standard, vous auriez ce qu’on appelle un « agent d’IA », ou une IA qui agit avec une agence indépendante pour poursuivre ses objectifs dans le monde. Les agents d’IA ont été qualifiés de « l’avenir de l’intelligence artificielle » qui « réinventera la façon dont nous vivons et travaillons », la « prochaine frontière de l’IA ». OpenAI travaillerait apparemment au développement de tels agents, tout comme de nombreuses start-ups bien financées.

Share the Post: