Les « agents » d’IA pourraient effectuer un vrai travail dans le monde réel. Cela pourrait ne pas être une bonne chose.

ChatGPT et ses grands concurrents modèles de langage (LLM) qui produisent du texte à la demande sont très cool. Tout comme les autres fruits de la révolution de l’IA générative : les générateurs d’art, les générateurs de musique, de meilleurs sous-titres automatiques et traductions. Ils peuvent faire beaucoup de choses (y compris prétendre qu’ils sont conscients, bien que nous ne devrions pas les croire), mais il y a un aspect important dans lequel les modèles d’IA diffèrent des personnes : ce sont des processus qui ne fonctionnent que lorsque déclenchés par un humain et uniquement pour accomplir un résultat spécifique. Et ensuite, ils s’arrêtent. Maintenant, imaginez que vous preniez l’un de ces programmes – un très bon chatbot, disons, mais toujours juste un chatbot – et que vous lui donniez la capacité d’écrire des notes pour lui-même, de conserver une liste de tâches et l’état des éléments sur la liste des tâches, et de déléguer des tâches à d’autres copies de lui-même ou à d’autres personnes. Et au lieu de fonctionner uniquement lorsqu’un humain l’a sollicité, vous l’aviez travailler de manière continue sur ces tâches – tout comme un véritable assistant humain. À ce moment-là, sans aucun nouveau saut technologique quel qu’il soit – juste quelques outils de base collés sur un modèle de langage standard – vous auriez ce qu’on appelle un « agent d’IA », ou une IA qui agit avec une autonomie pour poursuivre ses objectifs dans le monde. Les agents d’IA ont été qualifiés de « futur de l’intelligence artificielle » qui « réinventera la façon dont nous vivons et travaillons », la « prochaine frontière de l’IA ». OpenAI serait apparemment en train de développer de tels agents, tout comme de nombreuses startups bien financées.

Share the Post: