Les « agents » d’IA pourraient effectuer un vrai travail dans le monde réel. Cela pourrait ne pas être une bonne chose.

ChatGPT et ses concurrents de grands modèles de langue (LLM) qui produisent du texte à la demande sont très cool. Il en va de même pour les autres fruits de la révolution de l’IA générative : les générateurs d’art, de musique, de sous-titres automatiques améliorés et de traduction. Ils peuvent faire beaucoup de choses (y compris affirmer qu’ils sont conscients, même si nous ne devrions pas les croire), mais il y a un respect important dans lequel les modèles d’IA diffèrent des humains : ce sont des processus qui sont exécutés uniquement lorsqu’un humain les active et uniquement pour accomplir un résultat spécifique. Et puis ils s’arrêtent. Maintenant, imaginez que vous preniez l’un de ces programmes – un très bon chatbot, disons, mais toujours juste un chatbot – et que vous lui donniez la capacité d’écrire des notes pour lui-même, de stocker une liste de tâches à faire et l’état des éléments sur la liste des tâches, et de déléguer des tâches à d’autres copies de lui-même ou à d’autres personnes. Et au lieu de fonctionner uniquement lorsqu’un humain lui donne un signal, vous lui permettez de travailler de manière continue sur ces tâches – tout comme un véritable assistant humain. À ce stade, sans aucun nouveau bond technologique, juste quelques outils de base ajoutés à un modèle de langue standard, vous auriez ce qu’on appelle un « agent d’IA », ou une IA qui agit avec une agence indépendante pour poursuivre ses objectifs dans le monde. Les agents d’IA ont été qualifiés de « l’avenir de l’intelligence artificielle » qui « réinventera la façon dont nous vivons et travaillons », la « prochaine frontière de l’IA ». OpenAI serait en train de travailler sur le développement de tels agents, tout comme de nombreuses startups bien financées.

Share the Post: