Comment ne pas être stupide à propos de l’IA, avec Yann LeCun

Ne prêchez pas le malheur à Yann LeCun. Pionnier de l’IA moderne et scientifique en chef de l’IA chez Meta, LeCun est l’un des défenseurs les plus vocaux de cette technologie. Il se moque des scénarios dystopiques de désinformation surpuissante et même, éventuellement, d’extinction humaine évoqués par ses pairs. Il est connu pour envoyer des tweets virulents (ou peu importe comment cela s’appelle chez X) pour dénoncer les fauteurs de peur. Lorsque ses anciens collaborateurs Geoffrey Hinton et Yoshua Bengio ont signé une déclaration qualifiant l’IA de « risque à l’échelle sociétale », LeCun s’est tenu à l’écart. Au lieu de cela, il a signé une lettre ouverte au président américain Joe Biden appelant à l’adoption de l’IA en tant que logiciel libre et déclarant que celle-ci « ne devrait pas être sous le contrôle d’un petit nombre d’entités corporatives ». Les opinions de LeCun comptent. Avec Hinton et Bengio, il a contribué à créer l’approche de l’apprentissage profond qui a été essentielle pour faire progresser l’IA – un travail pour lequel le trio a ensuite reçu le prix Turing, la plus haute distinction en informatique. Meta a obtenu un coup majeur lorsque l’entreprise (alors appelée Facebook) l’a recruté en tant que directeur fondateur du laboratoire de recherche en IA de Facebook (FAIR) en 2013. Il est également professeur à l’université de New York (NYU). Plus récemment, il a convaincu le PDG Mark Zuckerberg de partager une partie de la technologie d’IA de Meta avec le monde : cet été, l’entreprise a lancé un modèle de langage open source appelé Llama 2, qui concurrence les modèles de langage de grande envergure (LLMs) d’OpenAI, de Microsoft et de Google – les « quelques entités corporatives » sous-entendues dans la lettre à Biden. Les critiques craignent que cette stratégie open source ne permette à de mauvais acteurs de modifier le code et d’enlever les garde-fous qui minimisent les déchets racistes et autres outputs toxiques provenant des LLMs. LeCun, l’un des plus grands défenseurs de l’IA, est convaincu que l’humanité peut y faire face. J’ai rencontré LeCun dans une salle de conférence du bureau de Meta à Midtown, à New York, cet automne. Nous avons discuté de l’open source, de la raison pour laquelle il pense que le danger de l’IA est exagéré, et de la capacité d’un ordinateur à toucher le cœur humain de la même manière qu’un solo de saxophone de Charlie Parker. (LeCun, qui a grandi juste à l’extérieur de Paris, fréquente fréquemment les clubs de jazz de New York.) Nous avons eu une autre conversation en décembre, alors que LeCun assistait à la conférence annuelle influente NeurIPS à La Nouvelle-Orléans – une conférence où il est considéré comme un dieu. L’interview a été éditée pour des raisons de longueur et de clarté. Steven Levy : Lors d’une récente conférence, vous avez déclaré : « L’apprentissage automatique est nul. » Pourquoi un pionnier de l’IA comme vous dirait-il cela ? Yann LeCun : L’apprentissage automatique est formidable. Mais l’idée que nous allons simplement augmenter les techniques que nous avons et arriver à une IA de niveau humain ? Non. Il nous manque quelque chose d’important pour permettre aux machines d’apprendre de manière efficace, comme le font les humains et les animaux. Nous ne savons pas encore ce que c’est.

Share the Post: