Yoshua Bengio a aidé à inventer l’apprentissage profond. Maintenant, il essaie de le rendre sûr.

Les dernières années ont vu l’essor de l’apprentissage profond alimenté par l’IA moderne susciter l’attention du monde entier, mais certains chercheurs universitaires travaillent depuis bien plus longtemps pour développer et comprendre son potentiel. Parmi les leaders incontestés du domaine, on compte Yoshua Bengio, directeur scientifique de l’Institut québécois d’apprentissage profond Mila, un pôle scientifique abritant ce qui est considéré comme la plus grande concentration au monde de chercheurs en apprentissage profond universitaires. En 2018, Bengio (aux côtés de Geoffrey Hinton et Yann LeCun) a remporté le prix Turing – l’équivalent approximatif d’un prix Nobel dans le domaine des sciences informatiques – pour leurs contributions à l’apprentissage profond moderne. Au cours de la dernière année, Bengio a élargi son champ d’intérêt pour inclure la réflexion et l’écriture sur les risques sociaux, y compris les risques existentiels, liés à l’IA. En agissant ainsi, il s’est une fois de plus distingué comme un brillant penseur, abordant une question complexe et difficile avec une clarté inhabituelle. Dépourvu de grand laboratoire commercial, profondément respecté dans son domaine et en conversation avec les principaux universitaires qui partagent son point de vue ainsi que ceux qui ne le font pas, Bengio est parfaitement placé pour faire évoluer la conversation sur les risques sociaux et existentiels posés par les progrès de l’IA. Dans un témoignage devant le Sénat américain cet été, Bengio a présenté les raisons de sa préoccupation face au progrès rapide de la capacité de l’IA à égaler les niveaux d’intelligence humaine : « Auparavant considérée comme étant à des années, voire à des siècles de là, [Bengio et ses collègues lauréats du prix Turing] pensent maintenant qu’elle pourrait être atteinte dans quelques années ou dans une couple de décennies », a-t-il déclaré au Congrès. « Aucun des systèmes d’IA avancés actuels ne peut démontrer de manière sûre qu’il n’est pas vulnérable au risque de perte de contrôle face à une IA mal alignée. »

Share the Post: