Yoshua Bengio a aidé à inventer l’apprentissage profond. Maintenant, il essaie de le rendre sûr.

Les dernières années ont vu l’essor de l’intelligence artificielle alimentée par un apprentissage profond, mais des chercheurs universitaires travaillent depuis bien plus longtemps à développer et à comprendre son potentiel. Parmi les leaders incontestés du domaine se trouve Yoshua Bengio, directeur scientifique de l’Institut québécois d’intelligence artificielle Mila, un hub scientifique abritant ce qui est considéré comme la plus grande concentration au monde de chercheurs universitaires en apprentissage profond. En 2018, Bengio (aux côtés de Geoffrey Hinton et Yann LeCun) a remporté le prix Turing – l’équivalent d’un prix Nobel dans le domaine de l’informatique – pour leurs contributions à l’apprentissage profond moderne. Au cours de la dernière année, Bengio a élargi son champ d’intérêt pour inclure la réflexion et l’écriture sur les risques sociaux, y compris les risques existentiels, liés à l’IA. En agissant ainsi, il s’est une fois de plus distingué comme un brillant penseur, attaquant un problème complexe et difficile avec une clarté inhabituelle. Dépourvu de grandes laboratoires commerciaux, profondément respecté dans son domaine et en conversation avec des universitaires de premier plan qui sont d’accord avec lui ainsi que ceux qui ne le sont pas, Bengio a été parfaitement positionné pour faire avancer la conversation sur les risques sociaux et existentiels posés par les progrès de l’IA. Dans un témoignage devant le Sénat américain cet été, Bengio a présenté les raisons de s’inquiéter du progrès rapide de la capacité de l’IA à atteindre des niveaux d’intelligence équivalents à ceux des êtres humains : « Auparavant considérée comme étant à des dizaines, voire à des centaines d’années de là, [Bengio et ses collègues lauréats du prix Turing] estiment maintenant qu’elle pourrait être atteinte dans quelques années ou dans une couple de décennies », a-t-il dit au Congrès. « Aucun des systèmes d’IA avancés actuels n’est démontrablement sûr contre le risque de perte de contrôle vis-à-vis d’une IA mal alignée. »

Share the Post: