Yoshua Bengio a aidé à inventer l’apprentissage profond. Maintenant, il essaie de le rendre sûr.

Les dernières années ont vu l’essor de l’intelligence artificielle alimentée par l’apprentissage profond, mais des chercheurs universitaires travaillent depuis bien plus longtemps à développer et à comprendre son potentiel. Parmi les leaders incontestés du domaine, on compte Yoshua Bengio, directeur scientifique de l’Institut québécois d’intelligence artificielle Mila, un pôle scientifique qui abrite ce qui est considéré comme la plus grande concentration au monde de chercheurs en apprentissage profond. En 2018, Bengio (avec Geoffrey Hinton et Yann LeCun) a remporté le prix Turing – l’équivalent d’un prix Nobel dans le domaine de l’informatique – pour leurs contributions à l’apprentissage profond moderne. Au cours de la dernière année, Bengio a élargi son champ d’intérêt pour inclure la réflexion et l’écriture sur les risques sociaux, y compris les risques existentiels, liés à l’IA. En agissant ainsi, il s’est une fois de plus distingué comme un brillant penseur, attaquant un problème complexe et difficile avec une clarté inhabituelle. Redevable à aucun des grands laboratoires commerciaux, profondément respecté dans son domaine, en conversation avec les principaux universitaires qui sont d’accord avec lui ainsi que ceux qui ne le sont pas, Bengio a été parfaitement positionné pour déplacer la conversation sur les risques sociaux et existentiels posés par les progrès de l’IA. Bengio a présenté le cas de la préoccupation suscitée par la rapidité des progrès de la capacité de l’IA à égaler les niveaux d’intelligence humaine lors d’un témoignage devant le Sénat américain cet été : « Autrefois considérés comme étant des décennies, voire des siècles, loin de nous, [Bengio et ses collègues lauréats du prix Turing] pensent maintenant que cela pourrait être dans quelques années ou quelques dizaines d’années », a-t-il déclaré au Congrès. « Aucun des systèmes d’IA avancés actuels ne peut démontrer de manière sûre qu’il est à l’abri d’un risque de perte de contrôle en cas d’IA mal alignée. »

Share the Post: