Yoshua Bengio a aidé à inventer l’apprentissage profond. Maintenant, il essaye de le rendre sûr.

Les dernières années ont vu l’essor de l’intelligence artificielle alimentée par l’apprentissage profond, mais des chercheurs universitaires travaillent depuis bien plus longtemps à son développement et à sa compréhension. Parmi les leaders incontestés du domaine, Yoshua Bengio, directeur scientifique de l’Institut québécois d’intelligence artificielle Mila, est un hub scientifique qui abrite ce que l’on croit être la plus grande concentration au monde de chercheurs en apprentissage profond. En 2018, Bengio (aux côtés de Geoffrey Hinton et Yann LeCun) a remporté le prix Turing – l’équivalent d’un prix Nobel dans le domaine des sciences informatiques – pour leurs contributions à l’apprentissage profond moderne. Au cours de la dernière année, Bengio a élargi son champ d’intérêt pour inclure la pensée et l’écriture sur les risques sociaux, y compris les risques existentiels, liés à l’IA. En agissant ainsi, il s’est une fois de plus distingué comme un brillant penseur, abordant un sujet complexe et difficile avec une clarté inhabituelle. Bengio, qui n’est redevable à aucun grand laboratoire commercial, est profondément respecté dans son domaine et en conversation avec les principaux universitaires qui sont d’accord avec lui, comme ceux qui ne le sont pas, a été unique en son genre pour faire avancer la conversation sur les risques sociaux et existentiels posés par le progrès de l’IA. Dans un témoignage devant le Sénat des États-Unis cet été, Bengio a présenté le cas de l’inquiétude quant à la progression rapide de la capacité de l’IA à égaler les niveaux d’intelligence humaine : « Auparavant considérés comme des décennies ou même des siècles, [Bengio et ses collègues lauréats du prix Turing] estiment maintenant qu’ils pourraient être atteints dans quelques années ou dans une poignée de décennies », a-t-il déclaré au Congrès. « Aucun des systèmes d’IA avancés actuels ne peut démontrer de façon sûre qu’il est à l’abri du risque de perte de contrôle vis-à-vis d’une IA mal alignée. »

Share the Post: