Yoshua Bengio a aidé à inventer l’apprentissage profond. Maintenant, il essaie de le rendre sûr.

Les dernières années ont montré que l’intelligence artificielle moderne, propulsée par l’apprentissage profond, a captivé l’attention du monde entier, mais certains chercheurs universitaires œuvrent depuis bien plus longtemps pour développer et comprendre son potentiel. Parmi les chefs de file incontestés du domaine, on compte Yoshua Bengio, directeur scientifique de l’Institut québécois d’intelligence artificielle Mila, un pôle scientifique qui abrite ce que l’on croit être la plus grande concentration au monde de chercheurs en apprentissage profond universitaires. En 2018, Bengio (aux côtés de Geoffrey Hinton et Yann LeCun) a remporté le prix Turing – l’équivalent approximatif d’un prix Nobel dans le domaine des ordinateurs – pour leurs contributions à l’apprentissage profond moderne. Au cours de la dernière année, Bengio a élargi son champ d’intérêt pour inclure la réflexion et l’écriture sur les risques sociaux, y compris les risques existentiels, liés à l’IA. En agissant ainsi, il s’est une fois de plus distingué comme un brillant penseur, attaquant un problème complexe et difficile avec une clarté inhabituelle. Ne devant rien aux grands laboratoires commerciaux, profondément respecté dans son domaine et en conversation avec les principaux universitaires qui sont d’accord avec lui ainsi qu’avec ceux qui ne le sont pas, Bengio était en position unique pour transformer la conversation sur les risques sociaux et existentiels posés par les progrès de l’IA. Dans un témoignage devant le Sénat américain cet été, Bengio a présenté les raisons de sa préoccupation face au progrès rapide de la capacité de l’IA à égaler les niveaux d’intelligence humaine : « Auparavant considérés comme des décennies, voire des siècles, [Bengio et ses collègues lauréats du prix Turing] pensent maintenant que cela pourrait être dans quelques années ou une couple de décennies », a-t-il déclaré au Congrès. « Aucun des systèmes d’IA avancés actuels n’est démontrablement sûr contre le risque de perte de contrôle vis-à-vis d’une IA mal alignée. »

Share the Post: