Yoshua Bengio a aidé à inventer l’apprentissage profond. Maintenant, il essaie de le rendre sûr.

Les dernières années ont vu l’essor de l’intelligence artificielle alimentée par l’apprentissage profond susciter l’attention du monde entier, mais des chercheurs universitaires travaillent depuis bien plus longtemps pour développer et comprendre son potentiel. Parmi les leaders incontestés du domaine, on compte Yoshua Bengio, directeur scientifique de l’Institut québécois d’intelligence artificielle Mila, un pôle scientifique abritant ce qui est considéré comme la plus grande concentration au monde de chercheurs en apprentissage profond. En 2018, Bengio (aux côtés de Geoffrey Hinton et Yann LeCun) a remporté le prix Turing – l’équivalent approximatif d’un prix Nobel dans le domaine des ordinateurs – pour leurs contributions à l’apprentissage profond moderne. Au cours de la dernière année, Bengio a élargi son champ d’intérêt pour inclure la réflexion et l’écriture sur les risques sociétaux, y compris les risques existentiels, liés à l’IA. En agissant ainsi, il s’est une fois de plus distingué comme un brillant penseur, attaquant un sujet complexe et épineux avec une clarté inhabituelle. Redevable à aucun des grands laboratoires commerciaux, profondément respecté dans son domaine et en conversation avec les principaux universitaires qui sont d’accord avec lui ainsi que ceux qui ne le sont pas, Bengio a été parfaitement placé pour faire avancer la conversation sur les risques sociétaux et existentiels posés par les progrès de l’IA. Bengio a présenté devant le Sénat américain cet été les raisons de sa préoccupation face au progrès rapide des capacités de l’IA vers un niveau d’intelligence équivalant à celui de l’être humain : « Auparavant considérées comme étant des décennies, voire des siècles, loin de nous, [Bengio et ses collègues lauréats du prix Turing] estiment maintenant que cela pourrait être dans quelques années ou une couple de décennies », a-t-il déclaré devant le Congrès. « Aucun des systèmes d’IA avancés actuels ne sont démontrablement sûrs contre le risque de perte de contrôle face à une IA mal alignée. »

Share the Post: