Yoshua Bengio a contribué à l’invention d’apprentissage profond. Maintenant, il essaye de le rendre sûr.

Les dernières années ont vu l’arrivée sur le devant de la scène mondiale de l’intelligence artificielle (IA) alimentée par l’apprentissage profond (« deep learning »), mais des chercheurs universitaires travaillent depuis bien plus longtemps pour développer et comprendre son potentiel. Parmi les leaders incontestés de ce domaine, on compte Yoshua Bengio, directeur scientifique de l’Institut québécois d’IA Mila, un pôle scientifique abritant ce qui est considéré comme la plus grande concentration au monde de chercheurs en apprentissage profond. En 2018, Bengio (aux côtés de Geoffrey Hinton et Yann LeCun) a remporté le prix Turing – l’équivalent approximatif d’un prix Nobel dans le domaine de l’informatique – pour ses contributions au deep learning moderne. Au cours de la dernière année, Bengio a élargi son champ d’action pour inclure la réflexion et l’écriture sur les risques sociaux, y compris les risques existentiels, liés à l’IA. En agissant ainsi, il s’est une fois de plus distingué comme un brillant penseur, abordant avec une clarté inhabituelle un sujet complexe et controversé. Libre de toute dette envers les grands laboratoires commerciaux, profondément respecté dans son domaine et en conversation avec les principaux universitaires qui partagent son point de vue comme ceux qui ne le partagent pas, Bengio est parfaitement placé pour faire avancer la discussion sur les risques sociaux et existentiels que fait peser le progrès de l’IA. Bengio a présenté devant le Sénat américain cet été les raisons de sa préoccupation face à la progression rapide de la capacité de l’IA à égaler les niveaux d’intelligence humaine : « Auparavant considérées comme étant encore des décennies, voire des siècles, loin d’être atteintes, [Bengio et ses collègues lauréats du prix Turing] estiment maintenant qu’elles pourraient l’être dans les années à venir, ou même dans les deux décennies qui viennent. Aucun des systèmes d’IA avancés actuels n’est démontrablement sûr contre le risque de perte de contrôle face à une IA mal alignée. »

Share the Post: