Yoshua Bengio a aidé à inventer l’apprentissage profond. Maintenant, il essaye de le rendre sûr.

Les dernières années ont vu l’essor de l’intelligence artificielle alimentée par l’apprentissage profond, mais des chercheurs universitaires travaillent depuis bien plus longtemps à son développement et à sa compréhension. Parmi les leaders incontestés du domaine, on compte Yoshua Bengio, directeur scientifique de l’Institut québécois d’intelligence artificielle Mila, un centre scientifique qui abrite ce qui est considéré comme la plus grande concentration au monde de chercheurs en apprentissage profond. En 2018, Bengio (aux côtés de Geoffrey Hinton et Yann LeCun) a remporté le prix Turing – l’équivalent approximatif d’un prix Nobel dans le domaine des ordinateurs – pour ses contributions à l’apprentissage profond moderne. Au cours de la dernière année, Bengio a élargi son champ d’intérêt pour inclure la réflexion et l’écriture sur les risques sociaux, y compris les risques existentiels, liés à l’IA. En agissant ainsi, il s’est une fois de plus distingué comme un brillant penseur, abordant une question compliquée et conflictuelle avec une clarté inhabituelle. Redevable à aucun grand laboratoire commercial, profondément respecté dans son domaine et en conversation avec les principaux universitaires qui sont d’accord avec lui, mais aussi ceux qui ne le sont pas, Bengio est parfaitement placé pour faire avancer la conversation sur les risques sociaux et existentiels posés par les progrès de l’IA. Bengio a présenté le cas de la préoccupation suscitée par les progrès rapides de la capacité de l’IA à égaler les niveaux d’intelligence humaine devant le Sénat américain cet été : « Auparavant considérées comme des décennies, voire des siècles, [Bengio et ses collègues lauréats du prix Turing] estiment maintenant qu’elles pourraient être atteintes dans quelques années ou quelques décennies », a-t-il dit au Congrès. « Aucun des systèmes d’IA avancés actuels ne s’est avéré démontrablement sûr contre le risque de perte de contrôle d’un AI mal aligné. »

Share the Post: