Yoshua Bengio a aidé à inventer l’apprentissage profond. Maintenant, il essaie de le rendre sûr.

L’IA moderne alimentée par l’apprentissage en profondeur n’a attiré l’attention du monde que ces dernières années, mais certains chercheurs universitaires travaillent au développement et à la compréhension de son potentiel depuis bien plus longtemps que cela. Parmi les leaders incontestés du domaine se trouve Yoshua Bengio, directeur scientifique de l’Institut québécois d’intelligence artificielle Mila, un pôle scientifique abritant la plus grande concentration au monde de chercheurs universitaires en apprentissage en profondeur. En 2018, Bengio (accompagné de Geoffrey Hinton et Yann LeCun) a remporté le prix Turing, l’équivalent approximatif d’un prix Nobel dans le domaine de l’informatique, pour leurs contributions à l’apprentissage en profondeur moderne. Au cours de l’année dernière, Bengio a élargi son champ d’intérêt pour inclure la réflexion et l’écriture sur les risques sociétaux, y compris les risques existentiels, liés à l’IA. Ce faisant, il s’est distingué une fois de plus en tant que penseur brillant, attaquant un problème complexe et délicat avec une clarté inhabituelle. Sans dette envers les grands laboratoires commerciaux, profondément respecté dans son domaine et en dialogue avec les principaux universitaires qui sont d’accord avec lui et ceux qui ne le sont pas, Bengio est positionné de manière unique pour faire avancer la conversation sur les risques sociétaux et existentiels posés par les progrès de l’IA. Dans son témoignage devant le Sénat américain cet été, Bengio a exposé les raisons de s’inquiéter de la rapidité des progrès de l’IA en termes de capacité à atteindre des niveaux d’intelligence humaine: « Antérieurement considéré comme étant à des décennies, voire des siècles de distance, [Bengio et ses collègues lauréats du prix Turing] pensent maintenant qu’il pourrait se produire dans quelques années ou quelques décennies », a-t-il déclaré au Congrès. « Aucun des systèmes avancés d’IA actuels n’est démontrablement sûr contre le risque de perte de contrôle face à une IA désalignée. »

Share the Post: