Yoshua Bengio a aidé à inventer l’apprentissage profond. Maintenant, il essaie de le rendre sûr.

L’IA moderne alimentée par l’apprentissage profond n’a attiré l’attention du monde que ces dernières années, mais certains chercheurs universitaires travaillent depuis beaucoup, beaucoup plus longtemps pour développer et comprendre son potentiel. Parmi les leaders incontestés de ce domaine se trouve Yoshua Bengio, directeur scientifique de l’Institut d’intelligence artificielle de Montréal (Mila), un pôle scientifique qui abrite ce qui est considéré comme la plus grande concentration mondiale de chercheurs universitaires en apprentissage profond. En 2018, Bengio (avec Geoffrey Hinton et Yann LeCun) a remporté le prix Turing – l’équivalent approximatif d’un prix Nobel dans le domaine de l’informatique – pour leurs contributions à l’apprentissage profond moderne. Au cours de l’année écoulée, Bengio a élargi son champ d’intérêt pour inclure la réflexion et l’écriture sur les risques sociaux, y compris les risques existentiels, liés à l’IA. Ce faisant, il s’est distingué en tant que penseur brillant, attaquant un problème complexe et difficile avec une clarté inhabituelle. Sans dépendre des grands laboratoires commerciaux, profondément respecté dans son domaine et en dialogue avec des universitaires de premier plan qui sont d’accord avec lui et ceux qui ne le sont pas, Bengio est parfaitement positionné pour faire progresser le débat sur les risques sociétaux et existentiels posés par l’avancée de l’IA. Dans son témoignage devant le Sénat américain cet été, Bengio exposa les raisons de s’inquiéter de la rapidité de l’évolution des capacités de l’IA vers l’égalisation des niveaux d’intelligence humaine : « Autrefois considéré comme étant à des décennies, voire des siècles de distance, [Bengio et ses collègues lauréats du prix Turing] pensent maintenant que cela pourrait se produire d’ici quelques années ou quelques décennies », a-t-il déclaré au Congrès. « Aucun des systèmes d’IA avancés actuels n’est démontrablement sûr contre le risque de perte de contrôle face à une IA mal alignée ».

Share the Post: