Yoshua Bengio a aidé à inventer l’apprentissage profond. Maintenant, il essaie de le rendre sûr.

L’intelligence artificielle moderne alimentée par l’apprentissage profond n’a attiré l’attention du monde que ces dernières années, mais certains chercheurs universitaires travaillent depuis bien plus longtemps pour développer et comprendre son potentiel. Parmi les leaders incontestés de ce domaine se trouve Yoshua Bengio, directeur scientifique de l’Institut Mila Québec en IA, un pôle scientifique qui abrite ce qui est considéré comme la plus grande concentration mondiale de chercheurs universitaires en apprentissage profond. En 2018, Bengio (aux côtés de Geoffrey Hinton et Yann LeCun) a remporté le prix Turing – l’équivalent approximatif d’un prix Nobel dans le domaine de l’informatique – pour leurs contributions à l’apprentissage profond moderne. Au cours de l’année écoulée, Bengio a élargi son domaine d’intérêt pour inclure la réflexion et l’écriture sur les risques sociétaux, y compris les risques existentiels, liés à l’IA. Ce faisant, il s’est une fois de plus distingué en tant que penseur brillant, abordant un problème complexe et délicat avec une clarté inhabituelle. Sans dépendre de grands laboratoires commerciaux, profondément respecté dans son domaine et en conversation avec des universitaires de premier plan qui sont d’accord avec lui ainsi qu’avec ceux qui ne le sont pas, Bengio est idéalement positionné pour faire avancer la conversation sur les risques sociétaux et existentiels posés par les progrès de l’IA. Lors de son témoignage devant le Sénat américain cet été, Bengio a exposé les raisons de s’inquiéter de la rapide progression de l’IA vers des niveaux d’intelligence humaine comparables : « Auparavant, on pensait que cela prendrait des décennies, voire des siècles », ont déclaré Bengio et ses collègues lauréats du prix Turing, « maintenant, nous pensons que cela pourrait se produire d’ici quelques années ou quelques décennies », a-t-il déclaré au Congrès. « Aucun des systèmes d’IA avancés actuels n’est démontrablement sûr contre le risque de perte de contrôle par une IA mal alignée ».

Share the Post: