Yoshua Bengio a aidé à inventer l’apprentissage profond. Maintenant, il essaie de le rendre sûr.

Les dernières années ont été marquées par l’essor de l’intelligence artificielle alimentée par l’apprentissage profond, mais des chercheurs académiques travaillent depuis bien plus longtemps pour développer et comprendre son potentiel. Parmi les leaders incontestés du domaine se trouve Yoshua Bengio, directeur scientifique de l’Institut québécois d’intelligence artificielle Mila, un hub scientifique qui abrite ce qui est considéré comme la plus grande concentration mondiale de chercheurs en apprentissage profond. En 2018, Bengio (aux côtés de Geoffrey Hinton et Yann LeCun) a remporté le prix Turing – l’équivalent approximatif d’un prix Nobel dans le domaine des ordinateurs – pour ses contributions à l’apprentissage profond moderne. Au cours de la dernière année, Bengio a élargi sa focus pour inclure la pensée et l’écriture sur les risques sociaux, y compris les risques existentiels, liés à l’IA. En agissant ainsi, il s’est une fois de plus distingué comme un brillant penseur, attaquant un problème compliqué et difficile avec une clarté inhabituelle. Redevable à aucun grand laboratoire commercial, profondément respecté dans son domaine et en conversation avec les principaux chercheurs académiques qui sont d’accord avec lui comme ceux qui ne le sont pas, Bengio a été parfaitement positionné pour faire avancer la conversation sur les risques sociaux et existentiels posés par la progression de l’IA. Dans son témoignage devant le Sénat américain cet été, Bengio a présenté les raisons de sa préoccupation face à la progression rapide de la capacité de l’IA à atteindre des niveaux d’intelligence équivalents à ceux des êtres humains: «Auparavant considérées comme étant des décennies, voire des siècles, loin de nous, [Bengio et ses collègues lauréats du prix Turing] pensent maintenant que cela pourrait être dans quelques années ou une couple de décennies», a-t-il déclaré au Congrès. «Aucun des systèmes d’IA avancés actuels ne peut démontrer de façon sûre qu’ils sont à l’abri du risque de perte de contrôle en cas d’IA mal alignée.»

Share the Post: