Yoshua Bengio a aidé à inventer l’apprentissage profond. Maintenant, il essaie de le rendre sûr.

Les dernières années ont vu l’essor de l’intelligence artificielle alimentée par l’apprentissage profond, qui a attiré l’attention du monde entier. Pourtant, certains chercheurs universitaires travaillent depuis bien plus longtemps que cela pour développer et comprendre son potentiel. Parmi les leaders incontestés du domaine, on compte Yoshua Bengio, directeur scientifique de l’Institut québécois d’intelligence artificielle Mila, un centre scientifique qui abrite ce qui est considéré comme la plus grande concentration au monde de chercheurs en apprentissage profond. En 2018, Bengio (aux côtés de Geoffrey Hinton et Yann LeCun) a remporté le prix Turing – l’équivalent d’un prix Nobel dans le domaine de l’informatique – pour ses contributions à l’apprentissage profond moderne. Au cours de la dernière année, Bengio a élargi son champ d’intérêt pour inclure la réflexion et l’écriture sur les risques sociaux, y compris les risques existentiels, liés à l’IA. En agissant ainsi, il s’est une fois de plus distingué comme un brillant penseur, abordant un problème complexe et difficile avec une clarté inhabituelle. Libéré de tout lien avec les grands laboratoires commerciaux, profondément respecté dans son domaine et en conversation avec les principaux universitaires qui partagent son point de vue ainsi que ceux qui ne le font pas, Bengio est en mesure de redéfinir la conversation sur les risques sociaux et existentiels liés à la progression de l’IA. Bengio a présenté devant le Sénat américain cet été les raisons de sa préoccupation face à la progression rapide de la capacité de l’IA à atteindre des niveaux d’intelligence équivalents à ceux des êtres humains : « Auparavant considérées comme des décennies, voire des siècles, [Bengio et ses collègues lauréats du prix Turing] estiment maintenant qu’elles pourraient être atteintes dans les années à venir ou dans les deux décennies. Aucun des systèmes d’IA avancés actuels n’est démontrablement sûr contre le risque de perte de contrôle face à une IA mal alignée. »

Share the Post: