Yoshua Bengio a aidé à inventer l’apprentissage profond. Maintenant, il essaie de le rendre sûr.

Les dernières années ont vu l’essor de l’intelligence artificielle alimentée par l’apprentissage profond, mais des chercheurs universitaires travaillent depuis bien plus longtemps sur le développement et la compréhension de son potentiel. Parmi les leaders incontestés de ce domaine, on compte Yoshua Bengio, directeur scientifique de l’Institut québécois d’intelligence artificielle Mila, un pôle scientifique qui abrite ce qui est considéré comme la plus grande concentration au monde de chercheurs en apprentissage profond. En 2018, Bengio (aux côtés de Geoffrey Hinton et Yann LeCun) a remporté le prix Turing – l’équivalent d’un prix Nobel dans le domaine des ordinateurs – pour leurs contributions à l’apprentissage profond moderne. Au cours de la dernière année, Bengio a élargi son champ d’intérêt pour inclure la réflexion et l’écriture sur les risques sociaux, y compris les risques existentiels, posés par l’IA. En agissant ainsi, il s’est une fois de plus distingué comme un brillant penseur, attaquant un problème complexe et difficile avec une clarté inhabituelle. Libre de toute dette envers les grandes entreprises de recherche, profondément respecté dans son domaine et en conversation avec les principaux universitaires qui sont d’accord avec lui, ainsi qu’avec ceux qui ne le sont pas, Bengio est parfaitement placé pour faire avancer la conversation sur les risques sociaux et existentiels posés par les progrès de l’IA. Dans un témoignage devant le Sénat américain cet été, Bengio a présenté les raisons de sa préoccupation face à la progression rapide de la capacité de l’IA à atteindre des niveaux d’intelligence équivalents à ceux des humains : « Auparavant considérés comme des décennies ou même des siècles de l’atteindre, [Bengio et ses collègues Turing] estiment maintenant qu’il pourrait être atteint dans quelques années ou une couple de décennies », a-t-il déclaré au Congrès. « Aucun des systèmes d’IA avancés actuels ne sont démontrablement sûrs contre le risque de perte de contrôle face à une IA mal alignée. »

Share the Post: