Il y a plus de dix ans, le cofondateur du laboratoire d’intelligence artificielle DeepMind de Google a prédit qu’en 2028, l’IA aurait une chance sur deux d’être aussi intelligente que les êtres humains, et il tient bon à cette prédiction. Dans une entrevue avec le podcaster technologique Dwarkesh Patel, le cofondateur de DeepMind Shane Legg a déclaré qu’il pensait toujours que les chercheurs avaient une chance sur deux d’atteindre l’intelligence générale artificielle (AGI), une position qu’il a publiquement annoncée à la fin de 2011 sur son blog. C’est une prédiction notable compte tenu de l’intérêt croissant exponentiel pour ce domaine. Le PDG d’OpenAI, Sam Altman, plaide depuis longtemps en faveur d’un AGI, un agent hypothétique capable d’accomplir des tâches intellectuelles aussi bien qu’un être humain, qui serait bénéfique pour tous. Mais il est encore impossible de savoir si nous parviendrons un jour à ce stade, sans parler de nous mettre d’accord sur une seule définition de l’AGI. Legg a apparemment commencé à envisager son objectif de 2028 dès 2001, après avoir lu « L’Ère des machines spirituelles », le livre révolutionnaire de 1999 de l’autre luminaire de l’IA de Google, Ray Kurzweil, qui prédit une future IA surhumaine. « Il y avait deux points vraiment importants dans son livre que j’ai fini par croire véritables », a-t-il expliqué. « L’un est que la puissance de calcul augmenterait de manière exponentielle pendant au moins quelques décennies. Et que la quantité de données dans le monde augmenterait de manière exponentielle pendant quelques décennies. »
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du