« Nick Bostrom a fait craindre au monde l’IA. Maintenant, il se demande : Et si elle réparait tout ? »

Le philosophe Nick Bostrom est étonnamment joyeux pour quelqu’un qui a passé autant de temps à s’inquiéter des façons dont l’humanité pourrait se détruire. Sur les photographies, il semble souvent très sérieux, peut-être hanté de manière appropriée par les dangers existentiels qui rôdent dans son esprit. Lorsque nous parlons sur Zoom, il semble détendu et souriant. Bostrom a fait de sa vie le travail de réfléchir aux avancées technologiques lointaines et aux risques existentiels pour l’humanité. Avec la publication de son dernier livre, Superintelligence: Paths, Dangers, Strategies, en 2014, Bostrom a attiré l’attention du public sur ce qui était alors une idée marginale – celle que l’IA pourrait atteindre un point où elle pourrait se retourner contre l’humanité et la supprimer. Pour beaucoup, à l’intérieur et à l’extérieur de la recherche en IA, l’idée semblait fantasque, mais des personnalités influentes, dont Elon Musk, ont cité les écrits de Bostrom. Le livre a suscité une inquiétude apocalyptique au sujet des risques liés à l’IA, qui a refait surface récemment avec l’arrivée de ChatGPT. La préoccupation concernant le risque lié à l’IA n’est pas seulement devenue un sujet d’actualité, mais aussi un thème au sein des cercles de politique gouvernementale sur l’IA. Le nouveau livre de Bostrom adopte une approche très différente. Plutôt que de jouer sur les notes sombres, Deep Utopia: Life and Meaning in a Solved World, envisage un futur où l’humanité aurait développé avec succès des machines superintelligentes tout en évitant la catastrophe. Toutes les maladies ont été éradiquées et les humains peuvent vivre indéfiniment dans une abondance infinie. Le livre de Bostrom examine quelle signification il y aurait dans la vie au sein d’une techno-utopie et se demande si elle ne serait pas plutôt vide. Il a parlé avec WIRED sur Zoom, dans une conversation qui a été légèrement éditée pour des raisons de longueur et de clarté. Will Knight : Pourquoi passer de l’écriture sur l’IA superintelligente menaçant l’humanité à envisager un avenir où elle est utilisée pour faire le bien?

Share the Post: