Avec l’IA comme avec tout le reste, les histoires comptent. Les mythes comptent. Les entreprises d’IA adorent le récit de l’IA en tant que course aux armements – cela justifie leur hâte de se lancer sur le marché. Mais cela laisse penser aux gens que peut-être nous devrions accélérer le développement de l’IA avancée même si cela pourrait augmenter les chances d’extinction de l’humanité. Katja Grace ne croit pas à ce mythe. En tant que chercheuse en chef chez AI Impacts, un projet de sécurité de l’IA auprès de l’Institut de Recherche sur l’Intelligence Artificielle, Grace soutient que l’IA n’est en réalité pas une course aux armements. En mai, elle a écrit un article dans Time argumentant que « la situation de l’IA est différente à bien des égards cruciaux. Notamment, dans la course aux armements classique, une partie pourrait toujours potentiellement prendre de l’avance et gagner, mais avec l’IA, le gagnant pourrait être l’IA elle-même. Cela peut rendre précipiter un mouvement perdant. » De plus, elle note que si un laboratoire ou une nation prend le temps de résoudre certains problèmes de sécurité liés à l’IA au lieu de précipiter les choses, d’autres laboratoires ou nations pourraient adopter ces améliorations, ce qui profiterait à tous. Elle écrit : ‘
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du