Avec l’IA comme avec tout le reste, les histoires comptent. Les mythes comptent. Les entreprises d’IA aiment la narration de l’IA comme une course aux armements – cela justifie leur ruée vers le marché. Mais cela laisse penser aux gens que peut-être nous devons nous précipiter pour développer une IA avancée même si cela pourrait augmenter les chances d’extinction humaine. Katja Grace ne croit pas à ce mythe. En tant que chercheuse principale chez AI Impacts, un projet de sécurité de l’IA à but non lucratif de l’Institut de recherche sur l’intelligence artificielle, Grace a plaidé pour le fait que l’IA n’est pas réellement une course aux armements. En mai, elle a écrit un article dans Time argumentant que « la situation de l’IA est différente de manières cruciales. Notamment, dans la course aux armements classique, une partie pourrait toujours théoriquement prendre de l’avance et gagner. Mais avec l’IA, le gagnant pourrait être l’IA avancée elle-même. Cela peut rendre la précipitation inopportune. » De plus, elle note que si un laboratoire ou une nation prend le temps de résoudre certains problèmes de sécurité de l’IA au lieu de foncer, d’autres laboratoires ou nations pourraient adopter ces améliorations, ce qui profiterait à tous. Elle écrit : ‘
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du