Les histoires et les mythes ont une importance capitale en ce qui concerne l’IA. Les entreprises d’IA adorent la narration de l’IA comme une course aux armements – cela justifie leur hâte de mettre leurs produits sur le marché. Mais cela laisse les gens penser qu’ils peuvent être amenés à développer une IA avancée, même si cela pourrait augmenter les chances d’extinction de l’espèce humaine. Katja Grace ne croit pas à ce mythe. En tant que chercheuse principale d’AI Impacts, un projet de sécurité de l’IA au sein de la Machine Intelligence Research Institute, Grace a fait valoir que l’IA n’était en fait pas une course aux armements. En mai, elle a écrit un article dans Time arguant que « la situation de l’IA est différente de manière cruciale. Notamment, dans la course aux armements classique, une partie pourrait toujours théoriquement prendre l’avantage et gagner. Mais avec l’IA, le gagnant pourrait être l’IA elle-même. Cela peut rendre la course une mauvaise idée. » De plus, note-t-elle, si un laboratoire ou une nation prend le temps de résoudre certains problèmes de sécurité de l’IA au lieu de se précipiter, d’autres laboratoires ou nations pourraient intégrer ces améliorations, ce qui serait bénéfique pour tout le monde. Elle écrit:
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du