Avec l’IA, comme pour tout le reste, les histoires ont une importance capitale. Les mythes ont une importance capitale. Les entreprises d’IA adorent la narration de l’IA comme une course aux armements – cela justifie leur course au marché. Mais cela laisse les gens penser que peut-être nous devons nous précipiter pour développer une IA avancée, même si cela pourrait augmenter les chances de l’extinction de l’humanité. Katja Grace ne croit pas à ce mythe. En tant que chercheuse principale d’AI Impacts, un projet de sécurité des IA au sein de l’Institut de recherche en intelligence artificielle à but non lucratif, Grace a soutenu que l’IA n’était pas en fait une course aux armements. En mai, elle a écrit un article dans Time affirmant que «la situation de l’IA est différente de manière cruciale. Notamment, dans la course aux armements classique, une partie pourrait toujours théoriquement prendre de l’avance et gagner. Mais avec l’IA, le vainqueur peut être l’IA elle-même. Cela peut rendre la course une erreur.», note-t-elle. De plus, si un laboratoire ou une nation prend le temps de résoudre certains problèmes de sécurité des IA au lieu de se précipiter, d’autres laboratoires ou nations peuvent adopter ces améliorations, ce qui serait bénéfique pour tout le monde. Elle écrit:
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du