Avec l’IA comme avec tout le reste, les histoires comptent. Les mythes comptent. Les entreprises d’IA adorent le récit de l’IA comme course aux armements – cela justifie leur course au marché. Mais cela laisse les gens penser que peut-être nous devons nous précipiter pour développer une IA avancée, même si cela pourrait accroître les chances d’extinction de l’humanité. Katja Grace ne croit pas à ce mythe. En tant que chercheuse principale d’AI Impacts, un projet de sécurité de l’IA au sein de la Machine Intelligence Research Institute, Grace a fait valoir que l’IA n’était pas en fait une course aux armements. En mai, elle a écrit un article dans Time affirmant que «la situation de l’IA est différente de manière cruciale. Notamment, dans la course aux armements classique, une partie pourrait toujours théoriquement prendre de l’avance et gagner. Mais avec l’IA, le vainqueur pourrait être l’IA elle-même. Cela peut rendre la course une mauvaise idée.» De plus, elle note que si un laboratoire ou une nation prend le temps de résoudre certains problèmes de sécurité de l’IA au lieu de se précipiter, d’autres laboratoires ou nations peuvent prendre ces améliorations en compte, ce qui serait bénéfique pour tous. Elle écrit:
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)